7月4日,2024世界人工智能大會暨人工智能全球治理高級別會議(WAIC2024)在上海開幕。在當天下午舉行的國際電信聯盟人工智能向善研討會上,硅谷機器人創(chuàng)業(yè)公司Robust.AI首席執(zhí)行官兼創(chuàng)始人加里馬庫斯做了視頻演講,分享“如何確保人工智能為我們所用”。
加里馬庫斯在論壇上進行視頻演講。 主辦方供圖
據澎湃新聞此前報道,加里馬庫斯一直是生成式AI浪潮的唱反調者,堅稱僅靠深度學習并不能實現類人智能,經常在社交媒體上與AI知名學者舌戰(zhàn)。提起討厭ChatGPT的專家,他絕對是社交媒體上最矚目的人。
“現在所用的AI在技術上和道德上都是不完整的(inadequate)。”馬庫斯開篇明義,表示大家現在所關注的生成式AI只是一種可能性的方法,很有趣、很受歡迎,但是有很多問題,他更愿意將其稱為“Rough Draft AI(AI的草稿)”。
馬庫斯將當前人們關注的通用人工智能稱為“RoughDraftAI”
馬庫斯表示,AI會使用全世界的統(tǒng)計數據,試圖從這些統(tǒng)計數據中猜測這個世界是如何運作的,但這并不能夠代表世界的真相。這就是所謂的“AI幻覺”,大語言模型看起來很聰明,但是不能檢查自己的工作。而這些問題并不能通過加入多模態(tài)、影像學工具來真正地解決。
其次,人工智能也會存在偏見問題,這在十年之前就為人們所知,但現在也還沒有真正的解決方案。此外,人工智能也存在抄襲問題,Chat GPT的產出會根據統(tǒng)計數據給出多個版本的回答,但實際上只是已有數據的重塑。
由此,馬庫斯認為今天的AI是不穩(wěn)定的,在現實中沒有錨,于是帶來很多風險,比如虛假信息、市場操作、誹謗、深度造假、偏見歧視、隱私數據泄露、侵犯知識產權等。在他看來,過度依賴這樣不可靠的系統(tǒng),甚至將AI工具放到武器系統(tǒng)或者電網當中,成本是巨大的,甚至可能會存在嚴重的長期風險。
如何在政策層面提出解法呢?馬庫斯指出,不能期待現有的法律面面俱到,也不能期待一個統(tǒng)一的解決方案能夠解決AI帶來的所有風險。在全球范圍內,馬庫斯認為快速敏捷的反應很重要,同時還需要透明度,需要全面統(tǒng)計、全面訓練,并全面披露所有內部測試。此外,還需要第三方來做發(fā)布后的審計,讓人們知道這些AI系統(tǒng)是否被誤用,是否存在歧視。要負責任地進行分層監(jiān)督,要有類似國家和全球性質的機構來做監(jiān)管。
馬庫斯還指出,不應該讓大型科技公司來決定一切,例如技術開源可能會帶來風險。
盡管AI熱潮奔涌,但在馬庫斯看來,通用人工智能并非迫在眉睫。人們如此認為,一定程度上是來自硅谷的炒作,真正重要的是解決人工智能在現實世界中的問題。馬庫斯提出,人工智能的能力增長實際上已經放緩,但他仍覺得人工智能有希望變得更好。要實現這一點,還需要從人類社會當中獲得線索。他說:“人的思維不是單一的,當我們在制定人工智能政策時,需要對當前的人工智能持現實的態(tài)度,并且找到超越它的方法。”
馬庫斯表示,很多公司都擁有學習能力強、推理能力較弱、數據不可解釋的系統(tǒng),而現在需要開發(fā)一種新的人工智能方法;蛟S需要幾十年的時間,人們才能夠去理解如何構建一個結合學習和推理優(yōu)點的人工智能,讓其成為可學習的、數據高效的、可解釋的、可靠的、可驗證的和基于事實的人工智能。