展會(huì)信息港展會(huì)大全

“AI教父”楊立昆:不喜歡AGI這個(gè)詞,大語(yǔ)言模型不是通往人類智慧的道路|直擊WAIC2023
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-07-07 09:37:41   瀏覽:6924次  

導(dǎo)讀:作者 | 鄧詠儀 編輯 | 蘇建勛 7月6日,為期三天的2023世界人工智能大會(huì)(WAIC)在上海正式舉辦。 作為國(guó)內(nèi)最高規(guī)格的AI會(huì)議,世界人工智能大會(huì)是國(guó)內(nèi)AI的發(fā)展風(fēng)向標(biāo)。今年的WAIC大會(huì)上,嘉賓名單依舊星光熠熠。據(jù)WAIC官方數(shù)據(jù),這次大會(huì)有約1400位嘉賓參會(huì),...

作者 | 鄧詠儀

編輯 | 蘇建勛

7月6日,為期三天的2023世界人工智能大會(huì)(WAIC)在上海正式舉辦。

作為國(guó)內(nèi)最高規(guī)格的AI會(huì)議,世界人工智能大會(huì)是國(guó)內(nèi)AI的發(fā)展風(fēng)向標(biāo)。今年的WAIC大會(huì)上,嘉賓名單依舊星光熠熠。據(jù)WAIC官方數(shù)據(jù),這次大會(huì)有約1400位嘉賓參會(huì),包括4位圖靈獎(jiǎng)獲得者,80多位圖靈獎(jiǎng)院士。

在開(kāi)幕式中出現(xiàn)的,首先是以視頻連線發(fā)表講話的伊隆馬斯克,隨后,“深度學(xué)習(xí)三巨頭”之一的楊立昆(Yann LeCun)、圖靈獎(jiǎng)得主姚期智、香港中文大學(xué)教授湯曉鷗、IEEE主席兼首席執(zhí)行官賽義夫拉曼等人也發(fā)表了相應(yīng)演講。

AI大模型是本屆大會(huì)當(dāng)仁不讓的話題。WAIC也邀請(qǐng)到AI大模型浪潮中多位風(fēng)云人物出席這次會(huì)議如OpenAI創(chuàng)始投資人、Inflection Al聯(lián)合創(chuàng)始人雷德霍夫曼、StabilityAl創(chuàng)始人兼CEO伊瑪?shù)履顾、MidJourney創(chuàng)始人大衛(wèi)霍爾茨、AI大模型明星企業(yè)Moonshot Al創(chuàng)始人楊植麟等。

來(lái)源:WAIC直播

在開(kāi)幕式中,楊立昆就以視頻連線方式,與地平線創(chuàng)始人余凱就AI大模型相關(guān)話題進(jìn)行對(duì)談。

楊立昆對(duì)AI的發(fā)展充滿樂(lè)觀,但在近期的AI大模型浪潮中,他加入到關(guān)于AGI(通用人工智能)的辯論當(dāng)中,多次對(duì)ChatGPT為首的大語(yǔ)言模型進(jìn)行“炮轟”。

楊立昆認(rèn)為,ChatGPT這樣的產(chǎn)品“其實(shí)沒(méi)有真正理解現(xiàn)實(shí)世界”,所以就更無(wú)從談起實(shí)現(xiàn)人類智慧。

在這次對(duì)談中,楊立昆表達(dá)了類似觀點(diǎn)。“我并不喜歡AGI這個(gè)詞。”面對(duì)主持人余凱關(guān)于AGI(通用人工智能)的提問(wèn),楊立昆直截了當(dāng)?shù)卣f(shuō)。

他進(jìn)一步解釋,每一個(gè)人工智能都是專項(xiàng)的,人類智能同樣也是專項(xiàng)的,但LLM(大語(yǔ)言模型)只基于文本訓(xùn)練,而沒(méi)有利用視頻訓(xùn)練,這導(dǎo)致模型是不理解物理世界的。如果不理解物理世界,就沒(méi)辦法規(guī)劃、推理,以及實(shí)現(xiàn)目標(biāo)。

“如果LLM(大語(yǔ)言模型)漏掉的是一些非;窘M件的話那就意味著這個(gè)系統(tǒng)是不足的。LLM可能很有用,你可能希望讓它做點(diǎn)什么,可以加載很多應(yīng)用,但LLM不會(huì)是那條通往人類智能的道路。”他表示。

AI大模型所引起的“AI威脅論”愈演愈烈,楊立昆也談及了人工智能在未來(lái)十年面臨的挑戰(zhàn),包括如何讓AI具有類似人類的意識(shí)和智慧,并且確保其行為符合道德規(guī)范和智能要求。

楊立昆提出了“目標(biāo)驅(qū)動(dòng)人工智能”的理念,即設(shè)定必須滿足的目標(biāo),并逐步提高系統(tǒng)的智能水平,而不是喂給模型一兩萬(wàn)個(gè)Token,讓模型自己進(jìn)行推理。

這來(lái)自楊立昆自己在去年提出的“世界模型(World Model)”理論,其核心思想在于讓AI像嬰兒一樣,通過(guò)觀察、學(xué)習(xí),從物理世界中獲取反潰“通過(guò)給AI設(shè)計(jì)可行和安全的目標(biāo)比如“清潔餐桌”、“開(kāi)車(chē)”,以及設(shè)定“不要傷害別人”等安全護(hù)欄,以保證AI是自主且可控的,并且不會(huì)威脅到人類安全。”他表示。

最后,楊立昆也提到,嚴(yán)格監(jiān)管人工智能發(fā)展并不能保證AI安全。相反,開(kāi)源才是唯一讓AI保持良善且實(shí)用的辦法。

“想象一下,在十年或者十五年之后,我們每個(gè)人都通過(guò)AI助手和數(shù)字世界來(lái)進(jìn)行互動(dòng),所有的信息都會(huì)在其中流轉(zhuǎn),如果AI技術(shù)被少數(shù)控制公司來(lái)控制的話,這并不是好事。”

相關(guān)閱讀

這位“AI教父”怎么總炮轟ChatGPT?|焦點(diǎn)分析

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港