展會信息港展會大全

吳恩達、楊立坤反擊AI威脅論,稱其為大公司進行壟斷的陰謀
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-11-02 13:59:57   瀏覽:5960次  

導讀:文 |金鹿 郝博陽 近日,AI教父本吉奧、辛頓剛剛發(fā)布和姚期智(Andrew Yao)、張亞勤等剛剛聯(lián)名簽署了新一輪關于AI威脅的聯(lián)名信。認為如果不夠謹慎,我們可能不可逆轉地失去對自主AI系統(tǒng)的控制,導致人類干預無效。大規(guī)模網(wǎng)絡犯罪、社會操縱和其他突出的危害...

文 |金鹿 郝博陽

近日,AI教父本吉奧、辛頓剛剛發(fā)布和姚期智(Andrew Yao)、張亞勤等剛剛聯(lián)名簽署了新一輪關于AI威脅的聯(lián)名信。認為“如果不夠謹慎,我們可能不可逆轉地失去對自主AI系統(tǒng)的控制,導致人類干預無效。大規(guī)模網(wǎng)絡犯罪、社會操縱和其他突出的危害可能會迅速升級。這種不受控制的AI進步可能最終導致大規(guī)模生命和生物圈損失,以及人類邊緣化甚至滅絕。”這封信引發(fā)了相當?shù)年P注。尤其是在美國國會開始籌備對AI的相關新的監(jiān)督法案的時候,如此重量級的業(yè)內(nèi)聲音毫無疑問可能影響到最終立法的結果。(當然,據(jù)雅虎報道,對拜登的AI威脅認知產(chǎn)生最大影響可能的是電影《碟中諜:死亡清算》)

為制衡這個公告的影響,一周后,重量級絲毫不弱于前面幾位專家的Google Brain聯(lián)合創(chuàng)始人吳恩達、Meta首席人工智能科學家楊立昆就開始著手反擊。作為“AI威脅論純粹聳人聽聞派“。他們先后接受采訪,譴責大型科技公司和目前在人工智能領域占據(jù)優(yōu)勢的初創(chuàng)企業(yè)散布人工智能威脅論,目的是在牟利的同時引來更嚴格的監(jiān)管,從而中斷蓬勃發(fā)展的競爭格局。

但他們的針對目標多少有些脫靶,因為文件聯(lián)名簽署人中最開始的兩位AI教父本吉奧, 辛頓目前都未在大公司就職。辛頓在很大程度上就是為了獨立發(fā)聲,才從Google辭職而出。而Bengio則一直專注研究,很少參與公司事務。

而在之前的訪談中,本吉奧提到,“(拒絕承認AI威脅)也許是一些心理因素在起作用。也許取決于你從哪里來。如果你所在公司的理念是推銷‘人工智能會變好’,可能很難像我一樣扭轉看法。”。這種暗指幾近點名,楊立昆作為Meta AI的負責人,推銷這個理念可以說就是他的工作職責。

最終,拜登簽署首份關于AI的行政令的行政令頗為搖擺,左右逢源,AI威脅派和開放派都沒有占到絕對優(yōu)勢。臺面上沒贏到的,網(wǎng)絡上怎可以落了下風。因此這場賽博大戰(zhàn)在行政令簽署的當夜達到了高潮。AI界最大的巨頭們在X(原推特)上各站擂臺一角,使出渾身解數(shù)唇槍舌劍,場面比國會辯論不逞多讓。

反方一號選手吳恩達:為爭奪市場主導權 大型科技公司在“AI能否毀滅人類”上撒謊

開啟這場混戰(zhàn)的頭號種子選手是吳恩達。他在最近接受采訪時表示,大型科技公司希望通過“人工智能可能導致人類滅絕的糟糕想法”引來嚴格的監(jiān)管,這將讓其他規(guī)模較小的競爭對手陷入困境。

他解釋稱:“肯定有些大型科技公司不愿意與開源競爭,所以他們編造了人工智能可能導致人類滅絕以引發(fā)人們恐懼的謊言。這些謊言也始終是說客說服立法者爭取相關立法的武器,而這將對開源社區(qū)造成極大的損害。”

吳恩達表示,人工智能可能會消滅人類的想法可能會導致需要人工智能許可的政策提案,這可能會扼殺創(chuàng)新。他補充說,任何必要的人工智能監(jiān)管措施都應該經(jīng)過深思熟慮后制定。

他還提到了奧特曼,他曾教授后者在機器學習方面的知識。吳恩達說:“奧特曼是我在斯坦福大學的學生之一,他隨同我實習。我不想專門談論他,因為我讀不懂他的心思。但是,我覺得有很多大公司會發(fā)現(xiàn),不必與開源的大語言模型競爭有很多好處。有一個標準的監(jiān)管捕獲策略已經(jīng)在其他行業(yè)上演,我不愿看到它在人工智能領域成功執(zhí)行。”

吳恩達拒絕就英國工黨政府提出的基于風險的人工智能監(jiān)管發(fā)表評論,但他同意人工智能應該受到適當?shù)谋O(jiān)管。他說:“我不認為沒有監(jiān)管是正確的答案,但從很多國家監(jiān)管的方向來看,我認為沒有監(jiān)管比我們現(xiàn)在得到的要好。但深思熟慮的監(jiān)管總比沒有監(jiān)管好得多!”

他補充說:“需要明確的是,人工智能已經(jīng)造成了傷害。無人駕駛汽車曾造成人員傷亡。2010年,一種自動交易算法導致股市崩盤。監(jiān)管是有作用的。但僅僅因為監(jiān)管可能有幫助,并不意味著我們想要糟糕的監(jiān)管。在合適監(jiān)管的清單上,最重要的是科技公司需要提高透明度,這將有助于避免大型科技公司在21世紀造成的社交媒體災難,也將有助于避免未來大型科技公司造成的人工智能災難。”

反方二號選手AI教父楊立昆:AI領域被少數(shù)人控制才會帶來真正的世界末日

緊隨其后,Meta首席人工智能科學家楊立昆又把問題更深入的推進到壟斷企業(yè)的設曾威脅上了,他希望我們忘記那些聽起來比較牽強的世界末日假設。因為他看到了AI帶來的真正威脅:當AI領域少數(shù)掌權者崛起后,他們可能奪走其他人從人工智能中獲得的財富。

不久前,楊立昆對多位當下風頭正勁的人工智能公司創(chuàng)始人發(fā)出點名批評,稱他們在“制造恐慌”,并開展“大規(guī)模的企業(yè)游說”,以為他們自己牟利。

楊立昆在X上發(fā)表了一篇長文,提到了OpenAI首席執(zhí)行官薩姆奧特曼、DeepMind首席執(zhí)行官德米斯哈薩比斯以及Anthropic首席執(zhí)行官達里奧阿莫代伊。

他寫道:“奧特曼、哈薩比斯和阿莫代伊等創(chuàng)始人在塑造有關人工智能安全的監(jiān)管對話方面扮演著關鍵角色,他們目前正在進行大規(guī)模的企業(yè)游說,試圖說服立法者對人工智能行業(yè)實施更嚴格的監(jiān)管。”

他補充說,如果這些努力取得成功,結果將是一場“災難”,因為“少數(shù)公司將控制人工智能領域”。這一點意義重大,因為幾乎所有科技界的重要人士都認為,人工智能是自微芯片或互聯(lián)網(wǎng)出現(xiàn)以來科技領域最大的突破。

楊立昆的評論是對物理學家馬克斯泰格馬克(Max.Tegmark)在X上發(fā)表的一篇文章的回應,后者認為楊立昆等人沒有足夠認真地對待人工智能可能導致世界末日的論點。

泰格馬克寫道:“感謝蘇納克和烏爾蘇拉馮德萊恩(歐盟委員會主席)意識到,圖靈、辛頓、本吉奧、羅素、奧特曼、哈薩比斯和阿莫代伊的人工智能風險論點,單靠諷刺和企業(yè)游說是無法反駁這些危險的。”

自聊天機器人ChatGPT推出以來,人工智能領域的知名人物幾乎都成為了重要的公眾人物。當楊立昆說,像奧特曼和哈薩比斯這樣的創(chuàng)始人花了很多時間讓人們對他們正在銷售的技術產(chǎn)生恐懼。

楊立昆等人表示,這些登上頭條的警告只是這些人為了鞏固權力的措施,卻忽視了人工智能真正迫在眉睫的風險。分布式人工智能研究所(DAIR)表示,這些風險包括工人剝削和數(shù)據(jù)盜竊,它們?yōu)?ldquo;少數(shù)實體”創(chuàng)造了利潤。對假想危險的關注,也轉移了人們對人工智能發(fā)展實際如何形成這個枯燥但重要問題的注意力。

楊立昆認為,人們“對人工智能帶來的風險感到過度緊張”,因為他們已經(jīng)陷入了他所說的“硬起飛”神話。這種觀點認為,“一旦你開啟了一個超級智能系統(tǒng),人類就完蛋了!”但他認為,即將到來的末日不太可能發(fā)生,因為事實上,每項新技術在廣泛發(fā)布之前都要經(jīng)歷一個非常有序的開發(fā)過程。

所以我們要關注的是人工智能現(xiàn)在是如何發(fā)展的。對于楊立昆來說,真正的危險在于,人工智能的發(fā)展被鎖定在私人、營利性實體的手中,這些實體永遠不會公布他們的發(fā)現(xiàn),而人工智能的開源社區(qū)則會被扼殺。

他隨之而來的擔憂是,監(jiān)管機構放任這種情況發(fā)生,因為他們被機器人殺手的論點分散了注意力。

像楊立昆這樣的行業(yè)領袖始終在支持開源開發(fā)者,因為他們的工作可以與OpenAI的ChatpGPT競爭,將人工智能開發(fā)的透明度提高到全新的水平。

楊立昆的雇主Meta也制作了自己的開源大語言模型LLaMa 2競爭。其想法是,更廣泛的科技界可以審視這一模型的背后。沒有其他大型科技公司做過類似的開源模型,盡管有傳言說OpenAI正在考慮。

對于楊立昆來說,秘密開發(fā)人工智能才真正值得警惕。他寫道:“這可能導致一小部分公司控制人工智能平臺,從而控制人們的整個數(shù)字生活。如果開源人工智能因為受到監(jiān)管而不復存在,那么上述假設將不可避免地成為現(xiàn)實。”

正方一號選手辛頓:我算過了,沒有監(jiān)管,人類有10%的幾率在未來30年內(nèi)被滅絕

萬圣節(jié)之夜的辯論場始于辛頓對吳恩達的反擊:他看出了那個邏輯漏洞。

吳恩達的回應果斷回避了核心問題,用自己的邏輯繼續(xù)。他認為:1)年輕學生會因為AI威脅論不愿意進入人工智能領域。2)AI威脅論會導致監(jiān)管過嚴,扼殺開源創(chuàng)新。

在反擊過后,辛頓還不太過癮,又在吳恩達的另一個帖子下發(fā)布了他這次辯論的最主要的論點:他用貝葉斯算法算過了,沒有監(jiān)管,人類有10%的幾率在未來30年內(nèi)被滅絕。順便還帶上了楊立昆,說不知道他不到1%的幾率是怎么算出來的。

楊立昆也虛晃一槍,用曲線的方式給出了他的觀點:人類面臨的滅絕危機多了。AI可能能解決其中很多危機。因此發(fā)展AI比不發(fā)展AI更有可能使人類遠離滅絕風險。

在吳恩達沒有回應之后,辛頓顯然還沒解氣。他馬上又對楊立昆在一天前發(fā)的一個帖子進行了反攻。

辯論以正反方辯手都沒有實際回應對方的觀點,而一直在繞圈子,或者對著過去反擊而結束。只有辛頓提出了一個相對明確的AI威脅論值不值得注意的正面論點:10%的幾率,這個風險概率人類確實難以承受。

看完整場辯論和雙方的論據(jù),其實吳恩達和楊立昆的關注核心在于開源模型后續(xù)的發(fā)展。因為開源模型的易得性和難以追蹤,相關AI監(jiān)管一旦收緊,受到影響的首當其中就是開源模型。而當下楊立昆所在的Meta AI,雖然在綜合能力上與OpenAI模型仍有部分差距,但因其開源特性成功的占據(jù)了相當一部分中小開發(fā)者和用戶的市常一旦被迫閉源,兩者不得不進入同一跑道,前有OpenAI,后有Google,在這個贏者通吃的市場里,Meta很難再有殺翻盤的希望了。而非常關注Ai創(chuàng)業(yè)賽道,近期在各方大佬中最熱衷預測AI后續(xù)產(chǎn)業(yè)發(fā)展的吳恩達,肯定明白監(jiān)管的影響也可能會堵住小公司的創(chuàng)新可能,增大其入場成本。為小公司發(fā)聲,把大公司放在對立也是題中之義。

而辛頓和本奧吉,從背景上看基本上很難有什么相關利益因素值得解析。他們的判斷可能更符合他們觀點,而非利益。但僅從論點看,其實雙方都有其合理性。論心不論跡的動機猜測,AI復雜的可能影響,這些都是很難被駁倒。因此這種爭論也許會持續(xù)很久。也許最終只有AI才有足夠的算力去處理這樣復雜的可能性問題。

贊助本站

人工智能實驗室
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港