圖片來源:Mert Alper DervisAnadolu/Getty Images
杰弗里辛頓本身就是一個行走的悖論他是某類杰出科學家的典型代表。周二,辛頓的聲譽更上一層樓。他和美國科學家約翰霍普菲爾德因為發(fā)現(xiàn)了實現(xiàn)現(xiàn)代人工智能突破的神經(jīng)網(wǎng)絡和計算機路徑,共同獲得了諾貝爾物理學獎。然而,最近幾年,辛頓卻陷入了矛盾的境地:這個讓他贏得贊譽的發(fā)現(xiàn),現(xiàn)在卻成為無盡擔憂的來源。在過去的一年里,被譽為“人工智能教父”的辛頓,一再強烈警告他的發(fā)現(xiàn)所帶來的技術可能導致的危險。辛頓既像是神話里的普羅米修斯,又像是先知卡珊德拉,他與許多傳奇科學家一樣,一方面是人類對功成名就的愿望,另一方面是反思行動后果的人文沖動。J羅伯特奧本海默和艾伯特愛因斯坦都曾因為他們的原子研究所造成的毀滅而陷入痛苦。炸藥的發(fā)明者阿爾弗雷德諾貝爾對他的遺產(chǎn)可能造成的影響深感不安,因此他創(chuàng)立了一個基金會,用于頒發(fā)以他的名字命名的獎項,也就是辛頓獲得的諾貝爾獎。辛頓在2023年接受《60分鐘》(60 Minutes)采訪時表示:“我看不到一條保證安全的路徑。我們正在進入一個充滿不確定性的時期。我們要面對的是以前從未處理過的事情。”辛頓認為,人類對人工智能知之甚少,這非?膳拢覚C器可能比人類更聰明,他的擔憂大多源于此。他在接受NPR采訪時表示:“機器可能變得比人類更聰明,并且可能決定接管這個世界,現(xiàn)在我們需要擔心的是如何阻止這種情況發(fā)生。”辛頓原籍英格蘭,他的大部分職業(yè)生涯都在美國和加拿大度過。在多倫多大學(University of Toronto),他取得了一項重大突破,后來這成為當代人工智能許多應用的智能基矗2012年,辛頓和兩名研究生(其中之一是OpenAI前首席科學家伊利亞蘇特斯威夫)建立了一個可從圖片中識別出基本物體的神經(jīng)網(wǎng)絡。最終,谷歌(Google)以4,400萬美元,收購了辛頓基于這項技術創(chuàng)建的一家公司。之后,辛頓為谷歌工作了10年,2023年退休后,他擺脫了任何公司約束,從而可以公開警告人工智能的風險。(辛頓并未回應置評請求。)辛頓對人工智能的進步速度感到擔憂。他在去年接受《紐約時報》采訪時表示:“看看五年前的情況,再看看現(xiàn)在。對比一下前后差異,并請對外宣傳。這太可怕了。”辛頓表示,人工智能模型有可能相互傳播只有一個模型可能已經(jīng)學會的新信息,而且效率遠高于人類,這令他深感擔憂。他在2023年表示:“只要有一個[模型]學到了任何信息,其他模型就會知道。這是人類所做不到的。如果我學到許多關于量子力學的知識,我希望讓你也學會這些知識,我要經(jīng)過一個漫長痛苦的過程才能讓你理解它。”辛頓的一些觀點頗具爭議,例如他認為人工智能實際上可以“理解”自己的言行。如果這是真的,這可能會顛覆人們對于人工智能的許多傳統(tǒng)認識。目前人們的共識是,人工智能系統(tǒng)不一定知道它們?yōu)槭裁磿鏊鼈冋谧龅氖虑椋墙?jīng)過編程,根據(jù)給出的提示輸出特定的結果。辛頓在一份公開聲明中謹慎地表示,人工智能并不像人類那樣具有自主意識。相反,人工智能系統(tǒng)學習、改進和最終生成特定結果的機制,意味著它們必須理解正在學習的內容。據(jù)《連線》雜志報道,辛頓之所以發(fā)出警告,是因為他曾要求一個聊天機器人準確地解釋為什么他杜撰的一個笑話是好笑的。這個聊天機器人能夠理解幽默的微妙之處,然后用自己的語言清楚地表達出來,這讓辛頓深受啟發(fā)。隨著人類朝著幾乎無人理解的終點線沖刺,辛頓擔心,人類可能無法掌控人工智能。他設想了一種情況,即人工智能系統(tǒng)能夠編寫代碼修改自己的學習協(xié)議,并躲過人類的監(jiān)控。就像莎士比亞戲劇里跌宕起伏的情節(jié)一樣,它們將從人類自身的弱點中,學會如何這樣做。辛頓在2023年10月接受《60分鐘》采訪時表示:“它們將能夠操縱人類。它們將變得非常善于說服人類,因為它們將從人類寫的所有小說、馬基雅維利的所有書籍和各種政治陰謀中學習,它們將變得無所不通。”(財富中文網(wǎng))譯者:劉進龍審校:汪皓在財富Plus,網(wǎng)友們對這篇文章發(fā)表了許多有深度和思想的觀點。一起來看看吧。也歡迎你加入我們,談談你的想法。今日其他熱議話題:
推薦閱讀