展會信息港展會大全

370名大佬當“AI吹哨人”,人類社會會被毀滅嗎?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-03 17:51:12   瀏覽:3726次  

導讀:出品|虎嗅科技組 作者|包校千 編輯|陳伊凡 題圖|《西部世界》劇照 假以時日,毀滅人類的或許不是槍林彈雨,極有可能是由人類一手締造的高級人工智能。 總部位于舊金山的人工智能安全非營利組織(CAIS),一直在為如何降低人工智能(AI)的社會規(guī)模風險而...

出品|虎嗅科技組

作者|包校千

編輯|陳伊凡

題圖|《西部世界》劇照

假以時日,毀滅人類的或許不是槍林彈雨,極有可能是由人類一手締造的高級人工智能。

總部位于舊金山的人工智能安全非營利組織(CAIS),一直在為“如何降低人工智能(AI)的社會規(guī)模風險”而努力。5月30日,該機構發(fā)布了一份《AI風險聲明》,呼吁全世界應該像控制大流行病和核戰(zhàn)爭那樣,降低AI帶給人類滅頂之災的風險,并且把優(yōu)先級調(diào)到最高。

內(nèi)容雖然只有短短一句話,但聯(lián)名簽署的是370多名從事AI工作的高管、研究人員和工程師聯(lián)名。其中,成員名單包括了OpenAI CEO山姆奧特曼(Sam Altman)、谷歌DeepMind CEO戴密斯哈薩比斯(Demis Hassabis)和微軟CTO凱文斯科特(Kevin Scott)。

這是繼今年3月,馬斯克等上千人曾聯(lián)署《暫停AI巨模型實驗》以來,又一份獲得全球科技圈廣泛支持的聲明。就連清華大學智能產(chǎn)業(yè)研究院院長張亞勤、中科院自動化研究所人工智能倫理與治理研究中心主任曾毅等行業(yè)領袖,也加入到聯(lián)署活動中。

在全球AI大模型風頭正勁的當下,這封重磅的公開信足以可見,AI給人類社會帶來的風險,已經(jīng)到了令人擔憂的時刻。

AI成大國戰(zhàn)略重器

盡管AI諸多有益的應用,為人類社會帶來了福祉,但很多基礎性的安全問題,尚未得到解決。

比如AI產(chǎn)生的大量錯誤信息和具有說服力的內(nèi)容,特別是以GPT-4為代表的AI大模型,在文本、圖像和視頻生成方面的優(yōu)異表現(xiàn),已經(jīng)越來越難通過肉眼來辨別真?zhèn)巍R虼,許多專家對AI技術被用于傳播虛假信息、導致網(wǎng)絡犯罪的潛在風險表示擔憂。

當AI變得愈發(fā)聰明,甚至難以招架時,就離風險和災難的降臨不遠了。

CAIS認為,AI正在通過多種方式醞釀這種大規(guī)模的風險。目前,他們已發(fā)現(xiàn)AI正在朝武器化、信息欺詐、謀求權利等歧途上行進。

比如,深度強化學習已被應用于空戰(zhàn),機器學習則被用于制造化學武器。作為一個接受過互聯(lián)網(wǎng)文本和編碼訓練的模型,GPT-4如今已經(jīng)能在現(xiàn)實世界的實驗室中,自主進行實驗和合成化學品。

眼下,擔心AI會取代甚至摧毀人類的觀點,已不在少數(shù)。AI可能會成為21世紀的電子核武器。如此一來,越先擁有AI系統(tǒng)的國家,就越有戰(zhàn)略優(yōu)勢。

5月22日,OpenAI在官網(wǎng)發(fā)文,建議全球主要政府共同成立一個類似國際原子能機構的組織,來監(jiān)管未來的超級智能(ASI)。按照OpenAI的設想,只要AI系統(tǒng)超過了一定能力,或所需的計算資源超過一定水平,就需要接受該機構的檢查,以確保符合安全標準。

就像核武器那樣,哪怕被任何一個非理性的人惡意操縱,都會造成大范圍的傷害。不過,與傳統(tǒng)武器不同,這種具有危險能力的AI系統(tǒng)很容易通過數(shù)字化的手段擴散。即使所有超級大國都確保自己構建的系統(tǒng)是安全的,并同意不構建破壞性的AI技術,但黑客仍然可以利用漏洞伺機進入AI系統(tǒng)。

被稱為“深度學習之父”的杰弗里辛頓(Geoffrey Hinton)在此次聯(lián)署中排在首位。談及AI的潛在威脅,他對美國全國公共廣播電臺表示:“AI問題的緊迫性可能高于氣候變化危機,它的能力超越其創(chuàng)造者的速度可能比任何人預期得都快。”

5月初,在ChatGPT走紅全球之后,75歲的辛頓從谷歌辭職,便拉響AI的警報,更自由地討論AI給人類帶來的風險。

當時,他出席美國麻省理工大學(MIT)的一場論壇時表示:“如果AI模型比人類聰明得多,它將善于操縱人類,你都不會意識到發(fā)生了什么。”在最壞情況下,“人類只是智能進化的一個過場”,在生物智能進化出數(shù)字智能后,數(shù)字智能將吸收人類創(chuàng)造的一切,并開始直接接觸世界。

他認為,ChatGPT背后的AI技術帶來了諸多風險。比如可以用來制造虛假信息、操縱民意,或是制造機器士兵屠殺人類。他還擔心,現(xiàn)在的AI大模型可以憑借更少的神經(jīng)連接,了解比普通人類多1000倍的知識,并且能快速與其他模型同步相關知識。

當AI變得比人類更聰明時,就有可能會導致人類面臨生存威脅。

AI的近慮和遠憂

今年3月,另一家非營利機構“未來生命研究所”(Future of Life Institute)曾呼吁,在至少6個月時間內(nèi)暫停訓練比GPT-4更強大的AI系統(tǒng),包括馬斯克在內(nèi)的千余名業(yè)內(nèi)大佬,都聯(lián)署了《暫停AI巨模型實驗》的聲明。

而在中國,人們似乎仍沉浸在大模型改變各行各業(yè)的喜悅和興奮之中。從商界領袖到初創(chuàng)公司,對于AI倫理和風險,絕大多數(shù)人地選擇了沉默。

李彥宏在5月26日舉辦的中關村論壇中表示,在AI技術飛速發(fā)展過程當中,確實有可能出現(xiàn)“對人類不利的發(fā)展方向”,防止失控就需要與擁有先進AI技術的國家通力協(xié)作,從人類命運共同體的高度上來制定規(guī)則。

“但要參與規(guī)則的制定,就要先上牌桌,上了牌桌才能有話語權,才有全球競賽的入場券,”他認為,相比于單純討論和思考AI威脅論,商業(yè)公司首先要縮短和國外AI大模型的差距。

“從目前來看,由于國內(nèi)大模型能力還沒那么強,以至于大家根本沒有往威脅人類安全的可能性上去想。”一位創(chuàng)業(yè)者承認,AI對人類社會的變革是全方位的,如果利用不好,的確會產(chǎn)生諸多不安全的因素,“但是不能因此就停止大模型的開發(fā)。”

對外,國內(nèi)的AI創(chuàng)業(yè)者習慣于扮演技術樂觀主義者,“因為任何風口都有窗口期,現(xiàn)在并不是讓賽道降溫的時候。特別是中國大模型和國外存在著顯著差距,過早的收斂,就意味著提前繳械投降。這是所有人都不愿看到的。”一位AI領域的投資人告訴虎嗅。

即便如此,部分創(chuàng)業(yè)者的AI世界觀,確實發(fā)生了巨大變化。比如出門問問CEO李志飛前不久與虎嗅對話時坦言:“自己曾非常堅定地相信,人類搞不出一個超級牛的AI”。但現(xiàn)在,他的立場不那么堅定了。“也許5分鐘前你還認為能100%控制,但是就在這5分鐘,AI的智能加速度越來越快,當你意識到有失控風險的時候,已經(jīng)為時已晚了。”

站在這一立場上,李志飛認為監(jiān)管越早介入越好。“千萬別等到最后完全失控,再全部叫停。”

作為中國科學院自動化研究所人工智能倫理與治理研究中心主任,曾毅在《AI風險聲明》正式發(fā)布前,就收到了CAIS主任Dan Hendrycks的邀請。出于對在AI風險認知觀點上的接近,他簽署了這份聯(lián)合聲明。

在接受南方財經(jīng)全媒體采訪時,他表示,《AI風險聲明》更深度和直接地表達了簽名者對人工智能給人類帶來潛在生存風險的擔憂和應采取的行動。不過他強調(diào):“公開信的目的不是阻礙AI的發(fā)展,而恰恰是在探索AI穩(wěn)健發(fā)展的途徑。”

關于AI對人類造成的生存風險,曾毅指出要從近期和遠期來看:

針對遠期而言,當通用人工智能(AGI)和超級智能(ASI)到來時,由于智力水平可能遠超過人類,超級智能視人類如人類視螞蟻,很多人據(jù)此認為超級智能將與人類爭奪資源,甚至危及到人類的生存。

針對近期而言,由于當代人工智能只是看似智能的信息處理工具,沒有真正的理解能力,也不是真正的智能,因此會以人類難以預期的方式犯下人類不會犯的錯誤。

“AI既不理解什么是人類,什么是生死,也不理解什么是生存風險,只會機械地執(zhí)行某種操作。如果被人惡意利用、誤用和濫用,風險將幾乎難以預期和控制。”曾毅認為,遠期AI的挑戰(zhàn),如果從現(xiàn)在開始研究如何規(guī)避其風險,尚有可能應對。相比之下,近期AI的風險則顯得更為緊迫。

贊助本站

人工智能實驗室
相關內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港