展會信息港展會大全

揭開黑盒子:探索人工智能背后的科學原理與風險
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-06 06:21:47   瀏覽:5189次  

導(dǎo)讀:圖片來源@視覺中國 文|追問NextQuestion 人工智能作為當下最熱門的話題,我們一邊為技術(shù)取得的重大進步歡欣鼓舞,一邊又為它過于強大的能力感到不安。它不只是計算機學家的課題,而是涉及到科學、政治、社會的方方面面。 北京時間2023年5月24日 ,美國加州...

圖片來源@視覺中國

文|追問NextQuestion

人工智能作為當下最熱門的話題,我們一邊為技術(shù)取得的重大進步歡欣鼓舞,一邊又為它過于強大的能力感到不安。它不只是計算機學家的課題,而是涉及到科學、政治、社會的方方面面。

北京時間2023年5月24日,美國加州理工學院電氣工程與計算機科學Yaser Abu-Mostafa教授帶來了該校“沃森講座”百年紀念日系列的壓軸報告“Artificial Intelligence: The Good, The Bad, And The Ugly”。他用通俗易懂的語言解釋了人工智能的科學原理,并探討了其風險和益處。

“AI會殺死我們所有人”“AI會解決我們所有問題”的極端觀點之間,教授帶領(lǐng)我們用科學的觀點識別現(xiàn)實和推測,并指導(dǎo)我們在規(guī)劃、立法和投資中對AI進行決策。

本文對此次講座進行了整理精簡,以饗讀者。

揭開人工智能的神秘面紗

如今我們身處在一個人人都在談?wù)撊斯ぶ悄艿臅r代,但當提起它時,我們有時抱著興奮與激動,有時卻又為它惴惴不安。一方面,人工智能的性能一次又一次的令我們驚艷,另一方面我們并不理解它是如何表現(xiàn)得如此像人類,更不知道它未來會發(fā)展到何種程度。為了針對人工智能帶來的社會現(xiàn)象制定有意義的政策,我們需要揭開它的神秘面紗,了解其背后的科學原理。

提到人工智能的科學原理,最核心的問題是機器是如何表現(xiàn)智能特征的(symptoms of intelligence)。在神經(jīng)網(wǎng)絡(luò)時代到來之前,人工智能領(lǐng)域占主導(dǎo)地位的是依靠暴力算法的專家系統(tǒng),采用“查找表”的形式,幫助機器迅速的查詢到想要的信息。當被問到一個問題時,機器可以迅速的找到答案,表現(xiàn)得十分“聰明”。僅僅依靠暴力算法這樣簡單的原理,機器便可以輕易在智力競賽和象棋比賽中擊敗最強大的人類選手,我們似乎已經(jīng)取得了智能甚至是超級智能。但這類人工智能需要花費巨大的人力物力來把合適的信息放到合適的位置,只能發(fā)揮僅僅一次作用,這顯然不是我們所想要的智能的模式。

自1980年以來,人工智能領(lǐng)域發(fā)生的最巨大的改變,便是從暴力算法演變成了學習算法。想要理解“學習”和“智能”的關(guān)系,我們可以看看自己的大腦,我們擁有一套內(nèi)置的學習算法:大腦靠神經(jīng)元傳遞信息,而在兩個神經(jīng)元之間存在的突觸,會依據(jù)發(fā)生的情況上調(diào)或下降連接強度。人類大腦中存在100萬億甚至更多的突觸,因此我們的大腦可以存儲不勝其數(shù)的信息并組織成一種方便回憶和學習的形式。

但我們?nèi)绾文M大腦實現(xiàn)學習功能呢?參考我們模仿鳥類制造飛機的發(fā)展歷程,我們只需要提取出“翅膀”和其背后最核心的特征即可:我們現(xiàn)在的飛機可以完美的實現(xiàn)飛行功能,但并不像真正的鳥類一樣扇動翅膀。

因此真正重要的事情是針對不同功能提取出本質(zhì)核心。那么,從上世紀八十年代發(fā)展至今,我們已經(jīng)提取出了生物神經(jīng)系統(tǒng)中反映智能的核心了嗎?看看人工智能領(lǐng)域的最新進展,我們可以毫不猶豫地回答:是的。

圖片來源:沃森講座

在理解了人工智能的智能表征后,我們再來理解人工智能會容易許多。例如在最基本的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,便是多個神經(jīng)元通過突觸相互連接的形式。我們需要注意的正是這些突觸也可以稱它們?yōu)閰?shù)。理解這些參數(shù)最好的方式是把它們看作旋扭我們學習一個函數(shù)的過程其實就是通過調(diào)節(jié)大量的旋鈕,盡量讓輸入的數(shù)據(jù)在我們構(gòu)造的神經(jīng)網(wǎng)絡(luò)中實現(xiàn)我們期待的功能。這是一個巨大的工作,但好消息是我們擁有學習算法,可以告訴我們在數(shù)據(jù)輸入時如何調(diào)節(jié)。而一旦調(diào)節(jié)完成后,旋鈕的狀態(tài)就被固定住了,以完成我們希望網(wǎng)絡(luò)完成的工作。

除了基本神經(jīng)網(wǎng)絡(luò)模型之外,還有許多別的神經(jīng)網(wǎng)絡(luò)模型,例如ChatGPT采用的便是“轉(zhuǎn)換器”模型(Transformer),它有著靈活的注意力機制。理解這些不同模型最好的方式是:在我們的大腦中不同腦區(qū)的構(gòu)建單元都是神經(jīng)元和突觸,但它們有不同的結(jié)構(gòu)來實現(xiàn)不同的功能同樣的,當我們想完成不同的任務(wù)時,我們應(yīng)該構(gòu)建不同的模型。

現(xiàn)在我們可以從信息存儲的角度比較一下人工智能的新舊兩種形式。以一個具體的例子來說,假設(shè)我們現(xiàn)在同時有專家系統(tǒng)和神經(jīng)網(wǎng)絡(luò)兩個系統(tǒng)來回答同一個問題。

專家系統(tǒng)的工作方式是這樣的:它已經(jīng)提前設(shè)定好了并一直保持固定,它所需要做的就是搜尋數(shù)據(jù)庫以便找到正確答案并輸出。而對于神經(jīng)網(wǎng)絡(luò)來說,問題輸入后,它需要多個突觸相互交互,經(jīng)過不斷的處理后才能生成最終答案,也就是說,它采取的是一種分布式的編碼方式。這樣的編碼方式使得網(wǎng)絡(luò)可以柔性地處理每一段信息,讓它們相互交互來探索我們從未遇到過的問題。

理解了神經(jīng)網(wǎng)絡(luò)的信息存儲方式后,我們再來看看人工智能備受爭議的一個問題:我們都聽說過人工智能是一個黑盒子的說法我們不能理解它做的事情,我們也就很難相信它

“可解釋性人工智能”的問題其實可以類比人類做決定的過程:你最開始只是有一種直覺,接著你依靠這種直覺做出相應(yīng)的選擇。如果現(xiàn)在請你分析為什么做出了那樣的決定,你很可能會解釋說有哪些因素影響了你,但如果我纏著你十分精細地闡述你究竟為什么這樣做,很可能你也會束手無策。事實上,我們靠直覺做的決策依賴于我們過去人生中不斷積累的觀察與經(jīng)驗,而這些都是我們無法按照順序詳細記錄下來的。這和可解釋性人工智能的情形十分相似。當我們想要“理解”人工智能時,你只需要知道它的功能是內(nèi)嵌在結(jié)構(gòu)中的,而不需糾結(jié)于每一個參數(shù)的含義。

在討論人工智能的政策前,我們還需要知道神經(jīng)網(wǎng)絡(luò)是如何建成接著發(fā)揮功能的。一個網(wǎng)絡(luò)發(fā)揮作用總是要經(jīng)過構(gòu)造網(wǎng)絡(luò)和應(yīng)用網(wǎng)絡(luò)兩個階段。構(gòu)造網(wǎng)絡(luò),或者我們常說的訓(xùn)練網(wǎng)絡(luò)的階段,正是我們之前所說的調(diào)節(jié)旋鈕的過程,調(diào)節(jié)旋鈕可以使得原本不針對任何任務(wù)的網(wǎng)絡(luò)變成具有一定功能的特定的網(wǎng)絡(luò)。簡單的估算一下,假設(shè)我們有一臺擁有極大內(nèi)存的電腦,一個ChatGPT模型需要1.5千億的參數(shù),想要讓一臺電腦得到一個ChatGPT模型需要計算200000年。訓(xùn)練網(wǎng)絡(luò)時網(wǎng)絡(luò)本身不帶有任何“偏見”或目的,它完全由我們設(shè)置的訓(xùn)練過程決定。相比訓(xùn)練過程,網(wǎng)絡(luò)的使用階段要來得簡單得多。一旦訓(xùn)練完成,參數(shù)值就已經(jīng)凍結(jié)了,我們只需輸入查詢語句,模型便會生成答案。

當我們提到管控人工智能時,其實涉及兩類管控:第一類是管控人工智能的部署當一個人訓(xùn)練人工智能時,我們?nèi)绾未_保得到的網(wǎng)絡(luò)是無害的?如同藥監(jiān)局對上市的藥物都要進行核查一樣,我們對人工智能也需要設(shè)定類似的機構(gòu)。例如想要檢查網(wǎng)絡(luò)是否帶有偏見,我們只需輸入一組標準的檢測數(shù)據(jù),觀察輸出的結(jié)果是否帶有偏見,一旦發(fā)現(xiàn)不合格的回答,便拒絕推行這類網(wǎng)絡(luò)。

第二類管控則是管理人工智能的發(fā)展,我們常常將人工智能類比為核武器。我們已經(jīng)有了一套相對成熟的核武器國際管控機制我們對于核武器的原料“濃縮鈾”設(shè)定數(shù)量上的限制,這樣便無法生成安全范圍以上的核武器我們可以對人工智能做類似的事情嗎?可惜的是,人工智能所需要的GPU芯片,保守估計已經(jīng)有一百億已投入使用。利用計算機領(lǐng)域開源社區(qū)的特征,世界上任何一個機構(gòu),或者即使最窮的一個國家,也可以制造出他們想要的任何人工智能模型。我們需要看到,在人工智能領(lǐng)域,這里沒有“濃縮鈾”,人工智能必將實現(xiàn)自己完全的潛力,即使你不做這件事,總有別人來做。

人工智能將去往何處

在人工智能領(lǐng)域,最諷刺的事情便是,即使是最智能的網(wǎng)絡(luò),也無法預(yù)測人工智能的發(fā)展將走向何處。我們承諾人工智能能達到什么時,我們不用擔心我們虛夸了它的未來,我們擔心的是它會遠超于我們的預(yù)期。為什么會這樣呢?因為在我們發(fā)展人工智能的過程中,我們十分幸運發(fā)展出了“局部最優(yōu)解”與“過表達”理論,目前有許多相關(guān)研究和結(jié)論,但是還沒有一個概括性的結(jié)論。

圖片來源:沃森講座

局部最優(yōu)解的算法使得我們需要耗費相對極少的計算過程,而過表達的訓(xùn)練方式則使我們只需投入遠少于參數(shù)量的訓(xùn)練數(shù)據(jù)來得到網(wǎng)絡(luò)。目前對于各自背后的原理都還沒有徹底弄清楚,但這些“運氣”使得現(xiàn)在的模型成為可能,這些“運氣”還將保證日后的人工智能走得更遠更好。

這份運氣延續(xù)至今的表現(xiàn)具體體現(xiàn)為“涌現(xiàn)”現(xiàn)象:在訓(xùn)練網(wǎng)絡(luò)過程中,我們不斷增加網(wǎng)絡(luò)中的參數(shù)數(shù)量,這個過程中網(wǎng)絡(luò)的性能不是線性增加的。事實上,隨著數(shù)據(jù)量增大,它一開始只是平緩地上升,但到了某一個臨界點,網(wǎng)絡(luò)性能會取得突然的增加。這也正是人工智能不可預(yù)測的原因,我們猜測也許在現(xiàn)有基礎(chǔ)上繼續(xù)增加訓(xùn)練數(shù)據(jù)量,網(wǎng)絡(luò)將會發(fā)生新的涌現(xiàn),達到現(xiàn)在難以想象的水平,但我們無法預(yù)測它將在何時到來,或者也許我們不夠幸運,這一天永遠不會發(fā)生。

人工智能可以“為我們”又可以“對我們”做什么

當我們談?wù)撊斯ぶ悄軒淼暮锰帟r,往往會包含兩個方面:人類可以做的事情和人類無法做的事情。

醫(yī)學領(lǐng)域人工智能實現(xiàn)了許多人類無法做的事情,但卻沒有得到足夠的報道,但它們是真正影響我們生命的應(yīng)用。對于顯微鏡下的活體切片,想要找出腫瘤是否在該組織中擴散。這個任務(wù)對人類來說已經(jīng)超過了視覺系統(tǒng)檢測圖像的極限,即使技術(shù)最精湛的醫(yī)生判斷時的準確率也不會超過50%。但如果訓(xùn)練一個網(wǎng)絡(luò)來做這個任務(wù),它的準確率可以達到90%。這是一個很正面的例子,將人工智能應(yīng)用到醫(yī)學領(lǐng)域,來拓寬我們的能力,并提高我們的生活質(zhì)量。

而在我們能做的領(lǐng)域我們也正在被人工智能超越,與工業(yè)革命時期比較,當時機器的出現(xiàn)取代了手動生產(chǎn),解放了人類的體力勞動;而人工智能革命,則是解放了人類的腦力勞動。數(shù)字革命與工業(yè)革命相比的重要區(qū)別在于其發(fā)展速度。工業(yè)革命花了大約80年的時間,約等于一代人的壽命,因此也提供了下一代人適應(yīng)的時間。而據(jù)預(yù)測,人工智能革命產(chǎn)生顯著影響只需要短短20年,甚至可能15年(以2012年為起點)。事情發(fā)生的如此之快,我們需要做什么呢?我們無法要求所有人停下對人工智能的開發(fā),大范圍的失業(yè)和混亂是無法避免的:人工智能發(fā)展會為我們帶來諸多紅利,但同樣也伴隨著生長痛,對當代生活的人來說,他們能感受到的痛苦會大于人工智能帶來的便利,我們能做的便是構(gòu)建合適的安全網(wǎng),來照顧、重新培訓(xùn)可能面臨失業(yè)的人。

最后我們討論一下人工智能的風險,可以分為惡意使用AI、流氓AI系統(tǒng)和社會影響三類。我們都清楚惡意使用人工智能可以實施的犯罪,包括竊取信息、詐騙、非法侵入……立法者和罪犯之間的關(guān)系就像貓和老鼠,立法者無法預(yù)測有什么樣的犯罪行為可能發(fā)生,永遠只能追在后面跑。因此我建議將“使用AI”作為加重刑罰的因素,而不需要創(chuàng)造新的犯罪條款。我們只需要告訴人們,如果你實施了一項犯罪,并在過程中使用了AI,你的刑罰將變得更嚴重。這是一個全局的法規(guī),至少可以剎住立馬襲來的大范圍犯罪的車。

另一個更有意思的話題是流氓AI系統(tǒng),我們擔心人工智能過于聰明,會使我們?nèi)祟愖兊玫偷;甚至有人認為情形將更為復(fù)雜:除了我們自己創(chuàng)造的人工智能,AI還會自己來創(chuàng)造更為聰明的AI系統(tǒng)并迅速進化,最終將人類完全邊緣化。這顯然是一個人類生存上的威脅如果你相信它的話。但對我來說,我很難贊同這樣的觀點。我們從來沒有和除了人類以外的智能系統(tǒng)打過交道,當我們忽然與ChatGPT交流時,我們往往把其想象為一個人類,一個擁有感受和意識的人類我們在其身上附加了許多人類的屬性,但我們需要看到,智能是一種能力,而支配則是一種欲望,對于純粹的智能系統(tǒng)來說它們真的有支配的欲望嗎?即使真的有,我們也不能忽視AI背后的邏輯AI訓(xùn)練網(wǎng)絡(luò)時離不開海量的資源和巨大的能量。我們觀察到網(wǎng)絡(luò)在花費巨大的資源進行自我訓(xùn)練,我們會眼睜睜地看著它在兩個月內(nèi)進行我們沒有安排的任務(wù)嗎?抱歉,我無法相信這樣的事情會發(fā)生。

圖片來源:沃森講座

因此,如果你擔心AI可能被人類用于實施犯罪,我完全同意你的觀點,但我并不會擔心AI自身會變得邪惡。我真正擔心的,是AI會造成的社會影響。我們都看到了社交媒體對于青少年的心理健康造成的影響,我們也都體會過新冠時期社交隔離進一步讓我們依賴于手機,因此我們可以想象,如果我們的手機變得愈發(fā)智能,甚至成為了我們最好的朋友,我們便會變得越來越孤立。但我想強調(diào)的是,作為人類,我們有與人接觸的本性,即使與刻意設(shè)計的人工智能相比,我們身邊的人不那么富有同情心、不那么擅長合作、不那么樂于助人。我們需要意識到無論我們的技術(shù)發(fā)展到何種程度,人工智能只是一個人造的產(chǎn)物,在它的接收端沒有任何的人類。

譯者按:

人工智能發(fā)展如此迅猛,我們沒有辦法阻止其發(fā)展的腳步,但可以選擇是否跟上它的浪潮而不被時代淘汰。走出個人的視角,人工智能需要諸多領(lǐng)域的協(xié)作來發(fā)揮更大的潛能,和實現(xiàn)更穩(wěn)健而良性的發(fā)展。

從人工智能的原理來說,它下一步的發(fā)展方向是朝著人腦的數(shù)量級前進,因此需要計算機領(lǐng)域和神經(jīng)科學領(lǐng)域的相互合作與促進。從人工智能的應(yīng)用角度來看,我們需要制定合理的法律規(guī)范其應(yīng)用,需要合適的社會保障制度來應(yīng)對它可能帶來的沖擊……

Abu-Mostafa教授在長達九十分鐘的講座中,向我們介紹了人工智能的前世今生,和即將可能發(fā)生的未來,提出了許多懇切并有建設(shè)性的建議。他用充滿智慧又風趣的講解帶來頭腦風暴的同時又引發(fā)了每個人對自身領(lǐng)域獨特的思考,是一場十分精彩的講座。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港