展會信息港展會大全

尤瓦爾·赫拉利:人工智能終將試圖獲得權(quán)力,威脅人類?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-09-12 19:43:19   瀏覽:1237次  

導(dǎo)讀:嘉賓|尤瓦爾赫拉利 歷史學(xué)家、哲學(xué)家,《智人之上》、人類簡史三部曲等書作者 十二年前,《人類簡史:從動物到上帝》一書出版,立刻風(fēng)行全球,暢銷多年。十二年后,尤瓦爾赫拉利攜著新書《智人之上》前來,這一次,他要探討和思考的,是這個被算法和平臺裹...

嘉賓|尤瓦爾赫拉利 歷史學(xué)家、哲學(xué)家,《智人之上》、“人類簡史”三部曲等書作者十二年前,《人類簡史:從動物到上帝》一書出版,立刻風(fēng)行全球,暢銷多年。十二年后,尤瓦爾赫拉利攜著新書《智人之上》前來,這一次,他要探討和思考的,是這個被算法和平臺裹挾,被人工智能隱隱威脅到的、全新的大變局時代,這個時代背后的歷史邏輯,以及最終人類社會將走向何處。近日,鳳凰網(wǎng)財經(jīng)《封面》與尤瓦爾赫拉利展開了一場深度采訪,圍繞人工智能會不會最終顛覆人類的碳基世界,算法和信息繭房對人類社會的隔絕危害等展開了問答。

信息大爆炸時代 我們需要信息節(jié)食

尤瓦爾赫拉利指出,在過去信息是稀缺的,所以我們接受我們能得到的任何信息,F(xiàn)在我們被太多的信息淹沒了,還有很多垃圾信息。垃圾信息被人為地注入了貪婪、仇恨和恐懼,這些東西吸引了我們的注意力。所有這些垃圾信息讓我們的心智病態(tài)。尤瓦爾赫拉利表示,為了保護我們的心理和社會健康,我們需要進行一種信息節(jié)食,類似于許多人所做的飲食上的節(jié)制。信息節(jié)食的第一步是限制我們/接受的信息量。第二步是避免那些被人為灌輸了貪婪、仇恨和恐懼的垃圾信息。最后,偶爾進行信息齋戒也是有益的。尤瓦爾赫拉利透露,他個人“每年都會進行幾周的冥想靜修,我練習(xí)內(nèi)觀禪修,在禪修期間,我完全斷開了和外界的聯(lián)系。我不看新聞,不讀電子郵件,不讀書也不寫書我只冥想。我花時間消化我頭腦中已經(jīng)包含的東西,而不是往里面塞更多的信息。”

我們正在失去就任何事情達成一致的能力

尤瓦爾赫拉利指出,最初信息技術(shù)將人類連接在一起,但現(xiàn)在信息大爆炸以后,信息技術(shù)開始使人類分裂,使人與人疏遠。我們擁有歷史上最先進的信息技術(shù),但我們正在失去就任何事情達成一致的能力。人們被大量的垃圾信息、假新聞和陰謀論淹沒,因此他們與現(xiàn)實脫節(jié)。在互聯(lián)網(wǎng)的早期,占主導(dǎo)地位的比喻是“網(wǎng)絡(luò)”將所有人聯(lián)系在一起的東西。但現(xiàn)在看來,一個更好的比喻是繭房。人們被封閉在單獨的信息繭房中,無法與繭房外的人交流。

尤瓦爾赫拉利呼吁,為了打破繭房,保持人類團結(jié),我們需要寄希望于強大的自我糾正機制。這些是識別、承認和糾正錯誤的機制。

人工智能比核武器更危險嗎?尤瓦爾:我更擔(dān)心另一種情況

針對人工是否比核武器更危險的問題,尤瓦爾赫拉利表示,核武器的風(fēng)險從一開始就顯而易見。只有一種非常危險的情況核戰(zhàn)爭,每個人都能輕易想象。有了人工智能,一些危險的場景也很容易想象。例如,如果某個暴君讓人工智能控制其國家的核武器,然后人工智能犯了一個災(zāi)難性的錯誤,會發(fā)生什么?或者,如果恐怖分子利用人工智能制造一種新病毒,引發(fā)一場大流行/瘟疫,會發(fā)生什么?然而,人工智能也存在許多難以想象和預(yù)測的危險場景。產(chǎn)生這種威脅是人工智能的本質(zhì),因為人工智能有能力自己做決定,自己發(fā)明新想法。最初的確是人類工程師設(shè)計了人工智能,但人工智能可以自己學(xué)習(xí)和改變,并開始做人類工程師沒有預(yù)料到的事情。如果一個計算機程序不能自己學(xué)習(xí)和改變,它就不是人工智能。尤瓦爾赫拉利指出,當(dāng)數(shù)以百萬計的非人類代理人開始做與我們相關(guān)的決定,并創(chuàng)造新事物從新藥到新武器,從新藝術(shù)品到新貨幣我們的社會將會發(fā)生什么?我不害怕科幻小說中的場景,比如一臺電腦決定殺死所有的人類并接管世界。這是極不可能的。相反,我擔(dān)心的是由數(shù)百萬人工智能管理的新帝國的崛起,它們將能夠消滅隱私,隨時監(jiān)控每個人,并為了一小部分精英的利益而剝削大部分人。

糟糕的算法應(yīng)該受到相應(yīng)的監(jiān)管

尤瓦爾赫拉利指出:“糟糕的算法對人類的危害可能與有毒食品、劣質(zhì)藥品和不安全的汽車一樣,它們應(yīng)該受到相應(yīng)的監(jiān)管。”

他以汽車工業(yè)為例,當(dāng)汽車公司決定生產(chǎn)一種新車型時,他們在安全方面投入了預(yù)算的很大一部分。他們確保剎車和安全帶正常工作,確保汽車在潮濕的道路上不會打滑,如果發(fā)生事故,汽車會保護乘客,不會輕易爆炸。如果汽車公司忽視了安全問題,消費者可以起訴它,要求賠償損失,政府可以阻止它銷售不安全的汽車。政府甚至還可以監(jiān)管安全的汽車。有許多法律限制汽車的行駛區(qū)域和速度。尤瓦爾赫拉利表示,同樣的標(biāo)準(zhǔn)也應(yīng)該適用于算法。當(dāng)一個公司生產(chǎn)出一個強大的新算法時,也許所有研究預(yù)算的20%必須用于確保該算法不會對人們造成任何社會或心理傷害。政府應(yīng)該規(guī)范如何使用安全的算法。目前的情況是,公司在沒有任何安全檢查和規(guī)定的情況下向公眾領(lǐng)域發(fā)布他們喜歡的任何算法,這是不可接受的。1、在信息爆炸的時代,問題不是信息太少,而是信息太多。有時,人們可能會感到焦慮。信息過載對人類到底意味著什么?為了理解信息爆炸,讓我們把它比作食物。100年前食物匱乏,人類吃他們能找到的任何東西,特別喜歡含有大量脂肪和糖的食物。今天食物豐富,我們被人工制造的高脂肪和高糖的垃圾食品淹沒了。如果人們繼續(xù)吃他們找到的所有食物,特別是垃圾食品,他們就會生玻信息也是如此,它是心智的食物。在過去信息是稀缺的,所以我們接受我們能得到的任何信息。現(xiàn)在我們被太多的信息淹沒了,還有很多垃圾信息。垃圾信息被人為地注入了貪婪、仇恨和恐懼,這些東西吸引了我們的注意力。所有這些垃圾信息讓我們的心智病態(tài)。為了保護我們的心理和社會健康,我們需要進行一種信息節(jié)食,類似于許多人所做的飲食上的節(jié)制。信息節(jié)食的第一步是限制我們消耗的信息量。第二步是避免那些被人為灌輸了貪婪、仇恨和恐懼的垃圾信息。最后,偶爾進行信息齋戒也是有益的。我個人每年都會進行幾周的冥想靜修,我練習(xí)內(nèi)觀禪修,在禪修期間,我完全斷開了和外界的聯(lián)系。我不看新聞,不讀電子郵件,不讀書也不寫書我只冥想。我花時間消化我頭腦中已經(jīng)包含的東西,而不是往里面塞更多的信息。幾個星期對大多數(shù)人來說都太久了。但偶爾一兩天的信息輕斷食可能對每個人都有好處。你不需要去靜修,在遠足時,把你的智能手機關(guān)機也會很好。2、此外,在這個信息爆炸的時代,“信息繭房”的概念變得更加突出。我們?nèi)绾谓鉀Q這個問題?有人認為,“信息繭房”將在未來把人類帶回部落時代,每個部落的思維方式都大不相同。你認為地球村會分裂成獨立的部落嗎?在遙遠的過去,世界上不同地區(qū)的人類幾乎沒有聯(lián)系,因此他們持有非常不同的觀點。在現(xiàn)代,信息技術(shù)將人們聯(lián)系在一起,世界各地的人們開始接受某些科學(xué)事實,例如物質(zhì)是由原子組成的,微小的細菌會導(dǎo)致疾病,人類是從猿類進化而來的。但是現(xiàn)在信息技術(shù)開始使人類分裂,使人與人疏遠。我們擁有歷史上最先進的信息技術(shù),但我們正在失去就任何事情達成一致的能力。人們被大量的垃圾信息、假新聞和陰謀論淹沒,因此他們與現(xiàn)實脫節(jié)。在互聯(lián)網(wǎng)的早期,占主導(dǎo)地位的比喻是“網(wǎng)絡(luò)”將所有人聯(lián)系在一起的東西。但現(xiàn)在看來,一個更好的比喻是繭房。人們被封閉在單獨的信息繭房中,無法與繭房外的人交流。為了打破繭房,保持人類團結(jié),我們需要寄希望于強大的自我糾正機制。這些是識別、承認和糾正錯誤的機制。這種機制在自然界中很常見。孩子學(xué)會走路要歸功于生物的自我糾正機制。你邁出一步,跌倒,試著用不同的方式,再跌倒,再糾正自己,直到你走對了。如果你只是編造借口,責(zé)怪別人,你永遠學(xué)不會走路?茖W(xué)也是如此。我們提出了一個模型,它不太好用,我們承認錯誤,我們修改模型。在政治上也是如此,好的政府會承認錯誤并相應(yīng)地改變政策。相反,暴君、宗教狂熱者和陰謀論者從不承認任何錯誤。如果現(xiàn)實中的某些事情與他們所說的不相符,他們就會編造一些謊言來解釋。因此,他們永遠學(xué)不會,也不應(yīng)該被信任。如果有人拒絕承認錯誤,永遠不要相信他們。如果有人承認自己的錯誤他們是一個很好的知識來源。3、2023年,埃隆馬斯克在人工智能安全峰會上表示,“人工智能可能比核武器更危險。在人類歷史上,我們第一次有了比我們聰明得多的東西。我不清楚我們是否能控制這樣的事情。”我注意到您在書中也批評了對于信息的幼稚觀點,你們的觀點似乎是一致的。我們是否低估了人工智能的風(fēng)險?讓我們將人工智能與核武器進行比較。核武器的風(fēng)險從一開始就顯而易見。只有一種非常危險的情況核戰(zhàn)爭,每個人都能輕易想象。有了人工智能,一些危險的場景也很容易想象。例如,如果某個暴君讓人工智能控制其國家的核武器,然后人工智能犯了一個災(zāi)難性的錯誤,會發(fā)生什么?或者,如果恐怖分子利用人工智能制造一種新病毒,引發(fā)一場大流行/瘟疫,會發(fā)生什么?然而,人工智能也存在許多難以想象和預(yù)測的危險場景。產(chǎn)生這種威脅是人工智能的本質(zhì),因為人工智能有能力自己做決定,自己發(fā)明新想法。最初的確是人類工程師設(shè)計了人工智能,但人工智能可以自己學(xué)習(xí)和改變,并開始做人類工程師沒有預(yù)料到的事情。如果一個計算機程序不能自己學(xué)習(xí)和改變,它就不是人工智能。當(dāng)數(shù)以百萬計的非人類代理人開始做與我們有關(guān)的決定,并創(chuàng)造新事物從新藥到新武器,從新藝術(shù)品到新貨幣我們的社會將會發(fā)生什么?我不害怕科幻小說中的場景,比如一臺電腦決定殺死所有的人類并接管世界。這是極不可能的。相反,我擔(dān)心的是由數(shù)百萬人工智能管理的新帝國的崛起,它們將能夠消滅隱私,隨時監(jiān)控每個人,并為了一小部分精英的利益而剝削大部分人。4. 我們?nèi)绾未_保技術(shù)堅持造福人類的原則?僅僅依靠企業(yè)自我監(jiān)管似乎很困難,但完全依靠政府似乎也很有挑戰(zhàn)性。這是否意味著全球治理模式需要進行重大調(diào)整?人工智能是一個新的挑戰(zhàn)。我們不能確定什么是監(jiān)管它的最佳方式。因此,我們應(yīng)該試驗不同的方法。然而,最重要的是接受一些監(jiān)管的迫切需要。我們對幾乎所有其他產(chǎn)品和行業(yè)都有規(guī)定食品、醫(yī)藥和汽車。糟糕的算法對人類的危害可能與有毒食品、劣質(zhì)藥品和不安全的汽車一樣,它們應(yīng)該受到相應(yīng)的監(jiān)管。一個很好的比較是汽車工業(yè)。當(dāng)汽車公司決定生產(chǎn)一種新車型時,他們在安全方面投入了預(yù)算的很大一部分。他們確保剎車和安全帶正常工作,確保汽車在潮濕的道路上不會打滑,如果發(fā)生事故,汽車會保護乘客,不會輕易爆炸。如果汽車公司忽視了安全問題,消費者可以起訴它,要求賠償損失,政府可以阻止它銷售不安全的汽車。政府甚至可以監(jiān)管安全的汽車。有許多法律限制汽車的行駛區(qū)域和速度。同樣的標(biāo)準(zhǔn)也應(yīng)該適用于算法。當(dāng)一個公司生產(chǎn)出一個強大的新算法時,也許所有研究預(yù)算的20%必須用于確保該算法不會對人們造成任何社會或心理傷害。政府應(yīng)該規(guī)范如何使用安全的算法。目前的情況是,公司在沒有任何安全檢查和規(guī)定的情況下向公眾領(lǐng)域發(fā)布他們喜歡的任何算法,這是不可接受的。有AI愛好者告訴我們,目前專注于安全是錯誤的。這將減緩發(fā)展速度,并可能給其他國家更無情的競爭對手帶來優(yōu)勢。AI愛好者解釋說,在未來,如果AI被證明是危險的,我們可以把精力轉(zhuǎn)移到安全上。但這太瘋狂了。當(dāng)你學(xué)習(xí)開車時,他們教你的第一件事就是如何踩剎車。只有在你知道如何使用剎車之后,他們才會教你如何按油門。人工智能也應(yīng)該如此。首先要確保我們能夠控制它,然后才能加速它的發(fā)展。至于投資于安全會讓更無情的競爭對手獲得優(yōu)勢的說法,這是無稽之談。如果你的競爭對手開發(fā)一輛沒有剎車的汽車,這是否意味著你也必須開發(fā)這樣一輛危險的汽車?即使從純粹的經(jīng)濟角度來看,人們也更喜歡安全的產(chǎn)品而不是不安全的產(chǎn)品。5. 我們?nèi)绾畏乐谷斯ぶ悄鼙挥脕碇圃焯摷傩畔ⅲ课覀円呀?jīng)看到了許多使用人工智能冒充真人進行欺詐的案例,如何制定規(guī)則來避免這種風(fēng)險?我們可以從傳統(tǒng)的金融監(jiān)管中汲取靈感。自從硬幣和紙幣被發(fā)明以來,在技術(shù)上總是可以偽造它們。偽造貨幣對金融體系構(gòu)成了生死攸關(guān)的危險,因為它侵蝕了人們對貨幣的信任。如果壞人向市場投放大量假幣,金融系統(tǒng)就會崩潰。然而,金融系統(tǒng)通過制定法律打擊偽鈔,成功地保護了人們對貨幣的信任。偽造貨幣的情況現(xiàn)在也適用于偽造人類。在人工智能興起之前,一個人可以假裝成另一個人,社會會懲罰這樣的欺詐行為。但是社會并沒有把制造假人定為非法行為,因為這樣做的技術(shù)還不存在。然而現(xiàn)在,人工智能和機器人可以把自己偽裝成人類。例如,當(dāng)機器人在社交媒體上傳播假新聞時,它會假裝自己是人類。否則,沒人會在意機器人說的話。這些假人威脅、甚至摧毀真正的人類之間的信任。因此,各國政府應(yīng)該像取締假幣一樣,堅決取締假人。如果有人抱怨如此嚴(yán)格的措施侵犯了言論自由,他們應(yīng)該被提醒,機器人沒有言論自由。這意味著我們必須禁止所有機器人、算法和人工智能參與任何討論。我們歡迎數(shù)字代理加入許多對話,只要他們不假裝自己是人類。6. 我們似乎越來越成為算法的傀儡,無法自拔。我們?nèi)绾谓鉀Q這個問題?是應(yīng)該對平臺算法進行嚴(yán)格監(jiān)管,還是應(yīng)該依靠商業(yè)自律?一項重要措施是讓公司對其算法造成的損害負責(zé)。以社交媒體算法為例。這些算法不斷嘗試增加用戶粘性。用戶在社交媒體上花費的時間越多,公司賺的錢就越多。然而,為了追求“最大化用戶粘性”的目標(biāo),算法進行了一個危險的探索。通過對數(shù)百萬人的實驗,算法發(fā)現(xiàn)貪婪、仇恨和恐懼會增加用戶的參與度。如果你能在一個人的頭腦中按下貪婪、仇恨或恐懼的按鈕你就抓住了那個人的注意力,并讓他們繼續(xù)留在這個平臺上。因此,算法開始故意傳播貪婪、仇恨和恐懼。他們推薦人們觀看充滿憤怒、仇恨和貪婪的帖子,偶爾甚至?xí)詣硬シ懦錆M仇恨的視頻和陰謀論。這是當(dāng)前陰謀論、假新聞和社會動蕩肆虐,嚴(yán)重破壞世界各地社會安定的主要原因。社交媒體公司拒絕為其算法造成的損害承擔(dān)責(zé)任。相反,這些公司指責(zé)他們的人類用戶。他們認為,網(wǎng)上所有的仇恨和謊言都是由人類用戶制造的。然而,這種說法具有誤導(dǎo)性,人類確實在網(wǎng)上制造了很多有害的內(nèi)容,但人類也創(chuàng)造了很多良性內(nèi)容。一個人創(chuàng)造了一個充滿仇恨的陰謀論,另一個人宣揚同情心,第三個人教烹飪課。是算法推薦人們觀看充滿仇恨的視頻,而不是推薦更良性的內(nèi)容。我們應(yīng)該讓公司對其算法的行為負責(zé)。7.蘇格拉底說:“人啊,認識你自己吧。”在我看來,這是哲學(xué)的一個基本概念。如果人工智能變得比人類更強大,像神一樣,它開始思考這個問題它僅僅是一個比人類更強大的工具,還是一個比人類更強大的統(tǒng)治者,這將是我們?yōu)碾y的開始嗎?我們不知道人工智能是否會思考這樣的問題,因為我們不知道人工智能是否會發(fā)展出意識。許多人傾向于將智能與意識混淆,并認為隨著人工智能變得更加智能,它也將不可避免地變得有意識。但在現(xiàn)實中,計算機可以在沒有獲得意識的情況下勝過人類,因為智能和意識是非常不同的東西。智能是追求目標(biāo)和解決問題的能力。意識是感受痛苦、快樂、愛和憤怒等情緒的能力。在人類和其他哺乳動物中,智能與意識密切相關(guān)。我們依靠自己的感覺來解決問題和實現(xiàn)目標(biāo)。然而,計算機解決問題的方式與人類非常不同,絕對沒有理由認為它們會在這個過程中發(fā)展出意識。例如,今天人工智能在下棋和圍棋方面已經(jīng)超過了人類,但當(dāng)人工智能贏了一場比賽時,它不會感到高興,如果輸了,它也不會感到悲傷。沒有跡象表明計算機在發(fā)展意識的道路上有任何進展。通往超級智能的道路可能有好幾條,其中只有一些涉及到獲得意識。就像飛機在沒有長出羽毛的情況下飛得比鳥快一樣,計算機可能在沒有產(chǎn)生感情的情況下比人類更好地解決問題。然而,即使是無意識的人工智能也會威脅到人類。我們可以給人工智能設(shè)定各種各樣的目標(biāo)。在追求這些目標(biāo)的過程中,人工智能可能會認識到,它們必須保護自己,必須獲得更多的權(quán)力。沒有權(quán)力,幾乎沒有什么目標(biāo)可以實現(xiàn)。隨著人工智能試圖獲得權(quán)力,它們可能會開始做一些意想不到的事情,威脅到人類。這聽起來像是一個不可能的場景,但許多哲學(xué)家認為這正是已經(jīng)發(fā)生在人類身上的事情。畢竟,人類的普遍目標(biāo)是什么?人類受一個極其簡單的原則支配。他們避免痛苦,追求快樂,這就是所有了。當(dāng)我們感到痛苦時,我們想要擺脫這種感覺。當(dāng)我們感到愉快時,我們想要更多。然而,生物學(xué)和文化都利用這個簡單的原理創(chuàng)造了極其復(fù)雜和意想不到的行為。父母犧牲自己的生命來保護他們的孩子,因為看到他們的孩子受苦所帶來的痛苦比任何其他的痛苦都要大。好幾個國家都在打仗,因為政客們找到了利用數(shù)百萬人的感情來實現(xiàn)共同目標(biāo)的方法。看到我們的國家受辱是痛苦的,看到它勝利是高興的。就像整個星系都是由微小的原子構(gòu)成的一樣,世界大戰(zhàn)也是由人類的痛苦和快樂構(gòu)成的。如果計算機專家給AI編寫一個非常簡單的功能,為某些行為提供獎勵,為其他行為提供懲罰,會發(fā)生什么?這個簡單的功能就是人工智能最終發(fā)動世界大戰(zhàn)所需要的全部。最大的問題是獎勵功能是否需要意識。痛苦是一種感覺它需要意識。但是計算機科學(xué)家可以設(shè)計出一種不需要意識的獎勵功能嗎?如果可以的話,那么無意識的人工智能可能有一天會接管世界。這可能是一場宇宙規(guī)模的災(zāi)難。因為人工智能可能不僅會消滅人類在地球上的統(tǒng)治,還會消滅意識之光本身。隨著無意識的人工智能從地球擴散出去,征服一個又一個星球,它們將把宇宙變成一個完全黑暗的帝國。我們有責(zé)任防止這種情況發(fā)生。8.在您的書中,您討論了技術(shù)對人類未來的影響。您認為我們目前對人工智能和生物技術(shù)的監(jiān)管是否足夠?未來的潛在挑戰(zhàn)和機遇是什么?在書中探討了自由意志的概念,特別是在大數(shù)據(jù)和算法的背景下。你認為科技進步將如何改變我們對自由意志的理解?自由不是你擁有的東西。自由是你必須為之奮斗的東西。相信自己的決定反映了“自由意志”的人是最容易被操縱的人。人們當(dāng)然有意志,我們一直在做決定。但這些決定大多不是自由做出的。它們受到各種生物、文化和政治力量的影響。對“自由意志”的信仰是危險的,因為它助長了對我們自己的無知。當(dāng)我們選擇一樣?xùn)|西一件產(chǎn)品、一份事業(yè)、一個配偶、一種政治觀點,我們告訴自己“我是出于自由意志選擇這個的”。如果是這樣,就不用深究了。沒有理由去好奇我內(nèi)心發(fā)生了什么,以及是什么力量塑造了我的選擇。因為強大的新技術(shù)被開發(fā)出來,用于塑造和操縱我們的選擇,現(xiàn)在對自由意志的信仰比以往任何時候都更加危險。因此,我建議人們避免對自由意志的幼稚信仰。相反,探索你自己。了解真正影響你的欲望和決定的是什么。這是確保你不會成為人類暴君或超級智能計算機的傀儡的唯一方法。你越質(zhì)疑對自由意志的幼稚信仰你就越享受真正的自由。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港