展會信息港展會大全

未來生命研究所創(chuàng)始人Max Tegmark:人工智能更接近生命3.0
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-10 09:30:07   瀏覽:6021次  

導(dǎo)讀:Max Tegmark是知名的物理學(xué)家和宇宙學(xué)家,同時也是人工智能科學(xué)家,他對理解我們的宇宙做出了顯著貢獻(xiàn),并且是開發(fā)和部署人工智能技術(shù)的積極倡導(dǎo)者、未來生命研究所的創(chuàng)始人,也是大家所熟知的《生命2.0》一書的作者。最近,Max Tegmark教授發(fā)起了一份請愿書...

Max Tegmark是知名的物理學(xué)家和宇宙學(xué)家,同時也是人工智能科學(xué)家,他對理解我們的宇宙做出了顯著貢獻(xiàn),并且是開發(fā)和部署人工智能技術(shù)的積極倡導(dǎo)者、未來生命研究所的創(chuàng)始人,也是大家所熟知的《生命2.0》一書的作者。最近,Max Tegmark教授發(fā)起了一份請愿書,要求暫停人工智能研究六個月,這份請愿書獲得了1000名科學(xué)家的共同簽署。這引起了政府和機(jī)構(gòu)對于人工智能快速發(fā)展可能帶來的潛在風(fēng)險的關(guān)注。

6月9日,在“2023北京智源大會”上,Max Tegmark教授帶來一場題為“將AI變得可控”的演講,在這之后,清華大學(xué)講席教授、智能產(chǎn)業(yè)研究院(AIR)院長張亞勤和Max Tegmark對話,共同探討全球人工智能的治理水平、面對人工智能年輕人的職業(yè)選擇等話題。

核心觀點(diǎn):

1、如果有一個組織開發(fā)出了超級智能AI,而其他組織尚未準(zhǔn)備好對其進(jìn)行有效管理,那么我們可能就面臨一個全新的風(fēng)險。我們必須確保在發(fā)展AI的過程中,所有的參與者都有共享的、明確的目標(biāo),那就是安全地使用AI,而不是僅僅追求速度。

2、機(jī)械的可解釋性是一個有趣且有前景的領(lǐng)域,它與神經(jīng)科學(xué)有些類似,但與神經(jīng)科學(xué)相比,機(jī)械可解釋性要簡單得多。因為在機(jī)械可解釋性的研究中,你可以隨時測量每一個神經(jīng)元。

3、如果人工智能更接近生命3.0,我們可以做更多的事情,而不是在太空中的這個小旋轉(zhuǎn)球上進(jìn)行愚蠢的戰(zhàn)斗。

4、到目前為止,中國在監(jiān)管人工智能方面做得最多,歐洲排在第二位,美國排在第三位。

5、經(jīng)濟(jì)和就業(yè)市場的變化會越來越快,如果你在基礎(chǔ)知識方面很強(qiáng),并且非常善于創(chuàng)造性的開放思維,你就可以靈活地隨波逐流。

本場先從Max Tegmark的個人演講開始:

(未來生命研究所創(chuàng)始人Max Tegmark)

Max Tegmark:很高興再次來到中國,今天,我想和大家討論一下如何使我們的計算機(jī)更值得信賴,在我工作的麻省理工學(xué)院,有許多優(yōu)秀的中國學(xué)生。如果你有興趣一起學(xué)習(xí)和工作,歡迎申請。

我們怎樣才能讓AI變得更可控呢?我對人工智能充滿熱情,也為它可能帶來的機(jī)遇而感到興奮。AI可以幫助我們實現(xiàn)聯(lián)合國的可持續(xù)發(fā)展目標(biāo),如果我們能夠正確控制它,甚至可能治愈所有疾病,創(chuàng)建一個讓每個人都能過上健康、富裕和充滿激勵的生活的未來。但是,AI是否真的能被控制?對此,很多人都表示擔(dān)憂。

Jeff Hinton,人工智能領(lǐng)域的大佬,最近就提到,人工智能可能會快速進(jìn)化,我們必須考慮如何控制它。Sam Altman,OpenAI的首席執(zhí)行官,也提醒我們,如果情況變糟,我們?nèi)祟惗伎赡茉庥鰷缃^。

這些人都是人工智能領(lǐng)域的領(lǐng)導(dǎo)者,他們不僅對這個領(lǐng)域深有理解,而且了解其內(nèi)部的工作方式。他們的擔(dān)憂應(yīng)該引起我們的關(guān)注,如果我們想要從人工智能中獲得最大的益處,我們必須確保它的發(fā)展處于我們的控制之下。

而現(xiàn)在,我們面臨的問題是,我們真的能控制人工智能嗎?我認(rèn)為答案是肯定的,但是我們需要對其進(jìn)行更多、更全面的研究。

這也是我提出暫停人工智能研究六個月的原因,并不是因為我反對人工智能,相反,我是因為看到了其潛力和可能帶來的改變,才想要我們更謹(jǐn)慎、更負(fù)責(zé)任地進(jìn)行研究。這段時間的暫停可以讓我們重新考慮我們的目標(biāo),找出可能的風(fēng)險,然后確定如何在保障人類利益的前提下繼續(xù)我們的研究。

所以,我們需要你們的幫助。我們需要更多的人參與到這個討論中來,不僅僅是科學(xué)家和工程師,還有政策制定者,教育者,甚至是公眾。我們需要一個廣泛的對話,以確保人工智能的發(fā)展能夠造福所有人類,而不僅僅是少數(shù)人。

圖靈測試,也就是人工智能能掌握語言的概念,曾被許多研究人員看作是機(jī)器接近模擬人類所有能力的標(biāo)志,F(xiàn)在,大型語言模型已經(jīng)能夠達(dá)到這一目標(biāo),這可能引發(fā)人們的擔(dān)憂。但我想指出的是,這也帶來了許多積極的影響。我希望人們能更認(rèn)真地對待這個問題,這將有助于改善東西方之間的關(guān)系。

人們以往對待人工智能時,總是想著如何用它獲取力量,爭奪的欲望導(dǎo)致了緊張的競爭氛圍。但現(xiàn)在,人們開始意識到,如果不加控制,人工智能可能對全人類的文明構(gòu)成威脅,這無疑改變了每個人,包括超級大國的動機(jī)。我們不能把這看作是一場軍備競賽,而更像是一場自殺競賽,誰先得到無法控制的超級智能并不重要,因為最后每個人都會受到影響。

盡管這聽起來很可怕,但我認(rèn)為這是第一次,東西方都有共同的動機(jī)來發(fā)展人工智能,希望從中獲得好處,同時也不希望過快發(fā)展到失控的地步。這是我們可以共同努力的事情。這很像應(yīng)對氣候變化的問題,也不分國界,建立伙伴關(guān)系而非競爭是很自然的選擇。

那么我們應(yīng)該如何做呢?

我將在接下來的演講中探討我們?nèi)绾慰刂迫斯ぶ悄,使其成為我們的助手,而非對手。我們需要解決的主要問題有兩個。

第一,如何使人工智能能真正地完成其主人想讓它完成的任務(wù),這被稱為對齊問題。比如Yann LeCun的筆記本電腦在他的演講中崩潰,顯然這并不是他想要的結(jié)果。

第二,我們?nèi)绾螌⑹澜绺鞯氐乃薪M織、公司、個人等聯(lián)合起來,使他們的動機(jī)是將人工智能用于好的事情,而不是壞的事情。

但我主要想討論的是如何將計算機(jī)和人工智能結(jié)合起來,做你想讓它們做的事情,也就是對齊問題。當(dāng)你讓計算機(jī)或人工智能做某件事情時,我們需要確保它們能理解你的意圖,并且按照這個意圖去行動。如果我們告訴一個強(qiáng)大的AI去找出一種治療癌癥的方法,我們不希望它為了找出答案就無限制地進(jìn)行實驗,危害生命,這就是對齊問題。

我們還需要考慮競爭性的問題。如果有一個組織開發(fā)出了超級智能AI,而其他組織尚未準(zhǔn)備好對其進(jìn)行有效管理,那么我們可能就面臨一個全新的風(fēng)險。我們必須確保在發(fā)展AI的過程中,所有的參與者都有共享的、明確的目標(biāo),那就是安全地使用AI,而不是僅僅追求速度。

在未來的研究中,我們需要在對齊問題和競爭性問題之間找到一個平衡,讓所有人共同參與并享受AI的好處,同時避免任何潛在的風(fēng)險。人工智能是一把雙刃劍,它既有巨大的潛力幫助我們解決世界上最困難的問題,也可能帶來無法預(yù)測的后果。我們必須謹(jǐn)慎地前進(jìn),確保我們可以安全、有效地利用這一強(qiáng)大的工具。

讓我們來看一下大型語言模型自動發(fā)現(xiàn)的一些知識量子。這些不僅僅是事實。例如,在我們做的一項實驗中,模型讀取之后,紅色或粉紅色始終表示預(yù)測的下一個標(biāo)記。模型從中學(xué)到了什么?它學(xué)習(xí)了如何進(jìn)行列表編號,無論使用數(shù)字、字母還是十六進(jìn)制,都能得出相同的洞察力。而右邊的例子,模型學(xué)到的東西卻截然不同。據(jù)我們了解,人們喜歡編寫大致長度相同的行,所以當(dāng)線變得過長時,模型開始預(yù)測線的斷開和返回。

我們發(fā)現(xiàn)了各種各樣的知識量子,而且有趣的是,大型語言模型在學(xué)習(xí)這些量子的順序上,總是有一定的傾向性。

首先,它會學(xué)習(xí)最有用的內(nèi)容,然后再學(xué)習(xí)不那么有用的內(nèi)容。就像一個孩子,先學(xué)會爬行,然后學(xué)會走路。數(shù)據(jù)越多,參數(shù)越多,計算能力越強(qiáng),你就能學(xué)習(xí)更多的知識量子。根據(jù)這一點(diǎn),我們實際上可以預(yù)測為什么我們會得到這些標(biāo)度。關(guān)于計算、數(shù)據(jù)集的大孝參數(shù)的數(shù)量,你得到的損失都會像冪律一樣下降,這都能得到解釋。

我們還發(fā)現(xiàn)了模型內(nèi)部知識的表示方式。例如,David Bau教授的團(tuán)隊在研究GPT如何存儲“埃菲爾鐵塔位于巴黎”的事實時,發(fā)現(xiàn)了它的表現(xiàn)方式,并且他們能夠編輯這些權(quán)重,使模型認(rèn)為埃菲爾鐵塔位于羅馬,而非巴黎。他們發(fā)現(xiàn)它的存儲方式很簡單,就是線性編碼。你有一個矩陣,當(dāng)你將其與代表巴黎的向量相乘時,會得到一個編碼羅馬的向量。

最近半年來,許多團(tuán)隊發(fā)表了大量優(yōu)秀的論文,探索了知識的存儲方式。在麻省理工學(xué)院,我們做了大量的工作,研究了算法信息是如何展示的。例如,我們可以訓(xùn)練模型預(yù)測兩個元素的組合會產(chǎn)生什么結(jié)果。我們發(fā)現(xiàn),模型內(nèi)部的表示方式可以自動嵌入運(yùn)算的交換性和結(jié)合性,使其能夠推廣并解決之前未見過的問題。

我們還可以使用機(jī)器學(xué)習(xí)讓解決方案更簡單,更易于理解。例如,人腦非常模塊化,我們可以觀察到這一點(diǎn),并嘗試將其應(yīng)用于神經(jīng)網(wǎng)絡(luò),通過引入一個新的損失函數(shù)來懲罰長距離連接。結(jié)果是,網(wǎng)絡(luò)不僅變得更稀疏,而且開始出現(xiàn)結(jié)構(gòu),出現(xiàn)了類似于我們之前討論的知識量子的模塊。這些模塊各有特色,發(fā)現(xiàn)了不同的技巧,然后在頂部結(jié)合起來,提高了準(zhǔn)確性。

我們也在多個例子中發(fā)現(xiàn)這種方法非常有效。例如,考慮24個元素的置換群,這其實相當(dāng)于四面體的四個角的排列。有一個9維的表示,對應(yīng)于3×3的矩陣,可以旋轉(zhuǎn)四面體然后翻轉(zhuǎn)它。我們發(fā)現(xiàn),只需要9個神經(jīng)元就能獲得完美的準(zhǔn)確性。神經(jīng)元發(fā)現(xiàn)了我們在數(shù)學(xué)課上學(xué)習(xí)的群表示理論。

當(dāng)訓(xùn)練神經(jīng)網(wǎng)絡(luò)預(yù)測簡單函數(shù)時,我們發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)能夠自我簡化,形成人類可以更容易解釋的結(jié)構(gòu)。例如,它將兩個不同的輸出分別與X1,X2和X4以及X1和X3關(guān)聯(lián),就好像把整個網(wǎng)絡(luò)簡化成兩個完全獨(dú)立的神經(jīng)網(wǎng)絡(luò)。

我們還發(fā)現(xiàn)了功能共享,即神經(jīng)網(wǎng)絡(luò)首先學(xué)習(xí)平方數(shù)字,然后將它們結(jié)合起來。對于第三個例子,你可以看到所有的內(nèi)容都合并到一個神經(jīng)元,這就是平方根。并且,最后一步顯示,神經(jīng)元的激活與輸出之間的關(guān)系實際上就是平方根函數(shù)。

神經(jīng)網(wǎng)絡(luò)在設(shè)計上通常會存在不必要的復(fù)雜性。因為你可以在一層中進(jìn)行任何神經(jīng)元的排列,而不會增加你的損失。但通過消除這種對稱性,你得到了簡單性,你得到了模塊化。

在許多神經(jīng)網(wǎng)絡(luò)中,另一種不必要的復(fù)雜性是連續(xù)性。一位北大的優(yōu)秀研究生,在這方面取得了很好的成果。他發(fā)現(xiàn)了問題中隱藏的對稱性,并使網(wǎng)絡(luò)在連續(xù)變換中自我簡化。

我們的自動化AI工具在一小時內(nèi)就發(fā)現(xiàn)了如何極大地簡化著名的黑洞物理問題。而當(dāng)卡爾施瓦茨柴爾德在1915年發(fā)現(xiàn)黑洞時,他花了17年的時間才意識到,當(dāng)你到達(dá)事件視界時,并不意味著你就會死亡。

我也要提一下AlphaGo、AlphaZero等項目,因為我們都聽說過它們在圍棋和國際象棋方面比人類表現(xiàn)得更好。但在這篇論文中,他們發(fā)現(xiàn)他們可以對這個圍棋程序進(jìn)行對抗性攻擊。如果我們能先訓(xùn)練神經(jīng)網(wǎng)絡(luò)簡化自己,我們?nèi)祟惥筒槐鼗敲炊鄷r間去弄清楚神經(jīng)網(wǎng)絡(luò)是如何工作的。

而關(guān)于大型語言模型是否缺乏世界模型的問題,這并非如此。例如,我們訓(xùn)練了一個轉(zhuǎn)換器來預(yù)測下一步的奧賽羅游戲動作,它沒有被告知任何關(guān)于游戲規(guī)則或它是在棋盤上玩的信息。然而,機(jī)械的可解釋性發(fā)現(xiàn),在這個變壓器內(nèi)部,它已經(jīng)建立了一個世界模型,是一個8x8的二維世界。只有一個良好的世界模型,才能更容易地完成任務(wù)。

對于大型語言模型,如百度的厄尼機(jī)器人或GPT-4,我們也看到了同樣的情況。它們能夠為不同的人建模,如果你開始以某種風(fēng)格寫作,它會嘗試?yán)^續(xù)以這種風(fēng)格寫作。因此,大型語言模型實際上可以構(gòu)建其外部世界的模型。

我想在這里強(qiáng)調(diào)一個關(guān)于機(jī)械可解釋性的進(jìn)步的例子,它與理解神經(jīng)網(wǎng)絡(luò)所做的事情的一種方式有關(guān),即使用一個公式或符號公式來概括整個過程,這被稱為符號回歸。例如,如果你要根據(jù)電子表格中的其他列預(yù)測最后一列的數(shù)據(jù),那么你就需要用一個符號公式來完成這項任務(wù)。這種情況下,如果你的公式是一個線性函數(shù),那么這就是線性回歸。但如果你要預(yù)測的是一個復(fù)雜的非線性函數(shù),那么這個任務(wù)可能變得非常困難,因為有無數(shù)可能的公式可以選擇。

我們在麻省理工學(xué)院的團(tuán)隊發(fā)現(xiàn),我們在科學(xué)和工程中關(guān)心的大部分公式都是模塊化的,即一個復(fù)雜的多變量函數(shù)可以分解成多個簡單的單變量函數(shù)。我們發(fā)現(xiàn),如果你首先使用神經(jīng)網(wǎng)絡(luò)對函數(shù)進(jìn)行擬合,然后研究這個“黑盒”的梯度和代數(shù)特性,你就可以找到這個函數(shù)的模塊化特性,這不需要知道模塊是什么。這樣,你就可以將復(fù)雜的問題分解成簡單的問題并解決它。

舉例來說,我們用這種方法對愛因斯坦的相對論動能公式進(jìn)行了驗證,我們發(fā)現(xiàn)神經(jīng)網(wǎng)絡(luò)能夠找到正確的公式,也能找到我們在高中就學(xué)過的牛頓動能近似公式。事實上,我們在許多物理學(xué)公式上進(jìn)行了試驗,結(jié)果發(fā)現(xiàn)只利用神經(jīng)網(wǎng)絡(luò)的力量,我們就能在符號回歸的任務(wù)上達(dá)到最先進(jìn)的性能。

然而,我們并沒有止步于此。有了神經(jīng)網(wǎng)絡(luò)這個知識和數(shù)據(jù)的發(fā)現(xiàn)者,我們可以進(jìn)行下一步的工作,那就是從中提取知識。我希望我已經(jīng)說服你,機(jī)械的可解釋性是一個有趣且有前景的領(lǐng)域。其實,它與神經(jīng)科學(xué)有些類似,你有一個系統(tǒng)可以讓你的大腦做非常聰明的事情,但這是一個我們不了解的黑箱。但與神經(jīng)科學(xué)相比,機(jī)械可解釋性要簡單得多。因為在機(jī)械可解釋性的研究中,你可以隨時測量每一個神經(jīng)元,每一個權(quán)重,而不需要道德委員會的許可。你甚至可以創(chuàng)建自己的有機(jī)體和實驗對象。

盡管這個領(lǐng)域的研究者還很少,但是它的發(fā)展速度比傳統(tǒng)的神經(jīng)科學(xué)要快得多。我對此持樂觀態(tài)度,因為我相信如果更多的人加入這個領(lǐng)域,我們將能夠以超出預(yù)期的速度取得進(jìn)步。我認(rèn)為我們不僅可以實現(xiàn)第一個目標(biāo)確定是否可以信任一個系統(tǒng)并改進(jìn)它,而且還可以達(dá)到更雄心壯志的目標(biāo),即創(chuàng)建一個我們可以完全信任的系統(tǒng)。

為了進(jìn)一步說服你,我想強(qiáng)調(diào)一點(diǎn),即使有比我們更聰明的系統(tǒng),只要我們能證明它是安全的,我們就無需擔(dān)心。重要的是,我們不需要親自編寫這個證明,我們可以讓人工智能或者超級智能來為我們編寫。檢查一個證明的正確性比發(fā)現(xiàn)一個證明要簡單得多。因此,即使是一個非常復(fù)雜的證明,我們也可以編寫一個簡單的程序來驗證它的正確性。

這為我們提供了一個真正控制超智能系統(tǒng)的機(jī)會。我們可以使用這些技術(shù)讓它們證明自己是可信的,然后我們只運(yùn)行那些我們有充分證據(jù)的程序。

然而,這仍然留下一個問題:如果我們有了這些機(jī)器,它們會服從控制機(jī)器的人,我們?nèi)绾未_保人們或公司不會用這些機(jī)器做壞事呢?這顯然是一個政策問題。

以下為Max Tegmark和清華大學(xué)講席教授、智能產(chǎn)業(yè)研究院(AIR)院長張亞勤的簡單對話:

(未來生命研究所創(chuàng)始人Max Tegmark和清華大學(xué)講席教授、智能產(chǎn)業(yè)研究院(AIR)院長張亞勤)

張亞勤:我們談到了兩種智慧。這兩種智慧智慧1:是發(fā)明新事物、新技術(shù)、創(chuàng)造力的智慧,包括人工智能。智慧2:有能力控制它,并確保它朝著有利于人類和社會利益的方向發(fā)展。顯然在你看來我們在后一種智慧上有點(diǎn)落后了,關(guān)于這一點(diǎn)你組織了很多活動,比如2017年,未來生命研究所就提出阿西洛馬人工智能會議的23條鐵規(guī)。

所以我的問題是,回過頭來和2017年相比,你認(rèn)為智慧1和智慧2之間的差距變大了嗎?

Max Tegmark:不幸的是,它們的差距確實變大了。與5年前相比,甚至與2020年那次我在中國的時候相比,人工智能力量的增長速度超出了許多人的預(yù)期。2020年,我的大多數(shù)同事都沒有預(yù)料到我們會在2023年通過圖靈測試,但是智慧2發(fā)展得卻很慢,這就是為什么現(xiàn)在有更多的興趣暫停最危險的工作,正是為了給智慧一個迎頭趕上的機(jī)會。

張亞勤:我和我兒子都是你的書迷,在你的書《生命3.0》中,你提到了人生的三個階段。生命1.0是40億年前開始的最原始的生命形式;生命2.0就是我們所在的地方。智人是人類,但擁有文明、語言和我們現(xiàn)在擁有的所有系統(tǒng);生命3.0是AGI是機(jī)器智能,又叫做超級智能。你認(rèn)為我們正處在哪個階段?你想改變你對生命3.0的定義,將其定義為碳和硅的混合物嗎?

Max Tegmark:我們?nèi)祟愐呀?jīng)是生命2.1,2.2階段,因為我們可以裝個心臟起搏器、人工耳蝸,我們的一些孩子與手機(jī)建立非常緊密的聯(lián)系。但重要的是要記住,生命3.0是一個非常鼓舞人心的想法,在人類存在的前20萬年左右的時間里,人類被剝奪了權(quán)力,只是為了不被吃掉,不被餓死,幾乎無法控制我們的未來,F(xiàn)在因為科技的發(fā)展,人類成為自己的船長,成為自己命運(yùn)的主人,我認(rèn)為那是令人興奮的。

如果我們繼續(xù)這一趨勢,讓更好的人工智能更接近生命3.0,我們可以做更多的事情,而不是在太空中的這個小旋轉(zhuǎn)球上進(jìn)行愚蠢的戰(zhàn)斗。我們擁有不可思議的宇宙,擁有如此豐富的資源,在那里我們可以繁榮數(shù)十億年。所有這些對我來說都是充滿希望和激勵的。

但重要的是要記住,生命3.0不是一回事,可能生命的3.0形式的空間是廣闊的,我們會擁有很多選擇,我們可以去選擇過什么樣的生命3.0。我個人熱愛人性、人類,我想用生命3.0來引導(dǎo)未來,它有同情心,有情感,有感覺,關(guān)心我們關(guān)心的一些事情,而不是某種完全無意識的僵尸機(jī)器。我希望被賦予權(quán)力,而不僅僅是坐在這里吃著爆米花,等著看會發(fā)生什么。我們可以問問自己,“我們想要什么?”然后朝著那個方向前進(jìn)。

張亞勤:所以這將是人類智能和機(jī)器智能的完美結(jié)合。

Max Tegmark:一切皆有可能,但它不會是無意識地突然發(fā)生,它會因為人們認(rèn)真思考自己的未來并且努力朝著那個方向前進(jìn)而到來。

張亞勤:Max,你出生在瑞典,在歐洲長大,在美國生活和教學(xué),周游世界,也與許多中國同事交談,我問你一個關(guān)于人工智能治理狀態(tài)的問題:如果讓你用1到10來評價人工智能治理的水平(10是最好的),你如何給中國、歐洲和美國的人工智能治理水平打分?

Max Tegmark:我喜歡這個問題,我最喜歡引用的一句話是荷蘭文藝復(fù)興時期的科學(xué)家克里斯蒂安惠更斯,他說“科學(xué)是我的宗教,世界是我的國家”。如果你給全人類打分,它是相當(dāng)?shù)偷,我認(rèn)為我們可以做得更好。我認(rèn)為到目前為止,中國在監(jiān)管人工智能方面做得最多,歐洲大概排在第二位,我們已經(jīng)與未來生命研究所(Future Life Institute)進(jìn)行了大量合作,并對歐洲的政策制定者進(jìn)行了教育,例如,現(xiàn)在正在完成歐盟人工智能法案,美國排在第三位。

如果我們能幫助歐洲制定出真正合理的法規(guī),美國很可能會效仿,美國人并不想為了隱私而做太多事情。但在歐盟通過這些法律后,美國人收到的垃圾郵件開始大大減少,然后它在美國也開始變得越來越流行。

張亞勤:Max,你的職業(yè)生涯跨越了數(shù)學(xué)、物理學(xué)、神經(jīng)科學(xué),當(dāng)然還有人工智能。在未來我們將越來越依賴于跨學(xué)科的能力和知識。我們有很多研究生,匯聚了很多年輕人的觀點(diǎn)。你對年輕人如何在人工智能方面做出職業(yè)選擇有什么建議?

Max Tegmark:我認(rèn)為年輕人需要注于基礎(chǔ)知識,經(jīng)濟(jì)和就業(yè)市場的變化會越來越快,如果你在基礎(chǔ)知識方面很強(qiáng),并且非常善于創(chuàng)造性的開放思維,你就可以靈活地隨波逐流。當(dāng)然,你需要關(guān)注整個人工智能領(lǐng)域正在發(fā)生的事情,而不僅僅在你自己的領(lǐng)域。因為在就業(yè)市場上,首先發(fā)生的不是人被機(jī)器取代,而是不使用人工智能的人將被使用人工智能的人取代。

我覺得Yann LeCun在取笑我,他說我是個倒霉蛋。我對于未來人工智能系統(tǒng)的能力比Yann LeCun更樂觀。如果我們?nèi)偾斑M(jìn),把更多的控制權(quán)從人類手中交給我們不了解的機(jī)器,結(jié)果將會非常糟糕,但我們不必這樣做。如果我們在機(jī)械的可解釋性和你們今天將聽到的許多其他技術(shù)主題上努力工作,我們實際上可以確保所有這些更強(qiáng)大的智能為我們工作,并用它來創(chuàng)造一個比科幻小說作家曾經(jīng)夢想的更鼓舞人心的未來。

張亞勤:我非常尊重Yann,他做了許多開拓性的工作,他談到了系統(tǒng)1和系統(tǒng)2,人工智能已經(jīng)通過了系統(tǒng)1,并真正嘗試讓系統(tǒng)2在分類學(xué)中發(fā)揮作用。

我認(rèn)為系統(tǒng)2可能是人工智能在可預(yù)見的未來里可以實現(xiàn)的。系統(tǒng)1實際上是最難的,因為這是一種本能的能力,我們甚至不知道如何推斷,如何推理。就像自動駕駛一樣,我花了很多時間研究自動駕駛汽車,一旦你學(xué)會了,肌肉記憶、本能系統(tǒng)1實際上會給你帶來優(yōu)勢。這就是為什么我們的人工智能系統(tǒng)有問題。埃里克坎德爾(Eric Kandel)的《尋找記憶》(In Search of Memory)談到了大致對應(yīng)于系統(tǒng)1和系統(tǒng)2的顯性和隱性決策,如果你也讀到過這本書,你會同意我還是Yann的觀點(diǎn)?

Max Tegmark:我認(rèn)為你說得很有道理。我想我們可能都會同意Yann LeCun的觀點(diǎn),即架構(gòu)將再次發(fā)生變化,F(xiàn)在每個人都在說“Transformers,Transformers,Transformers”,一旦我們創(chuàng)造出通用人工智能,超級智能將與Transformers大相徑庭,我們目前開發(fā)的一些技術(shù),頂多只能成為其他系統(tǒng)的組成部分。

比如,我們已經(jīng)有了GPT等工具,大家在大型語言模型中搭建循環(huán),還用更多傳統(tǒng)機(jī)器學(xué)習(xí)技術(shù)來擴(kuò)充其功能。然而,迄今為止,在所有嘗試解釋機(jī)器行為的工作中,有一點(diǎn)十分明顯:每次我們理解大型語言模型的工作方式時,都會覺得“天哪,這太愚蠢了,我完全可以做得更好。”因此,這些模型找到的僅僅是最小可行的解決方案。它可以使用三種算法,進(jìn)行糾錯,讓它們進(jìn)行投票或者其他行為。因此,我相信,可解釋性不僅會給我們帶來可信任的人工智能(因為我們最終可以驗證它),而且它將更有效率。

張亞勤:所以它是量子不可知的算法或模型?

Max Tegmark:然后,你可以用最佳方式將它們組合在一起。你開始得到一個系統(tǒng),這個系統(tǒng)更高效、更簡單、更可靠、更值得信賴。我們知道這將是最后的結(jié)果,因為盡管像Ernie Bot、ChatGPT和我們在這里討論的其他不同的FLAG模型表現(xiàn)出色,但是看看它們消耗了多少能量?你的大腦在20瓦的電力下可以完成更多工作。

張亞勤:由于時間關(guān)系,我們不得不結(jié)束對話。但我要說的是,超級強(qiáng)大的人工智能有必要被置于控制之下。我用你的話來結(jié)束這件事:讓我們被人工智能賦予力量,而不是被人工智能壓倒。謝謝。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港