展會信息港展會大全

人類最終會淪落到被機器統(tǒng)治?“AI教母”李飛飛:太夸張了
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-01-07 18:18:53   瀏覽:15311次  

導(dǎo)讀:騰訊科技訊 1月7日消息,據(jù)外媒報道,AI教母李飛飛博士最近接受外媒采訪,談到了如何對公眾進行AI科普,如何更好地對AI進行監(jiān)管等問題。 為AI革命奠定基礎(chǔ)的研究者屈指可數(shù),李飛飛就是其中之一。她15歲時從中國前往美國,一邊求學(xué)一邊打零工賺外快。如今,...

科技新聞訊 1月7日消息,據(jù)外媒報道,“AI教母”李飛飛博士最近接受外媒采訪,談到了如何對公眾進行AI科普,如何更好地對AI進行監(jiān)管等問題。

為AI革命奠定基礎(chǔ)的研究者屈指可數(shù),李飛飛就是其中之一。她15歲時從中國前往美國,一邊求學(xué)一邊打零工賺外快。如今,李飛飛博士是斯坦福大學(xué)計算機科學(xué)教授,也是該校 Human-Centered AI研究所的主管。

在外媒采訪中,李飛飛表示AI不應(yīng)該被當(dāng)作鬼神來恐懼或者崇敬,而應(yīng)該被視為一種工具,一種可以服務(wù)于人類利益的工具。李飛飛認為,必須始終重視人類的主觀能動性。

以下為外媒采訪問題及李飛飛的回答:

問:科技產(chǎn)品越多,就會有越多的人想知道:如果沒有它們的幫助,人類的心智會有怎樣的產(chǎn)出呢?人類會帶來什么價值呢?

答:這就得從人的主觀能動性開始說起了。人類是非常復(fù)雜的生物。我們不僅僅是由我們大腦某一側(cè)或由我們在大數(shù)據(jù)上的計算方式來定義的。我們不是由我們的記憶負荷或任何我們自己的神經(jīng)網(wǎng)絡(luò)的算法來定義的。

定義我們?nèi)祟惖,是我們的意志、我們的情感、我們的能動性、我們與自己和彼此的關(guān)系。作為AI領(lǐng)域的專家,最近我一直在強調(diào),我們需要對自己有信心和自尊,因為我們和計算工具不一樣。

問:為什么人類的這些能力很重要?

答:有一個正確的“工具觀”非常重要?萍籍a(chǎn)品非常強大,但我想強調(diào)的是,它們是工具。也許有人覺得這種想法有點書呆子氣,但我在研究中看過一些調(diào)查材料,是關(guān)于美國人如何分配時間的。美國人把時間分配在工作、娛樂、休閑、家務(wù)上,其中包含的事項數(shù)以萬計。

我并不想貶低科技產(chǎn)品,但與人類相比,科技產(chǎn)品能做的事情非常有限。我認為作為人類來講,非常重要的一點是弄清楚我們與我們創(chuàng)造的工具之間的關(guān)系。這是人類文明一直面臨的重大課題。有時候,我們能把這個關(guān)系處理好,有時則不然。我們需要理順這種關(guān)系,用主觀能動性來決定這種關(guān)系應(yīng)該如何發(fā)展。

問:有一些公司擔(dān)心,把AI關(guān)在“防護欄”里會減緩創(chuàng)新的速度。應(yīng)該怎樣平衡創(chuàng)新的速度和安全性呢?

答:這是一個價值萬億美元的問題。為這個問題找出解決辦法非常重要。這會是一個持續(xù)不斷的迭代過程。

我覺得這個問題的答案不會是簡單直白的。坦率地說,如果任何人聲稱自己可以把解決辦法用一兩句話說清楚,我會覺得這個人沒有直面現(xiàn)實。因為創(chuàng)新既要有速度,又要有安全性。

創(chuàng)新將帶來新的發(fā)現(xiàn),帶來就業(yè)機會,讓我們有更高的生產(chǎn)力,更好的健康狀況,更優(yōu)質(zhì)的教育資源,更適宜的環(huán)境。這些是可以預(yù)見的。

但與此同時,我們也需要“防護欄”來保護人的生命、人的尊嚴(yán),特別是那些處境不佳的人。這涉及人類作為一個物種所關(guān)心的價值觀。我作為一個技術(shù)專家,作為一個教育工作者,聽到任何走極端的說法都會感到擔(dān)心。

問:怎樣設(shè)計良好的“防護欄”呢?

答:這是過去五年來我一直在努力的問題。這個問題促使我在斯坦福建立了Human-Centered AI 研究所。研究所名字的意思是,要把個人和社會的福祉放在設(shè)計、開發(fā)和部署AI的中心位置。

設(shè)計和構(gòu)建良好的防護欄是個非常復(fù)雜的事情。我認為需要一個框架,主張在技術(shù)和防護欄之間保持均衡,將倫理納入到技術(shù)的設(shè)計之中,要有一套側(cè)重于利益相關(guān)者的方法,來考慮技術(shù)對個人、社區(qū)和社會影響。

問:公眾對AI的理解,與專家相比,差距最大的地方在哪里?

答:坦率地說,差距非常之大。

AI技術(shù)太新了,公眾不太了解它也很正常。公眾當(dāng)初了解電力這個東西也花了不少時間。我們必須給大家一些時間,讓公眾接受AI科普。

目前公眾被誤導(dǎo)了,關(guān)注點被帶偏了。倒也不是有人在惡意引導(dǎo),而是因為缺乏溝通和科普。

在輿論場上發(fā)聲的差距也很大。有這么多優(yōu)秀的研究人員、企業(yè)家、技術(shù)專家、教育家和政策制定者專注于創(chuàng)造更好的未來,比如把AI運用在醫(yī)學(xué)或農(nóng)業(yè)方面,但我們沒有聽到他們的聲音。反而是一個想要“贏家通吃”的小團體把持了擴音器,這對公眾有弊無利。

問:你想澄清的最大的誤解是什么?

答:舉個例子,大型語言模型可以幫助你做什么,這個問題就需要好好科普。

有些人會直接從“大型語言模型出現(xiàn)了”跳躍到“人類的能動性全都消失了,沒有人再需要學(xué)習(xí)英語”的結(jié)論上。有人會覺得,企業(yè)使用大型語言模型的時候,就是員工打開一個大型語言模型,然后離開房間,讓它自己運行,產(chǎn)品就自動完成了我認為這不太可能。

實際上,大型語言模型就像一個漂亮的計算器,這個類比可能有點尬,但重點是,它們是工具,可以用來提高生產(chǎn)力。

但我們也需要誠實地討論一些問題,比如AI對工作和工資有什么影響?我們?nèi)绾呜撠?zé)任地使用AI?但這些討論并沒有出現(xiàn)。如果你在大街上隨機找一個普通的美國人,問他:你在哪里看到關(guān)于AI內(nèi)容的?你從中了解了什么?你對AI的印象如何?他也許沒啥可說的。

問:好的AI教育是什么樣?

答:我不知道泰諾(Tylenol)感冒藥是如何起作用的,但我相信它,也會服用它。所以教育也是分層次的。AI技術(shù)太新了,很多人都以為,除非自己懂?dāng)?shù)學(xué),否則就弄不懂AI。但事情不是這樣的。

我們不需要了解生物化學(xué),也能對泰諾有一個常識性的了解。公共教育會告訴你,什么藥物是用來治療什么癥狀的,藥物監(jiān)管部門做了什么,以及患者怎樣與藥劑師和醫(yī)生合作,以負責(zé)任的方式服用泰諾。

現(xiàn)有的公共教育提高了大眾的主觀能動性,讓他們理解了一些常識。然后,如果你真的對生物化學(xué)感興趣,你自己會想去研究泰諾的分子效應(yīng)。

目前的AI教育缺少就這一塊。雖然技術(shù)方面有很多公開的資料,但并不是很容易理解。從某種程度上說,這就是我寫《我看到的世界》這本書的原因我想用一種通俗易懂的方式來討論AI。我們需要對公眾進行科普,與他們溝通,來了解大家如何從其他角度來看待AI,比如經(jīng)濟學(xué)或立法角度。

問:如果沒有正確的教育,會有什么后果?

答:我最擔(dān)心的是大家失去主觀能動性。很多人都很害怕,擔(dān)心人類最終會淪落到被機器統(tǒng)治。這也太夸張了吧。但如果公共教育不足,這可能會成為一個自我實現(xiàn)的預(yù)言。

我們都有主觀能動性。政策制定真的很重要。它可以全面禁止整個AI,也可以讓情況變得失控,而失控會比禁止更糟糕。為了人類的尊嚴(yán),就必須要有合適的防護欄。這樣我們才能用AI來提供福祉。

問:每次我在派對上跟人說,我(外媒記者)是靠寫作謀生的,他們都會說ChatGPT將搶走我的工作。我該怎么回應(yīng)?

答:你低估了自己的主觀能動性!

不妨做個實驗,你找個題目,讓ChatGPT寫出來,然后你用紅色標(biāo)出你不得不重寫的部分,拿出來給大家展示一下:看吧,有95%都要修改。

我的意思是,也許有一些事情,你放手給ChatGPT做,是因為它真的做得不錯,但仔細看看你就會發(fā)現(xiàn),你自己還有很大的發(fā)揮空間。你可以用AI來提高工作效率,激發(fā)你的主觀能動性,不要把它當(dāng)成威脅。(編譯/云開)

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港