展會信息港展會大全

比爾·蓋茨:這將是避免AI淪為“武器”的好方法
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-07-14 13:58:52   瀏覽:11946次  

導(dǎo)讀:最近,比爾蓋茨加入了一眾科技界大佬的行列,對人工智能的風(fēng)險問題發(fā)表了意見。一句話概括:他不太擔(dān)心,我們以前也經(jīng)歷過類似的。 圖 | 比爾蓋茨(來源:Pixabay) 在末日論發(fā)酵數(shù)周之后,這種樂觀情緒令人耳目一新,但幾乎沒有提出什么新的想法。 這位億萬...

最近,比爾蓋茨加入了一眾科技界大佬的行列,對人工智能的風(fēng)險問題發(fā)表了意見。一句話概括:他不太擔(dān)心,我們以前也經(jīng)歷過類似的。

圖 | 比爾蓋茨(來源:Pixabay)

在“末日論”發(fā)酵數(shù)周之后,這種樂觀情緒令人耳目一新,但幾乎沒有提出什么新的想法。

這位億萬富翁商業(yè)巨頭和慈善家近日在他的個人博客 GatesNotes 上發(fā)表了自己的觀點。他寫道:“我想聊聊我最常聽到和讀到的擔(dān)憂,其中許多我都有同感,并解釋我是如何看待它們的。”

根據(jù)蓋茨的說法,人工智能是“我們一生中看到的最具變革性的技術(shù)”。這使它超越了互聯(lián)網(wǎng)、智能手機和個人電腦。在這個領(lǐng)域,他比大多數(shù)人做出的貢獻(xiàn)都多。這句話也暗示,在未來幾十年內(nèi),不會有其他東西能與人工智能一爭高下。

幾周前,總部位于美國舊金山的人工智能安全中心(Center for AI Safety)發(fā)布了一份聲明,蓋茨是簽署該聲明的數(shù)十位知名人士之一,聲明如下:“減少人工智能滅絕人類的風(fēng)險,應(yīng)與應(yīng)對流行病和核戰(zhàn)爭等其他社會大規(guī)模風(fēng)險一同成為全球優(yōu)先考慮的事項。”

但蓋茨在最新的博客文章中并沒有散布恐懼。事實上,人類生存風(fēng)險并沒有被關(guān)注。相反,蓋茨將這場辯論定義為“長期”風(fēng)險與“當(dāng)下”風(fēng)險之間的較量,并選擇關(guān)注“已經(jīng)存在或即將出現(xiàn)的風(fēng)險”。

英國阿蘭圖靈研究所(Alan Turing Institute)倫理與負(fù)責(zé)任創(chuàng)新研究主任大衛(wèi)萊斯利(David Leslie)表示:“蓋茨已經(jīng)在同一根弦上掙扎了很長一段時間。”十年前,當(dāng)深度學(xué)習(xí)首次興起時,蓋茨是談?wù)撊斯ぶ悄苌骘L(fēng)險的幾位公眾人物之一,萊斯利說:“很久以前,他更關(guān)心超級智能,F(xiàn)在這一點似乎被稍稍淡化了。”

蓋茨并沒有完全忽視生存風(fēng)險。他想知道“什么時候”而不是如果“我們能開發(fā)出一種可以學(xué)習(xí)任何科目或任務(wù)的人工智能”,這通常被稱為通用人工智能。

他寫道:“無論我們是在十年還是一個世紀(jì)后實現(xiàn)這一點,社會都需要深入思考一些問題。如果超級人工智能建立了自己的目標(biāo)怎么辦?如果它們與人類的目標(biāo)相沖突怎么辦?我們真的應(yīng)該制造超級人工智能嗎?但思考這些長期風(fēng)險不應(yīng)該以犧牲更直接的風(fēng)險為代價。”

蓋茨和深度學(xué)習(xí)先驅(qū)杰弗里辛頓(Geoffrey Hinton)之間似乎劃出了一條中間地帶。辛頓于 2023 年 5 月退出了谷歌,公開表達(dá)了他對人工智能的擔(dān)憂。而其他人,如 Meta AI 的楊立昆(Yann LeCun)和喬埃爾派諾(Joelle Pineau)則認(rèn)為,談?wù)撊斯ぶ悄軒淼纳骘L(fēng)險是“荒謬可笑的”和“精神錯亂的”。

萊斯利說:“很有意思的是,蓋茨現(xiàn)在才參與到討論中,他可以帶來什么呢?每個人都在談?wù)撨@件事,我們已經(jīng)聽到、看到很多了。”

和蓋茨一樣,萊斯利并沒有完全否定更糟糕的情況。“居心叵測的人可以利用這些技術(shù)造成災(zāi)難性的傷害,”他說,“你不需要相信超級智能、末日機器人或通用人工智能等論調(diào)就能理解這一點。”

萊斯利說:“但我同意,我們當(dāng)前關(guān)注的問題應(yīng)該是解決生成式人工智能快速商業(yè)化帶來的現(xiàn)有風(fēng)險。把鏡頭放大,然后說,‘好吧,好吧,眼前的問題是什么?’這才有積極的意義。”

蓋茨在帖子中指出,人工智能已經(jīng)在社會的許多基本領(lǐng)域構(gòu)成威脅,從選舉到教育再到就業(yè)。當(dāng)然,這些擔(dān)憂并不是什么新聞。蓋茨想告訴我們的是,盡管這些威脅很嚴(yán)重,但我們可以處理:“相信我們能夠管理風(fēng)險的最好理由是我們以前也做到過。”

在 20 世紀(jì) 70 年代和 80 年代,計算機改變了學(xué)生學(xué)習(xí)數(shù)學(xué)的方式,使他們能夠?qū)W⒂谏w茨所說的“算術(shù)背后的思維能力”,而不是運算本身。在他眼中,像 ChatGPT 這樣的應(yīng)用程序?qū)ζ渌麑W(xué)科也有同樣的作用。

在 20 世紀(jì) 80 年代和 90 年代,文字處理和電子表格的出現(xiàn),讓微軟(蓋茨自己的公司)推動了辦公室工作方式的變革。

蓋茨在文章中再次回顧了人們是如何適應(yīng)這些改變的,并聲稱我們可以再次適應(yīng)。他寫道:“文字處理應(yīng)用程序并沒有廢除辦公室工作,但它們永遠(yuǎn)改變了辦公室工作。人工智能造成的轉(zhuǎn)變將是一個坎坷的過渡,但我們完全有理由認(rèn)為,我們可以減少它對人們生活和生計的干擾。”

與錯誤信息類似:我們學(xué)會了如何處理垃圾郵件,所以我們可以對深度偽造(deepfakes)做同樣的事情。蓋茨寫道:“最終,大多數(shù)人學(xué)會了對某些電子郵件再三確認(rèn)。隨著騙局變得越來越復(fù)雜,人們也變得越來越聰明。我們需要為深度偽造做類似的鍛煉。”

蓋茨敦促迅速但謹(jǐn)慎地采取行動,以解決他清單上的所有危害。但問題是他沒有提供任何新的東西。他的許多建議都是老生常談,還有些是膚淺的,未能觸及核心的。

和過去幾周的其他人一樣,蓋茨呼吁成立一個類似于國際原子能機構(gòu)的全球機構(gòu)來監(jiān)管人工智能。他認(rèn)為這將是控制人工智能網(wǎng)絡(luò)武器發(fā)展的好方法。但他沒有說明這些規(guī)定應(yīng)該限制什么,也沒有說明應(yīng)該如何執(zhí)行。

他說,政府和企業(yè)需要提供再培訓(xùn)計劃等支持,以確保人們不會在就業(yè)市場上落后。他說,在向 ChatGPT 等應(yīng)用程序成為常態(tài)的世界過渡的過程中,教師也應(yīng)該得到支持。但蓋茨沒有具體說明這種支持會是什么樣子。

他說,我們需要更好地發(fā)現(xiàn)深度偽造,或者至少要使用可以檢測它們的工具。但即使是最新的檢測工具,仍無法很好地檢測人工智能生成的圖像或文本,發(fā)揮它們應(yīng)有的作用。隨著生成式人工智能的進(jìn)步,檢測工具會被越來越遠(yuǎn)嗎?

“一場良性的公眾辯論將取決于每個人對這項技術(shù)、它的好處和它的風(fēng)險的了解。”蓋茨說的沒錯,但他總是相信人工智能將解決人工智能的問題,但不是每個人都會認(rèn)同這一理念。

是的,應(yīng)該優(yōu)先考慮眼前的風(fēng)險。是的,我們以前經(jīng)歷過(或克服過)技術(shù)動蕩,我們可以再次對抗它們。但究竟要做什么呢?

蓋茨寫道:“從迄今為止關(guān)于人工智能風(fēng)險的大量文章中可以清楚地看到,沒有人知道所有的答案。”

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港