展會(huì)信息港展會(huì)大全

“征服”國會(huì)山!OpenAI CEO呼吁:AI 要監(jiān)管|行業(yè)前沿
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-05-18 10:00:38   瀏覽:4300次  

導(dǎo)讀:Altman 基本上同意議員們的觀點(diǎn),即有必要對他的公司以及谷歌和微軟等公司正在開發(fā)的日益強(qiáng)大的人工智能技術(shù)進(jìn)行監(jiān)管。 編譯:Poetry| 如果為蓬勃發(fā)展的人工智能行業(yè)找一個(gè)代言人,當(dāng)下非 OpenAI的CEO Sam Altman 莫屬。 本周二, Sam Altman 又被新技術(shù)余波...

“Altman 基本上同意議員們的觀點(diǎn),即有必要對他的公司以及谷歌和微軟等公司正在開發(fā)的日益強(qiáng)大的人工智能技術(shù)進(jìn)行監(jiān)管。

編譯:Poetry|

如果為蓬勃發(fā)展的人工智能行業(yè)找一個(gè)代言人,當(dāng)下非OpenAI的CEO Sam Altman 莫屬。

本周二, Sam Altman 又被新技術(shù)余波送到了美國國會(huì)在美國參議院司法委員會(huì)隱私、技術(shù)和法律小組委員會(huì)會(huì)議上作證,會(huì)議的主題是「AI 監(jiān)管:人工智能規(guī)則(Oversight of AI: Rules for Artificial Intelligence)」。

這是 Altman 首次在國會(huì)亮相。

在長達(dá)三個(gè)小時(shí)的聽證會(huì)上,這位看起來像男孩的 CEO 脫下套頭衫和牛仔褲,換上了藍(lán)色西裝和領(lǐng)帶。

和他一起出庭作證的還有長期批評(píng)人工智能的 Gary Marcus 以及 IBM 首席隱私和信任官 Christina Montgomery。

01

AI危機(jī)

近年來,以科技行業(yè)高管為主題的國會(huì)聽證會(huì)的基調(diào)可以用敵對、劍拔弩張來形容。

不過在周二的聽證會(huì)上,國會(huì)山的議員們似乎并不想對 Altman 進(jìn)行粗暴的質(zhì)詢,Altman 也基本上同意議員們的觀點(diǎn),即有必要對他的公司以及谷歌和微軟等公司正在開發(fā)的日益強(qiáng)大的人工智能技術(shù)進(jìn)行監(jiān)管。

不過,在對話早期階段,他們和立法者都不能說這種監(jiān)管應(yīng)該是什么樣子。

國會(huì)針對新技術(shù)的監(jiān)管反射弧,向來比較長。如今 ChatGPT 問世僅過去半年就將負(fù)責(zé)人招致國會(huì)山,討論監(jiān)管,足見其對新技術(shù)的不安。

幾個(gè)月來,大大小小的公司都在競相將越來越通用的人工智能推向市場,向其投入了無窮無盡的數(shù)據(jù)和數(shù)十億美元。

一些批評(píng)者擔(dān)心這項(xiàng)技術(shù)會(huì)加劇社會(huì)危害,其中包括偏見和錯(cuò)誤信息,而另一些人則警告說,人工智能可能會(huì)終結(jié)人類本身。

02

Altman提出三點(diǎn)方案

Christina Montgomery 在聽證會(huì)上承認(rèn),人工智能給各行各業(yè)的工人帶來了明顯的風(fēng)險(xiǎn),包括那些以前被認(rèn)為不受自動(dòng)化影響的人。

「我認(rèn)為重要的是要理解并將 GPT4 視為一個(gè)工具,而不是一個(gè)生物,」Altman 對此有不同看法。這樣的模型「擅長完成任務(wù),而不是工作」,「因此會(huì)讓人們的工作更輕松,而不會(huì)完全取代它們! 他的公司的技術(shù)可能會(huì)摧毀一些工作,但也會(huì)創(chuàng)造新的工作,「政府要弄清楚我們想要如何減輕這種影響」,這一點(diǎn)很重要。

知名的人工智能懷疑論者 Gary Marcus 對 Altman 提出了一些棘手的問題和評(píng)論!溉祟愐呀(jīng)退居二線」,因?yàn)槠髽I(yè)競相開發(fā)更復(fù)雜的人工智能模型,而很少考慮潛在的危險(xiǎn)。他指出,OpenAI 在開發(fā)系統(tǒng)時(shí)使用的數(shù)據(jù)也不透明。

我認(rèn)為,如果這項(xiàng)技術(shù)出了問題,它可能會(huì)出很大的問題。我們想要直言不諱,」Altman 承認(rèn),「我們希望與政府合作,防止這種情況發(fā)生!

有意思的是,一些媒體盛贊這是一個(gè)令人振奮的承認(rèn),也有觀點(diǎn)認(rèn)為這可能是硅谷具有欺騙性表演的一次突破。

Marcus 對 Altman 關(guān)于新工作將取代那些被人工智能淘汰的工作的預(yù)測表示懷疑!肝覀冊谶@里有前所未有的機(jī)會(huì),但也面臨著企業(yè)不負(fù)責(zé)任、廣泛部署、缺乏足夠監(jiān)管和內(nèi)在不可靠性的完美風(fēng)暴。」他說。

為了呼應(yīng) Marcus 的想法,Altman 認(rèn)為美國應(yīng)該考慮開發(fā) AI 模型的許可和測試要求。他提議成立一個(gè)機(jī)構(gòu),為大規(guī)模人工智能模型的開發(fā)發(fā)放許可證,制定安全法規(guī),并在向公眾發(fā)布人工智能模型之前通過測試。當(dāng)然,需要獨(dú)立專家對模型的各個(gè)指標(biāo)進(jìn)行獨(dú)立評(píng)估。

當(dāng)被問及哪些 AI 需要申請?jiān)S可時(shí),他舉例說,一個(gè)可以說服或操縱個(gè)人信仰的模型應(yīng)該面臨「很高的門檻」。「我們相信,到目前為止,我們部署的工具帶來的好處遠(yuǎn)遠(yuǎn)大于風(fēng)險(xiǎn),但確保它們的安全對我們的工作至關(guān)重要!

Altman 還認(rèn)為企業(yè)應(yīng)該有權(quán)表示,他們不希望自己的數(shù)據(jù)被用于人工智能培訓(xùn),這也是國會(huì)正在討論的一個(gè)想法。然而,Altman 又說網(wǎng)絡(luò)上的公共資源,人人皆可得之(fair game)。

Altman還表示,他「不會(huì)說永遠(yuǎn)拒絕廣告,但更喜歡基于訂閱的模式!

據(jù)《紐約時(shí)報(bào)》報(bào)道,國會(huì)立法機(jī)構(gòu)的不安并沒有蔓延到 Altman 身上,他在小組委員會(huì)的成員中有一群友好的聽眾。

參議院負(fù)責(zé)隱私、技術(shù)和法律的小組委員會(huì)成員感謝 Altman 與他們私下會(huì)面,并同意出席聽證會(huì)。新澤西州民主黨人Cory Booker 多次直呼 Altman 的名字。

報(bào)紙還援引參加晚宴和會(huì)議人士的話,Altman 在周一晚上與數(shù)十名眾議院議員共進(jìn)晚餐時(shí)談到了他的公司的技術(shù),并在聽證會(huì)前私下會(huì)見了一些參議員。

「細(xì)節(jié)決定成敗!笰ltman 對監(jiān)管的建議還不夠深入,應(yīng)該包括限制人工智能在警務(wù)和生物數(shù)據(jù)方面的應(yīng)用,政策研究中心AI Now Institute 董事總經(jīng)理 Sarah Myers West 在接受《紐約時(shí)報(bào)》采訪時(shí)表示,「對方也沒有表現(xiàn)出任何放慢 OpenAI ChatGPT 工具開發(fā)速度的跡象!

「看到那些迅速將造成這些危害的系統(tǒng)用于商業(yè)用途的人對危害表示擔(dān)憂的姿態(tài),真是太諷刺了。」她對記者表示。

03

精確監(jiān)管AI

目前尚不清楚立法者將如何回應(yīng)監(jiān)管人工智能的呼吁。

過去幾十年,政策制定者一直順從帕洛阿爾托和山景城的承諾。但隨著越來越多的證據(jù)表明,對數(shù)字技術(shù)的依賴會(huì)帶來嚴(yán)重的社會(huì)、文化和經(jīng)濟(jì)負(fù)面影響,雙方都表現(xiàn)出愿意出于不同的原因來監(jiān)管技術(shù)。

這次聽證會(huì)是一系列聽證會(huì)中的第一次,國會(huì)議員們希望更多地了解人工智能的潛在利弊,并最終為其「制定規(guī)則」,避免重蹈「監(jiān)管社交媒體為時(shí)已晚」的覆轍。

現(xiàn)在,他們?nèi)杂袝r(shí)間確保人工智能不會(huì)產(chǎn)生同樣的社會(huì)弊病,比如對美國大選的嚴(yán)重干擾。

小組委員會(huì)成員建議成立一個(gè)獨(dú)立機(jī)構(gòu)來監(jiān)督人工智能;強(qiáng)制公司披露其模型如何工作以及使用的數(shù)據(jù)集的規(guī)則;以及防止微軟和谷歌等公司壟斷新興市場的反壟斷規(guī)定。

在聽證會(huì)上,一些議員仍然表現(xiàn)出華盛頓和硅谷在技術(shù)知識(shí)方面的差距。

比如,南卡羅來納州共和黨人Lindsey Graham 多次詢問證人,針對 Facebook 和谷歌等在線平臺(tái)的言論責(zé)任保護(hù)是否也適用于人工智能。

Altman 平靜而鎮(zhèn)定地多次區(qū)分人工智能和社交媒體。「我們需要共同努力,找到一種全新的方法,」他說。

Christina Montgomery 也在聽證會(huì)上呼吁,國會(huì)應(yīng)該謹(jǐn)慎對待任何將不同類型的人工智能混為一談的寬泛規(guī)則。

應(yīng)該制定一項(xiàng)類似于歐洲擬議法規(guī)的人工智能法律,其中概述了不同級(jí)別的風(fēng)險(xiǎn)。她呼吁制定側(cè)重于具體用途的規(guī)則,而不是監(jiān)管技術(shù)本身。

「從本質(zhì)上講,人工智能只是一種工具,工具可以用于不同的目的,」她說,并補(bǔ)充說,國會(huì)應(yīng)該「對人工智能采取精確的監(jiān)管方法」。

她敦促國會(huì)將監(jiān)管重點(diǎn)放在可能造成最大社會(huì)危害的領(lǐng)域。

參考資料:

https://arstechnica.com/tech-policy/2023/05/ai-technology-can-go-quite-wrong-openai-ceo-tells-senate/

https://www.theverge.com/2023/5/16/23726119/congress-ai-hearing-sam-altman-openai

https://www.reuters.com/technology/openai-chief-goes-before-us-congress-propose-licenses-building-ai-2023-05-16/

https://www.nytimes.com/2023/05/16/technology/openai-altman-artificial-intelligence-regulation.html

本文提供的信息僅用于一般指導(dǎo)和信息目的,本文的內(nèi)容在任何情況下均不應(yīng)被視為投資、業(yè)務(wù)、法律或稅務(wù)建議。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港