展會信息港展會大全

OpenAI CEO 出席美國參議院聽證會,討論如何更好地監(jiān)管AI
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-05-18 10:18:20   瀏覽:4032次  

導讀:最近,谷歌正在全力開發(fā)生成式人工智能技術。在其年度 I/O 大會上,該公司宣布計劃將人工智能工具嵌入其幾乎所有產(chǎn)品中,從谷歌文檔到編程和在線搜索。 谷歌的聲明意義重大,F(xiàn)在,數(shù)十億人將能夠使用強大的尖端人工智能模型,幫助他們完成各種任務,從生成...

最近,谷歌正在全力開發(fā)生成式人工智能技術。在其年度 I/O 大會上,該公司宣布計劃將人工智能工具嵌入其幾乎所有產(chǎn)品中,從谷歌文檔到編程和在線搜索。

谷歌的聲明意義重大,F(xiàn)在,數(shù)十億人將能夠使用強大的尖端人工智能模型,幫助他們完成各種任務,從生成文本到回答問題,再到編寫和調(diào)試代碼。正如《麻省理工技術評論》主編馬特霍南(Mat Honan)在對 I/O 大會的分析中所寫的那樣,很明顯人工智能現(xiàn)在已成為谷歌的核心產(chǎn)品。

(來源:STEPHANIE ARNET/MITTR)

谷歌的做法是逐步將這些新功能引入其產(chǎn)品中,但我們遲早會看到一些問題浮現(xiàn)。該公司尚未解決這些人工智能模型的任何常見問題:它們?nèi)匀幌矚g胡編亂造;它們?nèi)匀缓苋菀妆徊倏v,打破人類設定的規(guī)則;它們?nèi)匀蝗菀资艿焦簦粠缀鯖]有什么能阻止它們被用作生成虛假信息、詐騙和垃圾郵件的工具。

由于這類人工智能工具相對較新,它們?nèi)匀辉诤艽蟪潭壬咸幱跓o監(jiān)管狀態(tài)。但這是不可持續(xù)的。隨著 ChatGPT 熱潮逐漸消退,要求監(jiān)管的呼聲越來越高,監(jiān)管機構開始對這項技術提出棘手的問題。

美國監(jiān)管機構正試圖找到一種方法來管理這些強大的人工智能工具。本周,OpenAI CEO 薩姆奧特曼(Sam Altman)在美國參議院作證(前一天晚上他剛與政界人士共進了一頓“教育性質(zhì)的”晚餐)。在聽證會之前一周,美國副總統(tǒng)卡瑪拉哈里斯(Kamala Harris)剛與 Alphabet、微軟、OpenAI 和 Anthropic 的 CEO 舉行了會議。

圖 | OpenAI 創(chuàng)始人山姆奧特曼(Sam Altman)(來源:資料圖)

哈里斯在一份聲明中表示,這些公司有“道德和法律責任”來確保其產(chǎn)品的安全。多數(shù)黨領袖、紐約州參議員查克舒默(Chuck Schumer)提出了監(jiān)管人工智能的立法,其中可能包括成立一個新機構來執(zhí)行這些規(guī)則。

斯坦福大學“以人為中心的人工智能研究所”的隱私和數(shù)據(jù)政策研究員詹妮弗金(Jennifer King)說:“每個人都希望自己做的一些事情被看到。人們對這一切的發(fā)展感到非常焦慮。”

金表示,要讓兩黨支持一項新的人工智能法案將很困難:“這將取決于(生成式人工智能)在多大程度上被視為一種真正的社會層面的威脅。”但她補充道,聯(lián)邦貿(mào)易委員會主席利娜汗(Lina Khan)已經(jīng)“主動出擊”。本月早些時候,汗寫了一篇專欄文章,呼吁現(xiàn)在就對人工智能進行監(jiān)管,以防止過去對科技行業(yè)過于松懈而導致的錯誤。她表示,美國的監(jiān)管機構更有可能使用其工具包中已有的法律來監(jiān)管人工智能,如反壟斷法和商業(yè)實踐法。

與此同時,在歐洲,立法者正接近就《人工智能法案(AI Act)》達成最終協(xié)議。上周,歐洲議會成員簽署了一項法規(guī)草案,呼吁禁止在公共場所使用面部識別技術。它還禁止了預測性警務、情緒識別和不分青紅皂白地在網(wǎng)上抓取生物特征數(shù)據(jù)。

歐盟也將制定更多規(guī)則來約束生成式人工智能,議會希望創(chuàng)建大型人工智能模型的公司更加透明。潛在措施包括標記人工智能生成的內(nèi)容,以摘要的形式披露模型訓練中使用了哪些受版權保護的數(shù)據(jù),以及建立防止模型生成非法內(nèi)容的保障措施。

但問題是:歐盟距離實施這些規(guī)則還有很長的路要走!度斯ぶ悄芊ò浮返脑S多擬議內(nèi)容都無法進入最終版本。議會、歐盟委員會和歐盟成員國之間仍在進行艱難的談判。我們還需要數(shù)年時間才能看到《人工智能法案》生效。

當監(jiān)管機構努力采取行動時,科技界的知名人士開始往相反的方向用力。微軟首席經(jīng)濟學家邁克爾施瓦茨(Michael Schwarz)在最近的一次活動上表示,我們應該等到看到人工智能帶來的“有意義的傷害”后再對其進行監(jiān)管。他將人工智能比作駕照許多人在事故中喪生后才有了駕照。施瓦茨說:“至少要有一點點傷害,這樣我們才能看到真正的問題是什么。”

這種說法太離譜了。人工智能造成的危害多年來已被充分記錄在案。它存在偏見和歧視,會生成假新聞和詐騙信息。其他人工智能系統(tǒng)導致無辜的人被逮捕,讓人們被困在貧困中,成千上萬的人被錯誤地指控欺詐。隨著谷歌大規(guī)模宣傳自己的下一步計劃,生成式人工智能將會越來越深地融入我們的社會,這些危害可能會呈指數(shù)級增長。

我們應該問自己的問題是:我們愿意看到多大的傷害?而我的答案是:我們已經(jīng)看得夠多了。

支持:Ren

原文:

https://www.technologyreview.com/2023/05/16/1073167/how-do-you-solve-a-problem-like-out-of-control-ai/

贊助本站

人工智能實驗室
相關內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港