展會(huì)信息港展會(huì)大全

全球24名AI專家聯(lián)合發(fā)文:至少三分之一研發(fā)預(yù)算要用于確保安全
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-10-25 18:14:47   瀏覽:4331次  

導(dǎo)讀:這是人工智能專家今年簽署的關(guān)于AI風(fēng)險(xiǎn)的第三份重要聲明,與之前兩份不同的是,新聲明是對(duì)各國(guó)政府詢問要做什么的回答。 這篇文章提出,確保主要科技公司和公共資助者將至少三分之一的人工智能研發(fā)預(yù)算用于確保安全和合乎道德的使用,并呼吁制定國(guó)家和國(guó)際標(biāo)...

這是人工智能專家今年簽署的關(guān)于AI風(fēng)險(xiǎn)的第三份重要聲明,與之前兩份不同的是,新聲明是對(duì)各國(guó)政府詢問“要做什么”的回答。

這篇文章提出,確保主要科技公司和公共資助者將至少三分之一的人工智能研發(fā)預(yù)算用于確保安全和合乎道德的使用,并呼吁制定國(guó)家和國(guó)際標(biāo)準(zhǔn)。

當(dāng)?shù)貢r(shí)間10月24日,包括圖靈獎(jiǎng)獲得者杰弗里辛頓(Geoffrey Hinton)和約書亞本吉奧(Yoshua Bengio)在內(nèi)的24名人工智能專家聯(lián)合發(fā)表文章《在快速進(jìn)步的時(shí)代管理人工智能風(fēng)險(xiǎn)》,呼吁各國(guó)政府采取行動(dòng)管理人工智能帶來(lái)的風(fēng)險(xiǎn)。該文章特別關(guān)注最先進(jìn)系統(tǒng)帶來(lái)的極端風(fēng)險(xiǎn),例如助長(zhǎng)大規(guī)模犯罪或恐怖活動(dòng)。

文章提出了一些具體的政策建議,例如確保主要科技公司和公共資助者將至少三分之一的人工智能研發(fā)預(yù)算用于確保安全和合乎道德的使用。作者還呼吁制定國(guó)家和國(guó)際標(biāo)準(zhǔn)。

這份文件的作者包括中國(guó)專家:清華大學(xué)交叉信息研究院院長(zhǎng)姚期智、清華大學(xué)智能產(chǎn)業(yè)研究院院長(zhǎng)張亞勤、清華大學(xué)人工智能國(guó)際治理研究院院長(zhǎng)薛瀾和華東政法大學(xué)政治學(xué)研究院院長(zhǎng)高奇琦。

《在快速進(jìn)步的時(shí)代管理人工智能風(fēng)險(xiǎn)》的作者名單。

“謹(jǐn)慎樂觀語(yǔ)氣”

作者之一、加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授斯圖爾特羅素(Stuart Russell)表示,最新的聲明與之前專家主導(dǎo)的公開信有所不同,因?yàn)?ldquo;各國(guó)政府已經(jīng)意識(shí)到存在真正的風(fēng)險(xiǎn)。他們向人工智能圈詢問‘要做什么?’該聲明就是對(duì)這個(gè)問題的回答。”

這是人工智能專家今年簽署的關(guān)于AI風(fēng)險(xiǎn)的第三份重要聲明。3月,包括特斯拉創(chuàng)始人埃隆馬斯克、本吉奧和羅素在內(nèi)的數(shù)萬(wàn)人簽署了一封公開信,呼吁人工智能實(shí)驗(yàn)室“立即暫停訓(xùn)練比GPT-4更強(qiáng)大的人工智能系統(tǒng)至少6個(gè)月”。

5月,人工智能安全中心組織的一份聲明稱,“與流行病和核戰(zhàn)爭(zhēng)等其他社會(huì)規(guī)模風(fēng)險(xiǎn)一樣,減輕人工智能帶來(lái)的滅絕風(fēng)險(xiǎn)應(yīng)該成為全球優(yōu)先事項(xiàng)。”該聲明由500多名著名學(xué)者和行業(yè)領(lǐng)袖簽署,其中同樣包括辛頓、本吉奧和羅素,也包括3個(gè)最著名AI公司的首席執(zhí)行官:OpenAI的山姆奧特曼(Sam Altman)、DeepMind的德米斯哈薩比斯(Demis Hassabis)和Anthropic的達(dá)里奧阿莫代(Dario Amodei)。

機(jī)器人公司Covariant.ai的聯(lián)合創(chuàng)始人、總裁兼首席科學(xué)家,加州大學(xué)伯克利分校電氣工程和計(jì)算機(jī)科學(xué)教授彼得阿貝爾(Pieter Abbeel)沒有簽署之前的公開信,但簽署了最新聲明。阿貝爾告訴《時(shí)代》雜志,這份最新聲明的謹(jǐn)慎樂觀語(yǔ)氣比之前公開信中令人震驚的語(yǔ)氣更符合他的觀點(diǎn)。

文章說了什么?

“人工智能在蛋白質(zhì)折疊或策略游戲等狹窄領(lǐng)域已經(jīng)超越了人類的能力。與人類相比,人工智能系統(tǒng)可以更快地行動(dòng),吸收更多的知識(shí),并以更高的帶寬進(jìn)行通信。此外,它們可以擴(kuò)展以使用巨大的計(jì)算資源,并且可以進(jìn)行數(shù)百萬(wàn)次復(fù)制。”文章寫道,“改進(jìn)的速度已經(jīng)是驚人的了,科技公司擁有所需的現(xiàn)金儲(chǔ)備,可以很快將最新的訓(xùn)練規(guī)模擴(kuò)大100到1000倍。結(jié)合人工智能研發(fā)的持續(xù)增長(zhǎng)和自動(dòng)化,我們必須認(rèn)真對(duì)待通用人工智能系統(tǒng)在這十年或未來(lái)十年內(nèi)在許多關(guān)鍵領(lǐng)域超越人類能力的可能性。”

文章認(rèn)為,現(xiàn)在調(diào)整已經(jīng)落后于計(jì)劃。“我們必須預(yù)見到持續(xù)危害和新風(fēng)險(xiǎn)的擴(kuò)大,并在最大風(fēng)險(xiǎn)發(fā)生之前做好準(zhǔn)備。人們花了幾十年的時(shí)間才認(rèn)識(shí)和應(yīng)對(duì)氣候變化;對(duì)于人工智能來(lái)說,幾十年可能太長(zhǎng)了。”

在社會(huì)規(guī)模風(fēng)險(xiǎn)方面,自主人工智能系統(tǒng)可以越來(lái)越多地承擔(dān)關(guān)鍵的社會(huì)角色。“如果沒有足夠的謹(jǐn)慎,我們可能會(huì)不可逆轉(zhuǎn)地失去對(duì)自主人工智能系統(tǒng)的控制,從而導(dǎo)致人類干預(yù)無(wú)效。大規(guī)模網(wǎng)絡(luò)犯罪、社會(huì)操縱和其他突出危害可能會(huì)迅速升級(jí)。這種不受控制的人工智能進(jìn)步可能最終導(dǎo)致生命和生物圈的大規(guī)模喪失,以及人類的邊緣化甚至滅絕。”

對(duì)于前進(jìn)的道路,文章指出,首先要調(diào)整技術(shù)研發(fā)方向。需要研究突破,來(lái)解決當(dāng)今創(chuàng)建具有安全和道德目標(biāo)的人工智能的一些技術(shù)挑戰(zhàn)。其中一些挑戰(zhàn)不太可能通過簡(jiǎn)單地提高人工智能系統(tǒng)的能力來(lái)解決。考慮到風(fēng)險(xiǎn),“我們呼吁主要科技公司和公共資助者將至少三分之一的人工智能研發(fā)預(yù)算用于確保安全和合乎道德的使用,這與他們對(duì)人工智能能力的投資相當(dāng)。”

其次是緊急治理措施。“我們迫切需要國(guó)家機(jī)構(gòu)和國(guó)際治理機(jī)構(gòu)來(lái)執(zhí)行標(biāo)準(zhǔn),以防止魯莽行為和濫用。”“為了跟上快速進(jìn)步并避免僵化的法律,國(guó)家機(jī)構(gòu)需要強(qiáng)大的技術(shù)專長(zhǎng)和迅速采取行動(dòng)的權(quán)力。為了應(yīng)對(duì)國(guó)際競(jìng)爭(zhēng)態(tài)勢(shì),他們需要有能力促進(jìn)國(guó)際協(xié)議和伙伴關(guān)系。”但是,為了保護(hù)低風(fēng)險(xiǎn)的使用和學(xué)術(shù)研究,監(jiān)管者應(yīng)該避免對(duì)小型和可預(yù)測(cè)的人工智能模型設(shè)置不當(dāng)?shù)墓倭耪系K。“最緊迫的審查應(yīng)該是前沿的人工智能系統(tǒng):少數(shù)最強(qiáng)大的人工智能系統(tǒng)將具有最危險(xiǎn)和不可預(yù)測(cè)的能力。”

文章建議,監(jiān)管機(jī)構(gòu)應(yīng)要求模型注冊(cè)、保護(hù)舉報(bào)人、報(bào)告事件以及監(jiān)控模型開發(fā)和超級(jí)計(jì)算機(jī)的使用。為了縮短法規(guī)出臺(tái)的時(shí)間,主要人工智能公司應(yīng)立即做出“如果那么”承諾:如果在其人工智能系統(tǒng)中發(fā)現(xiàn)特定的紅線功能,他們將采取具體的安全措施。

大公司與小公司

文章中建議的政策之一是要求公司在開發(fā)“能力超群的未來(lái)模型”之前尋求許可,但一些人工智能開發(fā)人員和觀察者警告說,這將使能夠承擔(dān)獲得許可所需的監(jiān)管負(fù)擔(dān)的大公司受益。對(duì)此,本吉奧稱這是一個(gè)“完全錯(cuò)誤的論點(diǎn)”,并指出許可帶來(lái)的負(fù)擔(dān)將完全落在開發(fā)最大、最有能力的人工智能模型的公司身上。相反,真正需要警惕的風(fēng)險(xiǎn)是,如果允許大公司影響立法,將導(dǎo)致立法不夠健全。

羅素表示,關(guān)于大型人工智能公司推動(dòng)監(jiān)管以將小公司拒之門外的說法是“胡說八道”。他認(rèn)為,盡管對(duì)三明治店的監(jiān)管比對(duì)人工智能公司的監(jiān)管要多,但數(shù)以萬(wàn)計(jì)的新咖啡館和餐廳每年都會(huì)開業(yè)。

這份新文件發(fā)布之際,開發(fā)先進(jìn)人工智能的國(guó)家或區(qū)域的監(jiān)管規(guī)則正處于不同階段。中國(guó)的《生成式人工智能服務(wù)管理暫行辦法》已于8月生效。歐盟的《人工智能法案》仍在立法進(jìn)程中,最新消息稱可能至少推遲到明年才會(huì)通過。在美國(guó),白宮已獲得15家領(lǐng)先人工智能開發(fā)商的自愿承諾,但國(guó)會(huì)距離通過人工智能立法還有很長(zhǎng)的路要走。

與此同時(shí),英國(guó)首相里希蘇納克正試圖在促進(jìn)人工智能問題的國(guó)際合作方面發(fā)揮關(guān)鍵作用,計(jì)劃在11月舉辦全球人工智能安全峰會(huì),并邀請(qǐng)中國(guó)與會(huì)。聯(lián)合國(guó)秘書長(zhǎng)安東尼奧古特雷斯及其技術(shù)特使阿曼迪普吉爾(Amandeep Gill)也在努力推進(jìn)人工智能的全球治理。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港