展會(huì)信息港展會(huì)大全

三位OpenAI掌舵人親自撰文:我們應(yīng)該如何治理超級(jí)智能?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-05-23 10:52:30   瀏覽:9576次  

導(dǎo)讀:劃重點(diǎn): 1ChatGPT以及大語(yǔ)言模型已經(jīng)火爆全球,但OpenAI公司管理層卻認(rèn)為,這項(xiàng)技術(shù)發(fā)展速度過快,需要成立類似管理核能那樣的國(guó)際監(jiān)管機(jī)構(gòu)。 2OpenAI幾位高管發(fā)文,呼吁成立監(jiān)管人工智能研究和部署的國(guó)際組織,追蹤用于人工智能研究的計(jì)算能力和能源的使用...

劃重點(diǎn):

1ChatGPT以及大語(yǔ)言模型已經(jīng)火爆全球,但OpenAI公司管理層卻認(rèn)為,這項(xiàng)技術(shù)發(fā)展速度過快,需要成立類似管理核能那樣的國(guó)際監(jiān)管機(jī)構(gòu)。

2OpenAI幾位高管發(fā)文,呼吁成立監(jiān)管人工智能研究和部署的國(guó)際組織,追蹤用于人工智能研究的計(jì)算能力和能源的使用情況。但較小公司可以豁免,以免扼殺創(chuàng)新。

3雖然人工智能技術(shù)存在風(fēng)險(xiǎn),但OpenAI給出了兩個(gè)推動(dòng)其持續(xù)研究的理由:1)幫助解決全球性問題,促進(jìn)經(jīng)濟(jì)增長(zhǎng)和生活水平提高;2)阻止超級(jí)智能崛起不現(xiàn)實(shí),所以要確保其安全。

科技新聞?dòng)?5月23日消息,人工智能技術(shù)的發(fā)展速度非?,可能帶來巨大的潛在危險(xiǎn)。為此,人工智能研究公司OpenAI的領(lǐng)導(dǎo)層認(rèn)為,世界需要一個(gè)類似于管理核能的國(guó)際機(jī)構(gòu),以監(jiān)管人工智能領(lǐng)域的發(fā)展。

OpenAI創(chuàng)始人薩姆奧特曼(Sam Altman)、總裁格雷格布羅克曼(Greg Brockman)以及首席科學(xué)家伊利亞蘇斯克沃(Ilya Sutskeve)在公司博客上發(fā)文解釋說,人工智能領(lǐng)域的創(chuàng)新步伐太快,我們不能指望現(xiàn)有的監(jiān)管機(jī)構(gòu)能充分控制這項(xiàng)技術(shù)。

絕大多數(shù)人都清楚,以O(shè)penAI爆火的聊天機(jī)器人ChatGPT為代表,所謂的生成式人工智能代表著一種無價(jià)的資產(chǎn),但其同時(shí)也帶來了獨(dú)特的威脅。在這篇博文中,OpenAI沒有談及具體細(xì)節(jié),也沒有給出太多承諾,但其承認(rèn)人工智能無法自我監(jiān)管。

文章中寫道:“我們需要在領(lǐng)先的研發(fā)中進(jìn)行某種程度的協(xié)調(diào),以確保超級(jí)智能的發(fā)展以一種既能維護(hù)安全又能幫助這些系統(tǒng)與社會(huì)順利整合的方式進(jìn)行。我們可能最終需要像國(guó)際原子能機(jī)構(gòu)(IAEA)這樣的實(shí)體來監(jiān)管超級(jí)智能的研究,任何超過特定能力(或資源,如計(jì)算)閾值的工作都需要服從于國(guó)際權(quán)威機(jī)構(gòu)的規(guī)則,該機(jī)構(gòu)可以檢查系統(tǒng),要求審核,測(cè)試是否符合安全標(biāo)準(zhǔn),對(duì)部署和安全級(jí)別進(jìn)行限制等等。”

國(guó)際原子能機(jī)構(gòu)是聯(lián)合國(guó)在核能問題上進(jìn)行國(guó)際合作的官方機(jī)構(gòu)。當(dāng)然,與其他此類組織一樣,該機(jī)構(gòu)也可能缺乏影響力。建立在這種模式上的人工智能管理機(jī)構(gòu)可能無法介入并對(duì)不良行為者進(jìn)行控制,但它可以建立和跟蹤國(guó)際標(biāo)準(zhǔn)和協(xié)議,這至少是一個(gè)起點(diǎn)。

OpenAI的文章指出,跟蹤用于人工智能研究的計(jì)算能力和能源使用情況,是能夠而且可能應(yīng)該報(bào)告和跟蹤的相對(duì)較少的客觀指標(biāo)之一。雖然很難確定人工智能應(yīng)該或不應(yīng)該用于哪些方面,但可以說,與其他行業(yè)一樣,專門用于人工智能的資源應(yīng)該受到監(jiān)控和審計(jì)。該公司還建議,規(guī)模較小的公司可以豁免,以免扼殺創(chuàng)新的萌芽。

知名人工智能研究員、評(píng)論家蒂姆尼特格布魯(Timnit Gebru)接受采訪時(shí)也說過類似的話:“除非有外部壓力要求公司做些不同的事情,否則公司不會(huì)進(jìn)行自我監(jiān)管。我們需要加強(qiáng)監(jiān)管,需要比賺錢獲取利潤(rùn)更好的動(dòng)機(jī)。”

OpenAI顯然已經(jīng)接受了這種觀點(diǎn),作為生成式人工智能領(lǐng)域的領(lǐng)導(dǎo)者,該公司也在呼吁在治理方面采取真正的行動(dòng)。

雖然OpenAI的提議相當(dāng)于“也許我們應(yīng)該做點(diǎn)什么”,但它至少成為該行業(yè)內(nèi)的一個(gè)話題,表明了這家世界上最大人工智能品牌和提供商對(duì)做這件事的支持。公眾監(jiān)督是迫切需要的,但“我們還不知道如何設(shè)計(jì)這樣的機(jī)制。”

盡管OpenAI的領(lǐng)導(dǎo)層表示,他們支持“踩剎車”,但目前還沒有這樣做的計(jì)劃,一方面是因?yàn)樗麄儾幌敕艞?ldquo;改善我們社會(huì)”(更不用說賺錢)的巨大潛力,另一方面是因?yàn)榇嬖诓涣夹袨檎咧苯?ldquo;踩油門”的風(fēng)險(xiǎn)。

以下為OpenAI博客文章全文:

現(xiàn)在是開始思考超級(jí)智能治理的好時(shí)機(jī),因?yàn)槲磥淼娜斯ぶ悄芟到y(tǒng)甚至比通用人工智能(AGI)都要強(qiáng)大得多。

鑒于我們現(xiàn)在所看到的情況,可以想象,在未來十年內(nèi),人工智能系統(tǒng)將在大多數(shù)領(lǐng)域超過專家的技能水平,并執(zhí)行與當(dāng)今最大公司那樣多的生產(chǎn)活動(dòng)。

就潛在的優(yōu)勢(shì)和劣勢(shì)而言,超級(jí)智能將比人類過去不得不與之抗衡的其他技術(shù)更強(qiáng)大。我們可能擁有更加繁榮的未來,但我們必須控制風(fēng)險(xiǎn)才能實(shí)現(xiàn)這一目標(biāo)?紤]到存在風(fēng)險(xiǎn)的可能性,我們不能只是被動(dòng)反應(yīng)。核能就是具有這種特性的技術(shù),合成生物學(xué)則是另一個(gè)例子。

我們也必須減輕當(dāng)今人工智能技術(shù)的風(fēng)險(xiǎn),但超級(jí)智能將需要特殊的對(duì)待和協(xié)調(diào)。

起點(diǎn)

對(duì)于我們來說,有許多理念能夠幫助我們更好地把握這一發(fā)展方向。在這里,我們列出了我們對(duì)其中三個(gè)問題的初步想法:

首先,我們需要在領(lǐng)先的開發(fā)努力之間進(jìn)行某種程度的協(xié)調(diào),以確保超級(jí)智能的發(fā)展以一種既能維護(hù)安全又能幫助這些系統(tǒng)與社會(huì)順利整合的方式進(jìn)行。有很多方法可以實(shí)現(xiàn)這一點(diǎn):世界各地的主要政府可以建立一個(gè)項(xiàng)目,讓許多當(dāng)前的努力成為其中的一部分,或者我們可以取得共識(shí),前沿人工智能能力被限制在每年以特定的速度增長(zhǎng)。當(dāng)然,個(gè)別公司應(yīng)該被要求以極高的、負(fù)責(zé)任的標(biāo)準(zhǔn)行事。

其次,我們可能最終需要像國(guó)際原子能機(jī)構(gòu)(IAEA)這樣的實(shí)體來監(jiān)管超級(jí)智能的研究,任何超過特定能力(或資源,如計(jì)算)閾值的工作都需要服從于國(guó)際權(quán)威機(jī)構(gòu)的規(guī)則,該機(jī)構(gòu)可以檢查系統(tǒng),要求審核,測(cè)試是否符合安全標(biāo)準(zhǔn),對(duì)部署和安全級(jí)別進(jìn)行限制等等。

不過,追蹤計(jì)算和能源使用情況可能會(huì)有很大幫助,這給我們帶來一些希望,這個(gè)想法實(shí)際上是可以實(shí)現(xiàn)的。第一步,公司可以自愿同意開始實(shí)施監(jiān)管機(jī)構(gòu)將來可能提出的要求;第二步,個(gè)別國(guó)家可以遵守。重要的是,這樣一個(gè)機(jī)構(gòu)應(yīng)該把重點(diǎn)放在降低生存風(fēng)險(xiǎn)上,而不是應(yīng)該留給各個(gè)國(guó)家的問題上,比如限制人工智能應(yīng)該被允許說什么。

最后,我們需要使超級(jí)智能保持安全的技術(shù)能力。這是一個(gè)開放的研究問題,我們和其他人都投入了大量的精力。

例外

我們認(rèn)為,允許公司和開源項(xiàng)目開發(fā)低于重要能力閾值的模型至關(guān)重要,這里不需要我們描述的那種監(jiān)管,包括像許可證或?qū)徲?jì)這樣的繁重機(jī)制。

今天的系統(tǒng)將在世界上創(chuàng)造巨大的價(jià)值,雖然它們確實(shí)存在風(fēng)險(xiǎn),但這些風(fēng)險(xiǎn)的水平與其他互聯(lián)網(wǎng)技術(shù)和社會(huì)可能采取的方法相稱。

相比之下,我們所關(guān)注的系統(tǒng)將擁有比目前所創(chuàng)造任何技術(shù)都強(qiáng)大的能力,我們應(yīng)該保持謹(jǐn)慎,不要把類似的標(biāo)準(zhǔn)應(yīng)用到遠(yuǎn)遠(yuǎn)低于這個(gè)標(biāo)準(zhǔn)的技術(shù)上,從而淡化對(duì)它們的關(guān)注。

公眾意見及潛力

但是,對(duì)最強(qiáng)大系統(tǒng)的治理,以及有關(guān)其部署的決策,必須有強(qiáng)有力的公眾監(jiān)督。我們認(rèn)為,世界各地的人們應(yīng)該民主地決定人工智能系統(tǒng)的界限和默認(rèn)值。我們還不知道如何設(shè)計(jì)這樣一個(gè)機(jī)制,但我們計(jì)劃對(duì)其開發(fā)進(jìn)行試驗(yàn)。我們?nèi)匀徽J(rèn)為,在這些寬泛的范圍內(nèi),個(gè)人用戶應(yīng)該對(duì)他們使用的人工智能的行為有很大的控制權(quán)。

考慮到這些風(fēng)險(xiǎn)和困難,我們有必要考慮一下為什么要開發(fā)這項(xiàng)技術(shù)。

在OpenAI,我們有兩個(gè)基本理由。首先,我們相信它會(huì)帶來一個(gè)比我們今天所能想象的更好世界,我們已經(jīng)在教育、創(chuàng)造性工作和個(gè)人生產(chǎn)力等領(lǐng)域看到了早期例證。世界面臨著許多問題,我們需要更多的幫助來解決它們。這項(xiàng)技術(shù)可以改善我們的社會(huì),每個(gè)人使用這些新工具的創(chuàng)造能力肯定會(huì)讓我們感到震驚。經(jīng)濟(jì)增長(zhǎng)和生活質(zhì)量的提高將是驚人的。

其次,我們認(rèn)為,阻止超級(jí)智能的創(chuàng)造,從直覺上看是危險(xiǎn)的,也是困難的。因?yàn)楹锰幨侨绱司薮,建造它的成本每年都在下降,建造它的參與者的數(shù)量正在迅速增加,這是我們所走技術(shù)道路的固有組成部分,阻止它需要像全球監(jiān)督制度這樣的東西,即使這樣也不能保證有效。所以我們必須把它做好。(金鹿)

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港