展會(huì)信息港展會(huì)大全

OpenAI發(fā)布安全指南:董事會(huì)有權(quán)阻止CEO發(fā)布新模型
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-12-19 14:16:23   瀏覽:4039次  

導(dǎo)讀:人工智能初創(chuàng)企業(yè)OpenAI的董事會(huì)將有權(quán)否決公司CEO推出新版本模型的決定。 當(dāng)?shù)貢r(shí)間12月18日,OpenAI在官方網(wǎng)站發(fā)布了一份名為準(zhǔn)備框架(Preparedness Framework)的安全指南,規(guī)定了跟蹤、評(píng)估、預(yù)測(cè)和防范日益強(qiáng)大的模型帶來(lái)的災(zāi)難性風(fēng)險(xiǎn)的流程。 OpenAI解...

人工智能初創(chuàng)企業(yè)OpenAI的董事會(huì)將有權(quán)否決公司CEO推出新版本模型的決定。

當(dāng)?shù)貢r(shí)間12月18日,OpenAI在官方網(wǎng)站發(fā)布了一份名為“準(zhǔn)備框架(Preparedness Framework)”的安全指南,規(guī)定了“跟蹤、評(píng)估、預(yù)測(cè)和防范日益強(qiáng)大的模型帶來(lái)的災(zāi)難性風(fēng)險(xiǎn)的流程”。

OpenAI解釋說(shuō),對(duì)前沿人工智能風(fēng)險(xiǎn)的研究,遠(yuǎn)遠(yuǎn)沒(méi)有達(dá)到需求。為了解決這一差距并使安全思維系統(tǒng)化,OpenAI正在采用“準(zhǔn)備框架”的測(cè)試版本。

OpenAI“準(zhǔn)備框架”測(cè)試版本文件截圖,來(lái)自官網(wǎng)

OpenAI在新聞稿中宣布,“準(zhǔn)備(Preparedness)團(tuán)隊(duì)”將致力于確保前沿人工智能模型的安全。“準(zhǔn)備團(tuán)隊(duì)”將持續(xù)評(píng)估人工智能系統(tǒng),以了解其在四個(gè)不同風(fēng)險(xiǎn)類別中的表現(xiàn),包括潛在的網(wǎng)絡(luò)安全問(wèn)題、化學(xué)威脅、核威脅和生物威脅,并努力減少該技術(shù)可能造成的任何危害。

具體來(lái)看,OpenAI正在監(jiān)控所謂的“災(zāi)難性”風(fēng)險(xiǎn),它在這份指南中被定義為“可能導(dǎo)致數(shù)千億美元經(jīng)濟(jì)損失或?qū)е略S多人嚴(yán)重受傷甚至死亡的任何風(fēng)險(xiǎn)”。

據(jù)悉,OpenAI在10月份宣布成立“準(zhǔn)備團(tuán)隊(duì)”,是這家初創(chuàng)公司負(fù)責(zé)監(jiān)督人工智能安全的三個(gè)獨(dú)立小組之一。此外還有“安全系統(tǒng)(safety systems)”,著眼于當(dāng)前的產(chǎn)品,例如GPT-4;以及“超級(jí)對(duì)齊(superalignment)”,重點(diǎn)關(guān)注未來(lái)可能誕生的、可能極其強(qiáng)大的人工智能系統(tǒng)。

Aleksander Madry負(fù)責(zé)領(lǐng)導(dǎo)準(zhǔn)備團(tuán)隊(duì)。在接受彭博社采訪時(shí),Madry表示,他的團(tuán)隊(duì)將向新的內(nèi)部安全咨詢小組發(fā)送月度報(bào)告,該小組將分析Madry團(tuán)隊(duì)的工作,并向CEO山姆奧特曼以及公司董事會(huì)提出建議。

Madry表示,他的團(tuán)隊(duì)將反復(fù)評(píng)估OpenAI最先進(jìn)的、尚未發(fā)布的人工智能模型,針對(duì)不同類型的感知風(fēng)險(xiǎn),將其評(píng)級(jí)為“低”“中”“高”或“嚴(yán)重”。該團(tuán)隊(duì)還將做出改變,以減少他們?cè)谌斯ぶ悄苤邪l(fā)現(xiàn)的潛在危險(xiǎn),并衡量其有效性。根據(jù)新的安全指南,OpenAI未來(lái)僅會(huì)推出評(píng)級(jí)為“中”或“低”的人工智能模型。

值得注意的是,根據(jù)安全指南,奧特曼和他的領(lǐng)導(dǎo)團(tuán)隊(duì)可以根據(jù)這些報(bào)告決定是否發(fā)布新的人工智能模型,但董事會(huì)有權(quán)推翻其決定。

近日,奧特曼和董事會(huì)之間的宮斗大戰(zhàn)吸引了全世界的關(guān)注,在這場(chǎng)內(nèi)斗落幕之后,董事會(huì)已經(jīng)發(fā)生了巨大的變化,同時(shí)也引發(fā)了外界對(duì)于人工智能安全的又一次思考。

今年4月,一群人工智能行業(yè)領(lǐng)袖和專家簽署了一封公開(kāi)信,呼吁在未來(lái)六個(gè)月內(nèi)暫停開(kāi)發(fā)比GPT-4更強(qiáng)大的系統(tǒng),理由是人工智能對(duì)社會(huì)有著潛在風(fēng)險(xiǎn)。咨詢公司益普索(Ipsos)在今年5月份推出的一項(xiàng)民意調(diào)查發(fā)現(xiàn),超過(guò)三分之二的美國(guó)人擔(dān)心人工智能可能帶來(lái)的負(fù)面影響,有61%的人認(rèn)為它可能威脅人類文明。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港