OpenAI當(dāng)?shù)貢r(shí)間周四宣布,公司正在組建一個(gè)新團(tuán)隊(duì),以降低與AI相關(guān)的“災(zāi)難性風(fēng)險(xiǎn)”,將對AI可能引發(fā)的重大問題進(jìn)行跟蹤、評估、預(yù)測和保護(hù)。
OpenAI稱,“我們深信前沿AI模型的能力將超過目前最先進(jìn)的現(xiàn)有模型,并可能造福全人類,但它們也帶來了越來越嚴(yán)重的風(fēng)險(xiǎn)。”該團(tuán)隊(duì)將努力減輕核威脅、生物、化學(xué)和放射性威脅等一系列AI可能引發(fā)的重大風(fēng)險(xiǎn),以及AI“自我復(fù)制”等行為帶來的潛在風(fēng)險(xiǎn)。
OpenAI表示,公司需要確保擁有高能力AI系統(tǒng)安全所需的理解、基礎(chǔ)設(shè)施。該團(tuán)隊(duì)將由原麻省理工學(xué)院可部署機(jī)器學(xué)習(xí)中心主任Aleksander Madry領(lǐng)導(dǎo),并將制定、維護(hù)一項(xiàng)“風(fēng)險(xiǎn)知情開發(fā)政策”,用以概述公司在評估和監(jiān)控AI大模型所做的工作。(IT之家)