展會(huì)信息港展會(huì)大全

管控人工智能“野蠻生長(zhǎng)”,ACM 通過生成式 AI 開發(fā)原則
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-07-14 13:54:07   瀏覽:11083次  

導(dǎo)讀:IT之家 7 月 13 日消息,美國(guó)生成式人工智能協(xié)會(huì) (Association for Generative AI)計(jì)算機(jī)器全球技術(shù)政策委員會(huì) (ACM TPC) 日前發(fā)布了《生成式人工智能技術(shù)的開發(fā)、部署和使用原則》,日前已經(jīng)由 ACM 的美國(guó)技術(shù)政策委員會(huì)(USTPC)和歐洲技術(shù)政策委員會(huì)(...

IT之家 7 月 13 日消息,美國(guó)生成式人工智能協(xié)會(huì) (Association for Generative AI)計(jì)算機(jī)器全球技術(shù)政策委員會(huì) (ACM TPC) 日前發(fā)布了《生成式人工智能技術(shù)的開發(fā)、部署和使用原則》,日前已經(jīng)由 ACM 的美國(guó)技術(shù)政策委員會(huì)(USTPC)和歐洲技術(shù)政策委員會(huì)(Europe TPC)通過。

據(jù)悉,該原則旨在促進(jìn)有關(guān)生成和所有其他人工智能技術(shù)的公平、準(zhǔn)確和有益的決策。不過 ACM 方面并未就此敦促推行具體的立法。

ACM 美國(guó)技術(shù)政策委員會(huì)主席 Jeremy Epstein 表示,“我們會(huì)直接回應(yīng)立法機(jī)構(gòu)的意見征詢,但不會(huì)對(duì)法案或其中的部分內(nèi)容公開表態(tài)。”

ACM 成立于 1947 年,號(hào)稱是“世界上最大的科學(xué)和教育計(jì)算協(xié)會(huì)”,擁有約 110000 名學(xué)生和專業(yè)會(huì)員。他們認(rèn)為,生成式 AI 日益強(qiáng)大,或?qū)?duì)社會(huì)構(gòu)成嚴(yán)重風(fēng)險(xiǎn),目前的技術(shù)安全使用指南不足,因此需要建立新標(biāo)準(zhǔn),以確?梢(guī)避該技術(shù)可能帶來的危害。

▲ 圖源 美國(guó)人工智能協(xié)會(huì)

此次發(fā)布的原則中,有四項(xiàng)原則專門針對(duì)生成式 AI,另外四項(xiàng)原則改編自 TPC 2022 年的 《負(fù)責(zé)任的算法系統(tǒng)聲明》原則,IT之家將原則全文置于下方:

生成式 AI 特定原則

部署和使用的限制和指南: 應(yīng)與所有利益相關(guān)者協(xié)商,審查和應(yīng)用書面或修訂的法律和法規(guī),以在需要時(shí)限制生成人工智能技術(shù)的部署和使用,以最大程度地減少危害。如果沒有明確和充分的保障措施,包括 “human in the loop” 以及相關(guān)利益相關(guān)者之間的明確共識(shí),即該系統(tǒng)的好處將大大超過其潛在的負(fù)面影響,則不應(yīng)允許任何高風(fēng)險(xiǎn)的人工智能系統(tǒng)運(yùn)行。一種方法是定義風(fēng)險(xiǎn)等級(jí),最高級(jí)別為不可接受的風(fēng)險(xiǎn),最低級(jí)別為最小風(fēng)險(xiǎn)。

所有權(quán):知識(shí)產(chǎn)權(quán) (IP) 法律和法規(guī)尚未充分考慮生成式人工智能系統(tǒng)的結(jié)構(gòu)和功能的固有方面。

個(gè)人數(shù)據(jù)控制: 生成式人工智能系統(tǒng)應(yīng)該允許人們選擇不使用他們的數(shù)據(jù)來訓(xùn)練系統(tǒng)或促進(jìn)其信息生成。

可糾正性: 生成人工智能系統(tǒng)的提供者應(yīng)創(chuàng)建和維護(hù)公共存儲(chǔ)庫(kù),可以記錄系統(tǒng)所犯的錯(cuò)誤,并可以選擇進(jìn)行更正。

改編的先前原則

透明度: 任何使用生成式人工智能的應(yīng)用程序或系統(tǒng)都應(yīng)向適當(dāng)?shù)睦嫦嚓P(guān)者明確披露。

可審計(jì)性和可質(zhì)疑性: 生成人工智能系統(tǒng)的提供者應(yīng)確保盡可能記錄系統(tǒng)模型、算法、數(shù)據(jù)和輸出(適當(dāng)考慮隱私),以便在適當(dāng)?shù)那闆r下對(duì)其進(jìn)行審計(jì)和 / 或質(zhì)疑。

限制環(huán)境影響:鑒于生成式人工智能模型對(duì)環(huán)境的巨大影響,建議就方法論達(dá)成共識(shí),以衡量、歸因并積極減少此類影響。

更高的安全性和隱私性:生成式人工智能系統(tǒng)容易受到各種新的安全和隱私風(fēng)險(xiǎn)的影響,包括新的攻擊向量和惡意數(shù)據(jù)泄露等。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港