展會信息港展會大全

中國可向歐盟《人工智能法案》借鑒什么?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-12-19 18:12:46   瀏覽:6859次  

導(dǎo)讀:2023年12月8日,歐洲議會和歐盟成員國就全球首部監(jiān)管人工智能的全面法規(guī)歐盟《人工智能法案》(以下簡稱《AI法案》)初步達(dá)成一致。這標(biāo)志著歐盟在建立完備的人工智能監(jiān)管框架和規(guī)則方面邁出了領(lǐng)先全球關(guān)鍵的一步,因此被譽(yù)為里程碑式的立法成就。 然而,《A...

2023年12月8日,歐洲議會和歐盟成員國就全球首部監(jiān)管人工智能的全面法規(guī)歐盟《人工智能法案》(以下簡稱《AI法案》)初步達(dá)成一致。這標(biāo)志著歐盟在建立完備的人工智能監(jiān)管框架和規(guī)則方面邁出了領(lǐng)先全球關(guān)鍵的一步,因此被譽(yù)為“里程碑”式的立法成就。

然而,《AI法案》的形成之路卻并不平坦。據(jù)報(bào)道,在法案制定過程中,生成式AI大模型的監(jiān)管方式成為爭議焦點(diǎn)。各方能最終達(dá)成一致的結(jié)果,體現(xiàn)出歐盟為平衡各方利益所做出的不懈努力。

中國目前主要依托國家網(wǎng)信辦等部門今年7月發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》等基礎(chǔ)法規(guī),對語料安全、個人信息保護(hù)等方面進(jìn)行規(guī)范,但尚需進(jìn)一步明晰具體要求。此外,中國的監(jiān)管體系相對分散,不同主管部門之間的協(xié)同性有待加強(qiáng)。歐盟《AI法案》有一些好的經(jīng)驗(yàn)和做法值得中國借鑒。

語料使用:對個人信息使用明確規(guī)定須授權(quán)

相較于治理一般AI,大模型的規(guī)模更大、復(fù)雜性更高。大模型的復(fù)雜性帶來了多方面的風(fēng)險(xiǎn)提升,包括數(shù)據(jù)濫用、虛假信息傳播、隱私泄露、知識產(chǎn)權(quán)侵犯以及攻擊性用途等問題,甚至有可能極化社會分歧,加劇社會不平等。與此同時(shí),大模型的規(guī)模和復(fù)雜性也對其算法的透明度提出了更高要求。因此,當(dāng)前對大模型的監(jiān)管尤為重要。

在此背景下,歐盟《AI法案》提供了明確而詳細(xì)的規(guī)范,從多方面為生成式人工智能大模型設(shè)定了清晰的監(jiān)管要求,以有效保障用戶的知識產(chǎn)權(quán)和個人信息安全。

其中,在大模型語料使用方面,《AI法案》規(guī)定,要求生成式人工智能服務(wù)提供者建立語料來源黑名單、評估來源的安全性,并確保語料的廣泛性和可驗(yàn)證性。通過確立數(shù)據(jù)多樣性和可追溯性的要求,法案為服務(wù)提供者提供了明確的操作指南,以規(guī)范行業(yè)行為、提高服務(wù)水平。

《AI法案》對使用包含個人信息的語料,明確規(guī)定獲得授權(quán)同意的條件和標(biāo)準(zhǔn)。中國可以借鑒這一做法,以更好地加強(qiáng)數(shù)據(jù)隱私保護(hù)。在語料安全方面,歐盟法案對語料來源管理、語料內(nèi)容過濾等都有細(xì)致而嚴(yán)格的規(guī)定,這將有助于提高生成式人工智能服務(wù)的安全水平。

監(jiān)督抽檢:及時(shí)發(fā)現(xiàn)和糾正安全問題

《AI法案》還特別強(qiáng)調(diào)了安全評估和監(jiān)督抽檢的必要性,要求生成式人工智能服務(wù)提供者在服務(wù)上線前和發(fā)生重大變更時(shí)均需安全評估,并定期監(jiān)督抽檢。這一雙重機(jī)制有助于及時(shí)發(fā)現(xiàn)和糾正潛在的大模型安全問題。中國可借鑒并引入這一機(jī)制,通過安全評估和監(jiān)督抽檢,及時(shí)發(fā)現(xiàn)和解決潛在安全問題,提高監(jiān)管效能。

更為重要的是,法案為生成式 AI 模型的透明度設(shè)置了特別義務(wù)。透明度義務(wù)適用于所有模型,具體包括遵守歐盟版權(quán)法;在“不損害商業(yè)機(jī)密”的情況下發(fā)布足夠詳細(xì)的訓(xùn)練數(shù)據(jù)概要;要求人工智能生成的內(nèi)容必須做到能立即可識別等。對于前沿的模型,相關(guān)的合規(guī)義務(wù)還須納入模型評估、跟蹤系統(tǒng)風(fēng)險(xiǎn)、網(wǎng)絡(luò)安全保護(hù)以及模型能耗報(bào)告。

監(jiān)管與創(chuàng)新:在真實(shí)條件下測試人工智能系統(tǒng)

在平衡監(jiān)管與創(chuàng)新方面,《AI法案》提出設(shè)立人工智能監(jiān)管沙盒,為人工智能創(chuàng)新系統(tǒng)的開發(fā)、測試和驗(yàn)證建立受控環(huán)境。這一機(jī)制允許在真實(shí)條件下測試人工智能系統(tǒng),為技術(shù)創(chuàng)新提供更多實(shí)踐機(jī)會。并且,法案還規(guī)定了支持中小企業(yè)的行動清單和有限減損規(guī)定,以減輕其負(fù)擔(dān)。

同時(shí),《AI法案》還強(qiáng)調(diào)對生成式人工智能大模型的有效監(jiān)管需要不同部門之間的合作與協(xié)同,以及廣泛的公眾參與,以確保監(jiān)管體系的完備性和全面性。

ChatGPT等人工智能大模型的涌現(xiàn)讓人類進(jìn)入了新紀(jì)元。它們以前所未有的速度和規(guī)模改變著生活和工作方式,對傳統(tǒng)產(chǎn)業(yè)、安全、社會倫理等方面的挑戰(zhàn)也才剛剛開始。但我們的理解和管理仍處于初級階段。因此,探尋AI大模型的有效監(jiān)管路徑,是中國政府的迫切任務(wù)之一。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港