展會信息港展會大全

中歐AI立法同期突破:為ChatGPT設置“紅綠燈”?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-16 09:09:38   瀏覽:7227次  

導讀:文|財經(jīng)E法 實習生 楊柳 編輯|郭麗琴 伴隨人工智能大語言模型ChatGPT在今年的火爆出圈,中歐均在AI領域的立法上取得突破性進展。 當?shù)貢r間6月14日,歐盟《人工智能法案》(下稱歐盟法案)以壓倒性多數(shù)(499票贊成、28票反對和93票棄權)獲得歐洲議會表決通...

文|財經(jīng)E法 實習生 楊柳

編輯|郭麗琴

伴隨人工智能大語言模型ChatGPT在今年的火爆出圈,中歐均在AI領域的立法上取得突破性進展。

當?shù)貢r間6月14日,歐盟《人工智能法案》(下稱“歐盟法案”)以壓倒性多數(shù)(499票贊成、28票反對和93票棄權)獲得歐洲議會表決通過,為后續(xù)法案最終條款的磋商鋪平道路。該法案已經(jīng)醞釀約兩年,最終條款預計在年底前達成,很可能成為全球首部落地的綜合性人工智能立法。

這部法案制定了一整套針對人工智能使用的嚴格規(guī)則,遵循不同風險等級分類監(jiān)管的思路。其核心落在嚴格限制面部識別軟件的使用(如禁止公共場所面部識別),并要求ChatGPT這類人工智能系統(tǒng)的制造商披露訓練大模型所使用的版權數(shù)據(jù)信息。

歐盟試圖通過立法向全球輸出AI領域的治理框架和價值觀。負責此項立法工作的歐洲議會議員兼聯(lián)合報告員德拉戈斯圖多拉什(Drago Tudorache)就評論稱,歐盟法案將為全球人工智能的發(fā)展和治理定下基調(diào),確保這項將從根本上改變社會的技術,能夠不斷發(fā)展并遵循歐洲法治的價值觀。

6月7日,中國國務院辦公廳印發(fā)2023年度立法工作計劃,其中一句話引發(fā)關注:“預備提請全國人大常委會審議人工智能法草案”。此前,中國監(jiān)管部門多采取“小而靈”的立法范式,針對性地回應特定人工智能領域的治理難題。

一名了解人工智能立法動向的“紅圈律所”合伙人向財經(jīng)E法表示,無論是國際形勢還是內(nèi)部產(chǎn)業(yè)發(fā)展的壓力,中國對通用的綜合性人工智能立法均已是箭在弦上。“這不僅是個法律問題,也是個經(jīng)濟問題。”

但暨南大學特聘教授孫遠釗則認為,歐盟法案實際執(zhí)行情況還有待觀察,因為“難度會相當大”。此前,歐盟法案已經(jīng)引發(fā)美國高科技企業(yè)的反彈。5月底,OpenAI首席執(zhí)行官阿爾特曼(Sam Altman)警告說,如果無法遵守歐盟法案的規(guī)定,OpenAI可能會停止在歐盟的運營。因為按照法案的表述,可能會將OpenAI旗下的大模型認定為“高風險”,從而要求企業(yè)負擔更多的安全要求。

歐盟法案的參考價值

歐盟已經(jīng)對外公布了一部長達144頁、擁有上千條修正條文的談判授權草案。中國若推進立法,可以從中借鑒哪些有效經(jīng)驗?

僅從時間線上看,歐盟的立法速度,已經(jīng)領先其他國家和地區(qū)一大步。

按照歐盟立法程序,法案得到歐洲議會議員認可后,歐洲議會、歐盟理事會和歐盟委員會將展開“三方會談”,敲定最終條款。最終條款預計在年底前達成。當法案的最終版本頒布,受影響的公司和組織將有約兩年的寬限期,以了解如何遵守新的規(guī)定。

在中國,按照《立法法》的規(guī)定,國務院向全國人大常務委員會提出法律案后,由委員長會議決定列入常務委員會會議議程,或者先交有關的專門委員會審議、提出報告,再決定列入常務委員會會議議程,后續(xù)一般需經(jīng)歷三次審議。

一個可參考的時間表是,2017年7月,國務院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》提到“三步走”戰(zhàn)略,其中第二步展望,到2025年人工智能基礎理論實現(xiàn)重大突破,部分技術與應用達到世界領先水平,同時初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力。

一位接近監(jiān)管部門的法學專家表示,歐盟人工智能立法的參考價值或許并不那么高,因為中國人工智能監(jiān)管需要立足于本國國情,考慮全球戰(zhàn)略競爭和綜合國力提升,和歐盟相比有不同的側重。

孫遠釗認為,歐盟在AI領域的立法,是個“相當謹慎的第一步嘗試”。他基本贊同歐盟的一些做法:一方面,把風險等級先列出,設立相對明確的注意義務和責任;另一方面,兼顧創(chuàng)新發(fā)展與社會安全,不冒進,卻設置柵欄,“容許子彈只能在設定的范圍內(nèi)繼續(xù)再飛一會兒”。

但孫遠釗也指出,歐盟法案實際的執(zhí)行效果究竟如何,還有待觀察,“因為難度會非常大,灰色地帶也會不小,因為同樣的工具(人工智能)可以從事多種不同的用途”。

“從很多方面,人工智能與核能開發(fā)很像,都是極厲害的雙面刃。用得好可以造福人群,稍有差池也可釀成巨災。”孫遠釗表示。

結合歐盟已經(jīng)公布的草案,前述“紅圈所”合伙人則認為,中國即將展開的綜合性人工智能立法有三大難點待解決:

確立人工智能發(fā)展遵循的原則。人工智能如何發(fā)展,會涉及到一個國家或民族價值觀的底層,立法需要將這種價值觀和人工智能發(fā)展耦合起來。

兼顧安全與發(fā)展,具體體現(xiàn)為責任主體的劃分。歐盟法案中,便分別確立了人工智能系統(tǒng)開發(fā)提供者、部署使用者、引入歐盟以外人工智能系統(tǒng)的進口者、分發(fā)者的責任義務。

拓展監(jiān)管工具。中國的監(jiān)管工具體系目前只有算法備案和算法安全評估,域外的算法認證、“監(jiān)管沙盒”等做法也值得嘗試。

比如,歐盟法案提出了高風險人工智能“CE合格標識”制度,獲得該標簽則表明人工智能系統(tǒng)符合法案對高風險人工智能的規(guī)制要求。給予企業(yè)尤其是中小企業(yè)和初創(chuàng)企業(yè)合格標識,相當于監(jiān)管部門為產(chǎn)品的基本合規(guī)性背書,讓企業(yè)有個定心丸。但無論歐盟還是中國,現(xiàn)在仍依靠企業(yè)自行提交的技術文件、法律文件進行監(jiān)管,監(jiān)管部門缺少技術能力進行實質(zhì)性的技術監(jiān)管。

以下,是財經(jīng)E法對歐盟法案的梳理,側重于可供中國參考的詳細內(nèi)容。

一、“風險金字塔”式分級監(jiān)管

人工智能四個風險等級,來源:歐盟委員會官網(wǎng)

歐盟法案的整體監(jiān)管架構,將人工智能應用按風險等級分為四類,類似于一個“風險金字塔”,分別建立相應的風險防范機制。

最極端的一類是具有“不可接受風險”的人工智能系統(tǒng)或應用,比如被認為對人們的安全、日常生活和基本權利構成明顯威脅,將被完全禁止使用。目前法案相比最初版本的一大顯著變化,就是大幅修改負面清單,在第二編中納入對“人工智能系統(tǒng)的侵入性和歧視性使用”的一攬子禁令。

這些禁令涵蓋六類人工智能系統(tǒng):(1)公共場所的“實時”遠程生物特征識別系統(tǒng);(2)“事后”遠程生物特征識別系統(tǒng),但執(zhí)法機關起訴嚴重犯罪且取得司法授權的除外;(3)使用性別、種族、民族、公民身份、宗教、政治取向等敏感特征的生物識別分類系統(tǒng);(4)基于分析、位置或犯罪前科的預測性警務系統(tǒng);(5)執(zhí)法、邊境管理、工作場所和教育機構中的情緒識別系統(tǒng);(6)未經(jīng)相關人員允許,從社交媒體或視頻監(jiān)控中抓取生物識別數(shù)據(jù)以創(chuàng)建或擴大面部識別數(shù)據(jù)庫。

歐洲議會議員兼聯(lián)合報告員布蘭多伯尼菲(Brando Benifei)解釋說,限制上述人工智能系統(tǒng)的使用,其目的是避免一個被人工智能控制的社會”。“我們認為這些技術可以用來代替好的東西,也可以用來做壞事,風險太高了”。

第二類是“高風險”人工智能應用程序,涵蓋人工智能在涉及安全和人權的多個領域中的使用,例如執(zhí)法、司法、教育、就業(yè)、出入境等。當前法案擴大了高風險領域的分類,將對人們健康、安全、基本權利或環(huán)境構成重大風險的情形納入其中。另外,影響政治競選中選民的人工智能系統(tǒng),以及根據(jù)歐盟《數(shù)字服務法》擁有超過4500萬用戶的超大型社交媒體平臺的推薦系統(tǒng),也被列入高風險名單。

高風險的人工智能系統(tǒng)在投放市場之前,將承擔嚴格的法定義務,需要具備更高的透明度和準確性,比如為系統(tǒng)提供高質(zhì)量的數(shù)據(jù)集,以及采取適當?shù)娜藶楸O(jiān)督措施,以最大限度地減少風險和歧視性結果。

針對高風險人工智能,法案還引入一項全新要求,人工智能系統(tǒng)部署者有義務進行用戶基本權利影響評估,考慮到對邊緣化及弱勢群體和環(huán)境的潛在負面影響等。法案同時還要求歐盟委員會與成員國合作,創(chuàng)建一個高風險人工智能系統(tǒng)的公共數(shù)據(jù)庫,以解釋這些人工智能系統(tǒng)在歐盟的部署地點、時間和方式,便于歐盟公民可以了解他們何時以及如何受到該技術的影響。

法案要求:“這個數(shù)據(jù)庫應該可以免費和公開訪問、易于理解和可由機器讀齲該數(shù)據(jù)庫還應該方便用戶使用且易于導航的,至少具有搜索功能,允許公眾在數(shù)據(jù)庫中搜索特定的高風險系統(tǒng)及其位置、風險類別和關鍵字。”

第三類是“風險有限”的人工智能應用程序,具有特定透明度義務,使用戶能意識到是在與人工智能系統(tǒng)進行交互操作。第四類為“極小風險”的應用程序,基本上不受監(jiān)管,比如垃圾郵件過濾器等人工智能應用程序。

對于違規(guī)者,歐盟法案設定了高額處罰,最高將被處以4000萬歐元或上一財政年度全球年總營業(yè)額的7%。對于谷歌、微軟這些全年總營收數(shù)千億美元的科技巨頭而言,若嚴格參照規(guī)定,罰款可能達數(shù)十億乃至上百億美元。

突出技術規(guī)制的同時,歐盟法案也試圖兼顧促進產(chǎn)業(yè)創(chuàng)新。法案第1條就明確,支持對中小企業(yè)和初創(chuàng)企業(yè)的創(chuàng)新舉措,包括建立“監(jiān)管沙盒”等措施,減少中小企業(yè)和初創(chuàng)企業(yè)的合規(guī)負擔。

按照法案的解釋,所謂“監(jiān)管沙盒”,即一個受監(jiān)督、可控的安全空間,讓企業(yè)尤其是中小企業(yè)和初創(chuàng)企業(yè)進入“沙盒”,在監(jiān)管機構的嚴格監(jiān)督下,積極參與創(chuàng)新人工智能系統(tǒng)的開發(fā)和測試,其后將這些人工智能系統(tǒng)投放到服務市常如果開發(fā)測試過程中發(fā)現(xiàn)重大風險,則應理解并加以緩解,倘若不能緩解,便應暫停開放測試。

5月中旬歐盟法案在歐洲議會兩個下屬委員會的投票結束后,布蘭多伯尼菲曾表示:“我們即將制定具有里程碑意義的立法,必須經(jīng)受住時間的挑戰(zhàn),至關重要的是要建立公民對人工智能發(fā)展的信任。我們相信這部法律會平衡基本權利的保護,并為企業(yè)提供法律確定性,刺激歐洲創(chuàng)新。”

但立法對人工智能市場的影響尚不清晰。

6月1日,歐洲智庫Digital Europe對九家中小企業(yè)和初創(chuàng)科技企業(yè)深度訪談的報告顯示,有大約三分之二的受訪者對歐盟法案僅僅是“有點熟悉”,甚至“不熟悉”。許多受訪者提到的一個關鍵點,法案存在很多不夠清晰的地方,尤其是不確定它們的產(chǎn)品應落入何種風險等級。還有受訪者擔心,法案的實施可能會使在歐洲布局高風險人工智能模型變得更加困難,促使國際投資者回避為高風險的歐洲人工智能公司提供資金。

二、給ChatGPT等大語言模型施加額外要求

如何規(guī)范引導通用人工智能技術的發(fā)展,是歐盟法案立法之初未曾預料到的一大“變數(shù)”。

人工智能大模型的浪潮席卷,帶來數(shù)據(jù)合規(guī)、版權合規(guī)、虛假信息治理等全新治理難題。

5月16日,OpenAI首席執(zhí)行官阿爾特曼接受美國參議院司法委員會質(zhì)詢時,就人工智能大模型監(jiān)管提出建議,可以參照國際原子能機構建立人工智能監(jiān)管的國際組織,用來為人工智能制定標準。這一倡議于近日得到聯(lián)合國秘書長古特雷斯應和。當?shù)貢r間6月12日,古特雷斯表示支持參照國際原子能機構,建立一個人工智能機構的設想。他還宣布,計劃在今年年底前啟動一個高級人工智能咨詢機構,定期審查人工智能治理安排。

這次獲得通過的歐盟法案增加了條款以涵蓋像ChatGPT這樣的基礎模型,施加了強制性的透明度要求,使這些基礎模型承擔一些和高風險系統(tǒng)相同的額外要求。

具體而言,必須披露內(nèi)容是由人工智能生成的,防止模型生成非法內(nèi)容,以及發(fā)布受版權法保護的訓練數(shù)據(jù)的使用情況摘要。公開訓練數(shù)據(jù)來源,將使內(nèi)容創(chuàng)作者知道他們原創(chuàng)內(nèi)容是否已被用于訓練人工智能大模型,這可能會驅(qū)使創(chuàng)作者因人工智能系統(tǒng)使用他們的作品而尋求報酬。

4月27日,有媒體援引消息人士稱,一些歐盟委員會成員最初提議,完全禁止將受版權保護的材料用于訓練生成式人工智能模型,但后來改換為施加透明度要求的方案。

無數(shù)作品“喂養(yǎng)”了人工智能大模型內(nèi)容生成,但這一利用是否屬于版權法豁免的合理使用飽受爭議。

2023年1月,三位藝術家代表所有相同境遇的人,向美國加州地方法院提起集體訴訟,指控Stability AI、Midjourney、DeviantArt三家圖像生成器公司侵犯了他們的版權,卻未給予任何補償。同月,圖片公司Getty Images 在倫敦高等法院對 Stability AI 提起法律訴訟,聲稱 Stability AI沒有向 Getty Images尋求任何許可,非法復制和處理了數(shù)百萬受版權保護的圖像,侵犯了Getty Images所擁有作品的版權。

面對創(chuàng)作者對人工智能快速發(fā)展的擔憂,5月17日,美國眾議院法院、知識產(chǎn)權和互聯(lián)網(wǎng)司法小組委員會舉行“生成式人工智能技術與版權法”主題聽證會,其中討論的內(nèi)容涉及受版權保護的作品在生成人工智能模型訓練中使用。

國際知名律所Latham & Watkins律師事務所合伙人、前美國版權局總法律顧問賽達摩(Sy Damle)在書面證詞中指出,合理使用原則是平衡人工智能領域競爭利益的最佳方式。他警示說,雖然某些團體要求為使用版權內(nèi)容訓練人工智能模型付費,但人工智能開發(fā)者不可能與每個版權權利人協(xié)商并獲得許可。若采用法定或集體許可制度,也是一項糟糕的政策,比如龐大的許可使用費有可能給人工智能公司帶來巨大的財務負擔,這些公司要么破產(chǎn),要么被擠出市常

而日本政府最近的態(tài)度表明,不會對人工智能訓練中使用的數(shù)據(jù)實施版權保護。日本文部科學大臣長岡惠子4月底在一次會議上表示:“無論方法如何,無論內(nèi)容如何,該作品都可以用于‘信息分析’。”“信息分析”是日本《著作權法》合理使用制度的情形之一。

中國方面,在版權內(nèi)容的訓練使用上,4月中旬發(fā)布的《生成式人工智能服務管理辦法(征求意見稿)》給出的初步態(tài)度為:用于生成式人工智能產(chǎn)品的預訓練、優(yōu)化訓練數(shù)據(jù),不得含有侵犯知識產(chǎn)權的內(nèi)容。

但在前述接近監(jiān)管部門的法學專家看來:“為了盡可能讓訓練數(shù)據(jù)集更加充分和高質(zhì)量,人工智能立法有必要放開訓練數(shù)據(jù)輸入端的知識產(chǎn)權限制,對于大模型輸出端的知識產(chǎn)權侵權,則可以暫時采取一種相對包容審慎的姿態(tài)。”

贊助本站

人工智能實驗室
相關內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港