展會信息港展會大全

全球首個AI行業(yè)綜合性法規(guī)出臺前夕:一場關于技術創(chuàng)新和風險管控的賽跑
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-29 13:40:09   瀏覽:13012次  

導讀:在數(shù)字技術監(jiān)管領域走在全球前列的歐盟,6月14日通過了一部人工智能(AI)法案草案,這或將成為世界上人工智能行業(yè)的第一部綜合性法規(guī)。隨著人工智能領域的不斷發(fā)展和創(chuàng)新,人們越來越擔心人工智能對社會以及整個人類將會帶來的風險,各個國家都在積極分析人...

在數(shù)字技術監(jiān)管領域走在全球前列的歐盟,6月14日通過了一部人工智能(AI)法案草案,這或將成為世界上人工智能行業(yè)的第一部綜合性法規(guī)。隨著人工智能領域的不斷發(fā)展和創(chuàng)新,人們越來越擔心人工智能對社會以及整個人類將會帶來的“風險”,各個國家都在積極分析人工智能的工業(yè)和戰(zhàn)略優(yōu)勢及其潛在風險,并試圖加強管控。

歐洲立法者雖然在這一技術的監(jiān)管上邁出了很大一步,但依舊忽略了該技術所帶來的一系列歧視性問題;此外,在各大科技公司以鼓勵創(chuàng)新為由進行的各種游說下,人工智能對人權和弱勢群體的歧視性影響,依舊遭到了立法者的忽視。

基于風險劃分的AI法案

6月14日歐洲議會投票通過的人工智能法案草案,是一項歷時兩年的立法工作。在通過對歐洲議會、歐盟委員會和理事會制定的不同版本草案的漫長協(xié)商之后,正式的人工智能法案預計會在今年年底前獲得批準,或將成為世界上人工智能行業(yè)的第一部綜合性法規(guī)。

對于人工智能該如何監(jiān)管,這項法案完全圍繞著風險的概念來制定。它所監(jiān)管的不是人工智能本身,而是在特定社會領域中的使用方式,每個領域都存在不同的潛在問題。該法案設定了四種風險類別:不可接受、高風險、有限風險和最低風險,并根據(jù)不同的類型制定相應的監(jiān)管措施。

其中,“不可接受”包括被認為對基本權利或歐盟價值構成威脅的人工智能系統(tǒng)。例如用于“預測性警務”的人工智能系統(tǒng),它能夠根據(jù)個人信息對目標個體進行風險評估,以預測他是否可能犯罪。

更具爭議的情況是在道路攝像頭中使用臉部識別技術,這也已被列為“不可接受”的風險之一。根據(jù)新規(guī)定,只有發(fā)生了違法行為,并經(jīng)過司法授權后才可以使用這一技術。

而那些被歸類為“高風險”的人工智能系統(tǒng)則有義務自行披露,而且需要在一個特殊數(shù)據(jù)庫中進行注冊,還將受到各種監(jiān)控或審計要求。預計被歸類為“高風險”的應用包括關鍵基礎設施、教育、人力資源、公共秩序和移民管理領域等與人類財產(chǎn)密切相關的人工智能系統(tǒng)。在這些領域使用人工智能并非違規(guī)行為,但由于其可能會對安全或基本權利產(chǎn)生負面影響,需要受到監(jiān)管,從而確保歐盟境內(nèi)的公民不會因性別或種族背景等個人特征而受到歧視。

AI法案對“有限風險”的人工智能系統(tǒng)的要求是最低的。比如對于生成式人工智能系統(tǒng)(例如能夠生成文本、圖像、代碼、音頻和其他形式內(nèi)容的ChatGPT和DALL-E),需要告訴用戶是機器而不是人類生成了內(nèi)容,開發(fā)人員在發(fā)布應用之前還需要提交進行審查。

雖然這項法案沒有將ChatGPT等“通用”人工智能視為“高風險”,但確實對所謂的“基礎模型”或經(jīng)過大量數(shù)據(jù)訓練的強大人工智能系統(tǒng)提出了透明度要求和風險評估。這些“基礎模型”的供應商,包括 OpenAI、谷歌和微軟等公司,必須發(fā)布他們用于訓練系統(tǒng)的材料摘要,并證明這些機器不會生成非法內(nèi)容,未能證明其產(chǎn)品安全性可能會導致公司被迫刪除其應用程序或被處以最高收入7%的罰款。法案還將禁止公司從社交媒體上抓取生物識別數(shù)據(jù)來創(chuàng)建用戶數(shù)據(jù)庫,不過,并沒有要求這些公司必須聲明訓練期間是否使用了個人數(shù)據(jù)。

接下來,歐洲議會、歐盟委員會和歐盟成員國將會對最終法案進行談判,如果能夠在今年內(nèi)實現(xiàn)立法,最早也要到2026年才能生效,因此歐盟還需要推動與科技公司達成自愿臨時協(xié)議。這一漫長的過程也帶來了一些問題,兩三年過后人工智能到底能讓整個世界會變成什么樣子?法案還能否適用?

歧視才是最大風險

人類對于人工智能造成的“風險”一直有所警惕,這種“風險”甚至上升到了“人類滅絕”的程度。今年5月底,國際AI領域非營利組織“人工智能安全中心”(Center for AI Safety)發(fā)布了一封非常簡短的公開信,寫道:“與流行病和核戰(zhàn)爭等規(guī)模的風險一樣,減輕人工智能帶來的滅絕風險應該成為全球優(yōu)先事項。”全球近400位人工智能領域專業(yè)人士簽署,ChatGPT制造商OpenAI的首席執(zhí)行官山姆阿爾特曼(Sam Altman)、Google DeepMind的首席執(zhí)行官戴密斯哈薩比斯(Demis Hassabis)和Anthropic的首席執(zhí)行官達里奧阿莫迪(Dario Amodei)都支持這一聲明。

當然,也有很多專業(yè)人士表示,擔心人工智能消滅人類是不現(xiàn)實的,而且會分散人們對已經(jīng)存在的系統(tǒng)性偏見等問題的注意力。

牛津人工智能倫理研究所高級研究員伊麗莎白雷尼爾斯 (Elizabeth Renieris) 告訴BBC新聞,相對于“滅絕”這一擔憂,她更擔心的是近期的一些問題。她說:“人工智能的進步將擴大自動化決策的規(guī)模,這些決策帶有偏見、歧視性、排他性或其他不公平性,難以理解但卻不容爭議。”這將“導致錯誤信息的數(shù)量和傳播呈指數(shù)級增長,從而破壞事實并侵蝕公眾信任,并進一步加劇不平等”,特別是對那些在數(shù)據(jù)鴻溝中處于劣勢的群體。

歐洲數(shù)字權利(European Digital Rights)的高級政策顧問薩拉錢德(Sarah Chander)則對BBC指出,使用數(shù)據(jù)驅動的系統(tǒng)來進行監(jiān)視并發(fā)起歧視,這種做法并不新鮮,在歐盟已經(jīng)出現(xiàn)了許多類似的、令人擔憂的做法,包括在移民簽證申請過程中使用偽科學的“測謊”技術、已經(jīng)有部分群體被所謂“中立”的技術邊緣化。

她認為,歐盟關于人工智能的政策辯論雖然認識到“風險”的存在,但絕大多數(shù)仍然集中在人工智能所謂的“廣泛的好處”上。如果這意味著以促進“創(chuàng)新”的名義回避明確的法律限制,那么歐洲的弱勢群體將會最先付出代價。

歐洲多家工會組織已經(jīng)指出,盡管這項具有里程碑意義的法案對有風險的人工智能情感識別系統(tǒng)實施了禁令,避免扭曲雇主與雇員的關系,但這只涉及工作過程的一小部分保護,仍舊缺失對歐盟工人利益的切實關注。歐洲工會研究所 (ETUI) 高級研究員艾達龐塞 (Aída Ponce) 指出:“我們需要針對勞動關系制定一項具體規(guī)定,因為人工智能法中有許多問題并沒有得到澄清。”

代表5000萬工人的全球產(chǎn)業(yè)工會(IndustriALL)認為只對被歸類為“高風險”的人工智能應用程序進行監(jiān)管是一個重大漏洞。 他們表示,只要人工智能系統(tǒng)使用工人的個人數(shù)據(jù),就應全部被歸類為“高風險”。全球產(chǎn)業(yè)工會還表示,人工智能做出的決定必須在法律上具有“可追溯性”和“可逆性”。

迄今為止,歐盟委員會對工人風險的主要回應是:提高技能。歐盟新聞材料喜歡使用“技能提升”、“再培訓”和“數(shù)字技能”等話術,龐塞認為,這對有害的人工智能可能對人們的工作生活造成潛在損害這一關鍵問題并沒有任何幫助。

“專注于研究技能政策以應對人工智能的使用,這是具有誤導性的。”龐塞說,“需要完全重新構建應對方法。”

“好的技術”與“好的監(jiān)管”

事實上,在討論人工智能法案的兩年中,歐盟委員會一直面臨著來自谷歌、OpenAI等科技公司的壓力,要求其避免“過度監(jiān)管”而影響創(chuàng)新。2022年,OpenAI 多次向歐洲官員提出,即將出臺的人工智能法案不應將其通用人工智能系統(tǒng)(包括ChatGPT的前身GPT-3和圖像生成器Dall-E 2)視為“高風險”,這樣就意味著它們將受到嚴格的法律要求,包括透明度、可追溯性和人工監(jiān)督。

在這一點上,OpenAI與微軟和谷歌保持一致,這兩家公司此前都曾游說歐盟官員減輕該法案對大型人工智能提供商的監(jiān)管負擔。他們認為,那些明確打算將人工智能應用于“高風險”用例的公司才應該遵守該法案最嚴格的規(guī)定,而不是那些構建通用人工智能系統(tǒng)的公司,也就是微軟這類行業(yè)內(nèi)的大型公司。

“就其本身而言,GPT-3并不是一個高風險系統(tǒng),”OpenAI在2022年9月發(fā)送給歐盟委員會和理事會官員的《OpenAI關于歐盟人工智能法案的白皮書》中表示,“但GPT-3確實擁有可用于‘高風險’用例的功能。”

今年5月,OpenAI的首席執(zhí)行官阿爾特曼曾告訴記者,關于這項法案,他已經(jīng)“收到了太多批評的聲音”,如果OpenAI認為自己無法遵守該法規(guī),可能會在歐洲“停止運營”。不過,他后來又反駁了這個說法,在“人工智能安全中心”發(fā)布公開信的前三天,阿爾特曼稱他的公司沒有計劃離開歐洲,并打算與歐盟合作。

2022年6月,也就是發(fā)送白皮書的三個月前,OpenAI工作人員在布魯塞爾首次會見了歐盟委員會官員。一位直接參與活動的歐盟委員會消息人士稱,官員們從那次會議上得到的信息是,與其他大型科技公司一樣,OpenAI害怕可能影響人工智能創(chuàng)新的“過度監(jiān)管”。OpenAI工作人員在會議上表示,他們意識到了風險,并正在盡一切努力減輕風險,但是并沒有告訴歐盟委員會“好的監(jiān)管”應該是什么樣子。

OpenAI 還在會議期間告訴官員,“可以調整人工智能的指令,使其拒絕共享如何制造危險物質這類信息”。網(wǎng)絡安全公司Adversa AI已經(jīng)證明,通過一些方法,ChatGPT很容易繞過內(nèi)容過濾器并遵守一些違反法律道德的指令。Adversa AI只用了幾小時便破譯了ChatGPT-4,并成功試驗了欺騙系統(tǒng)使之做出編寫網(wǎng)絡釣魚電子郵件、散布恐同言論、支持暴力等行為。

盡管如此,OpenAI的游說努力似乎取得了成功:6月14日發(fā)表的最終草案中并未包含早期草案中的某些措辭,包括“通用人工智能系統(tǒng)應被視為‘高風險’”。所謂“基礎模型”或經(jīng)過大量數(shù)據(jù)訓練的強大人工智能系統(tǒng)的提供者需要遵守較少的要求,包括防止非法內(nèi)容的產(chǎn)生,披露系統(tǒng)是否經(jīng)過訓練受版權保護的材料,并進行風險評估等。OpenAI公司發(fā)言人告訴《時代》雜志,OpenAI支持在該法案中將“基礎模型”作為一個單獨的類別引入。

然而薩拉錢德認為,對創(chuàng)新是否有價值的真正檢驗是看它們在多大程度上改善了人們的生活,當業(yè)界聲稱人權保障將“阻礙創(chuàng)新”時,他們是在技術進步和社會進步之間制造了錯誤的界限,對利潤的考量不應被用來證明歧視性或其他有害技術的合理性。

“在創(chuàng)新競賽中,人權絕不能屈居第二。”人工智能可能會給我們的社會帶來巨大的好處,但這些好處必須惠及我們所有人,我們不能接受只對那些銷售和部署這些技術的人有利的技術,尤其是在充滿歧視的地區(qū)。“有些決定太重要、太危險,無法通過算法做出。”她指出,“這是歐盟將人放在首位并在為時已晚之前停止歧視性人工智能的機會。”

贊助本站

人工智能實驗室
相關內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港