展會信息港展會大全

李飛飛親自撰文,數(shù)十名科學家簽署聯(lián)名信,反對加州AI限制法案
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-08-07 14:38:12   瀏覽:8183次  

導讀:機器之心報道 編輯:張倩、小舟 AI真的已經(jīng)危險到要如此監(jiān)管的地步了嗎? 在創(chuàng)新的熱土硅谷,李飛飛、吳恩達等 AI 科學家正在與監(jiān)管部門展開一場關(guān)于安全與創(chuàng)新的拉鋸戰(zhàn)。 這場拉鋸戰(zhàn)的核心是一個名叫 SB-1047 的法案。該法案的全稱是「Safe and Secure Inno...

機器之心報道

編輯:張倩、小舟

AI真的已經(jīng)危險到要如此監(jiān)管的地步了嗎?

在創(chuàng)新的熱土硅谷,李飛飛、吳恩達等 AI 科學家正在與監(jiān)管部門展開一場關(guān)于安全與創(chuàng)新的拉鋸戰(zhàn)。

這場拉鋸戰(zhàn)的核心是一個名叫 SB-1047 的法案。該法案的全稱是「Safe and Secure Innovation for Frontier Artificial Intelligence Act(《前沿人工智能模型安全創(chuàng)新法案》)」,試圖為高風險的 AI 模型建立明確的安全標準,以防止其被濫用或引發(fā)災難性后果。

該法案于今年 2 月份在參議院被提出,隨后引起了很大的爭議。很多科學家認為,法案的條款過于不合理,將對科技創(chuàng)新造成毀滅性的影響。

法案鏈接:https://leginfo.legislature.ca.gov/faces/billTextClient.xhtml?bill_id=202320240SB1047

具體來說,該法案旨在從模型層面對人工智能進行監(jiān)管,適用于在特定計算和成本閾值之上訓練的模型。

模型覆蓋范圍如下:

1、使用超過 10^26 次整數(shù)或浮點運算的計算能力進行訓練的人工智能模型,其成本超過一億美元(100,000,000 美元),該成本是根據(jù)開發(fā)者合理評估的訓練開始時云計算的平均市場價格計算得出的。

2、利用等于或大于 10^25 次整數(shù)或浮點運算三倍的計算能力,對范圍內(nèi)的模型進行微調(diào)而創(chuàng)建的人工智能模型。

這一范圍基本覆蓋了現(xiàn)在市面上所有主流的大型模型。如果法案通過,這些模型都將被定義為存在「潛在危險」或需要額外監(jiān)督。

法案還要求模型開發(fā)者對其模型的下游使用或修改承擔法律責任。在訓練開始之前,開發(fā)人員需要證明他們的模型不會啟用或提供「危險功能」,并實施一系列保護措施來防止此類使用。這將阻礙開源社區(qū)的發(fā)展。

監(jiān)督新法律執(zhí)行的將是一個「前沿模型部門(frontier model division)」,這是一個新成立的監(jiān)督和監(jiān)管機構(gòu)。該機構(gòu)將制定安全標準并就人工智能法律提供建議,向該機構(gòu)歪曲模型的功能可能會使開發(fā)人員因偽證而入獄。

法案中還加入了吹哨人保護條款,保護和鼓勵 AI 開發(fā)實體內(nèi)部的舉報者,確保員工可以在不受報復的情況下報告企業(yè)的不合規(guī)情況。

如果法案獲得通過,州長 Gavin Newsom 的一個簽名就可以將其納入加州法律。a16z 普通合伙人 Anjney Midha 表示,如果這項法案在加州獲得通過,將為其他州樹立先例,并在美國國內(nèi)外產(chǎn)生連鎖反應 本質(zhì)上對創(chuàng)新狀況帶來巨大的蝴蝶效應。

在太平洋夏令時間 8 月 7 日早晨,相關(guān)部門將舉行關(guān)于該法案的聽證會。留給科學家們的抗議時間已經(jīng)不多了。因此,李飛飛親自撰文,陳明法案利害。還有些科學家正在簽署一封聯(lián)名信,以阻止法案通過。

李飛飛的文章發(fā)表在《財富》(Fortune)網(wǎng)站上。

李飛飛撰文抨擊 SB-1047

李飛飛在文章中表示:「加州的 SB-1047 將產(chǎn)生重大而意想不到的后果。如果通過成為法律,SB-1047 將損害正在萌芽的人工智能生態(tài)系統(tǒng)。SB-1047 將不必要地懲罰開發(fā)人員,扼殺開源社區(qū),并阻礙人工智能學術(shù)研究,同時無法解決其旨在解決的真正問題!

她寫道:

首先,SB-1047 將過度懲罰開發(fā)者并扼殺創(chuàng)新。如果人工智能模型被濫用,SB-1047 要求責任方和該模型的原始開發(fā)者承擔責任。每個人工智能開發(fā)人員(尤其是嶄露頭角的程序員和企業(yè)家)不可能預測到其模型的每種可能用途。SB-1047 將迫使開發(fā)人員退步并采取防御行動 這正是我們試圖避免的。

其次,SB-1047 將束縛開源開發(fā)。SB-1047 要求所有超過特定閾值的模型都包含「終止開關(guān)」,這是一種可以隨時關(guān)閉程序的機制。如果開發(fā)人員擔心他們下載和構(gòu)建的程序會被刪除,他們在編寫代碼和協(xié)作方面就會更加猶豫。這個終止開關(guān)將摧毀開源社區(qū),這是無數(shù)創(chuàng)新的源泉。其影響不限于人工智能領(lǐng)域,而是在從 GPS 到 MRI 到互聯(lián)網(wǎng)本身的各個領(lǐng)域。

第三,SB-1047 將削弱公共部門和學術(shù)人工智能研究。開源開發(fā)對于私營部門很重要,但對于學術(shù)界也至關(guān)重要。如果沒有協(xié)作和對模型數(shù)據(jù)的訪問,學術(shù)界就無法進步。如果我們的機構(gòu)無法獲得適當?shù)哪P秃蛿?shù)據(jù),我們將如何培訓下一代人工智能領(lǐng)導者?終止開關(guān)甚至會進一步削弱學生和研究人員的努力,與大型科技公司相比,他們在數(shù)據(jù)和計算方面已經(jīng)處于劣勢。當我們應該加倍加大公共部門人工智能投資時,SB-1047 將為學術(shù)人工智能敲響喪鐘。

最令人擔憂的是,該法案并未解決人工智能進步的潛在危害,包括偏見和深度偽造(deepfake)等等。相反,SB-1047 設(shè)置了一個任意閾值,調(diào)節(jié)使用一定計算能力或花費 1 億美元訓練的模型。這項措施遠非提供保障,只會限制包括學術(shù)界在內(nèi)的跨部門創(chuàng)新。如今,學術(shù)人工智能模型低于這一門檻,但如果我們要重新平衡私營和公共部門人工智能的投資,學術(shù)界將受到 SB-1047 的監(jiān)管。我們的人工智能生態(tài)系統(tǒng)將會因此而變得更糟。

SB-1047 的限制過于武斷,我們必須采取相反的做法。

我并不反對人工智能治理。立法對于人工智能的安全有效發(fā)展至關(guān)重要。但人工智能政策必須賦能開源開發(fā),提出統(tǒng)一且合理的規(guī)則,并建立消費者信心。SB-1047 未達到這些標準。

數(shù)十位科學家聯(lián)名反對

針對 SB-1047,除了李飛飛,由加州大學 7 個校區(qū)的師生以及來自其他 20 多個機構(gòu)的研究人員組成的團體也在積極行動。他們共同起草并簽署了一封反對 SB-1047 的公開信,從研究者的角度出發(fā),陳述該法案對加州人工智能研究和教育目標的損害。

聯(lián)名信從以下幾方面展開論述 SB-1047 的不合理性:

1、法案會給開源模型的發(fā)布帶來「寒蟬效應」,從而損害研究

法案中要求對「前沿模型」進行「安全審核」和具備「完全關(guān)閉」能力,可能會嚴重阻礙開源和開放權(quán)重模型的發(fā)布。這些嚴格的規(guī)定對于私有實體控制的專有模型來說可能更易于實現(xiàn),而對于非營利組織或大學聯(lián)盟使用的開放模型則較為困難。法案中關(guān)于安全展示和審核的條款表述不夠具體,依賴于可能尚未存在且可能缺乏科學嚴謹性的測試。這種審計的潛在成本對于有盈利產(chǎn)品的商業(yè)實體來說可能容易承擔,但對于像 Meta 的 LLaMA 系列這樣的商業(yè)實體的科學性開放發(fā)布,或是由非營利組織或大學聯(lián)盟訓練的開放模型,情況可能并非如此。

由于這些繁瑣的限制,開源模型的開發(fā)者可能選擇在加州或美國之外構(gòu)建系統(tǒng),并在避免責任的前提下發(fā)布其模型。在這種情況下,不顧合規(guī)的私人行為者可能會秘密使用這些模型,而受到公共工作性質(zhì)約束的學術(shù)研究人員將被排除在外,這促使他們更改研究主題或轉(zhuǎn)移到不侵犯其學術(shù)自由的司法管轄區(qū)。開源模型的可獲取性對于現(xiàn)代學術(shù) AI 研究至關(guān)重要,因為它們使學術(shù)界能夠探索模型的工作原理、訓練過程中的能力提升以及如何進行改進和破解。

2、人工智能風險預測與「能力」評估存在不科學性

作為人工智能、機器學習和自然語言處理領(lǐng)域的專家,這些研究者強調(diào):SB-1047 中提到的評估模型風險的建議方法非常值得懷疑?茖W界就語言模型或其他前沿人工智能系統(tǒng)是否以及如何對公眾構(gòu)成威脅尚未達成共識。

3、對開源模型的保護不足

盡管法案提到未來可能對開源模型提供特例,但由于參數(shù)數(shù)量的快速增長和計算成本的降低,現(xiàn)有的保護措施可能難以持續(xù)。在沒有強有力的保護措施的情況下,這些模型面臨的后果可能很快就會顯現(xiàn)。此外,性能相當?shù)男⌒湍P拖啾却笮湍P托枰叩挠嬎愠杀尽R虼,法案中的修正案預計無法緩解對開源模型發(fā)布的負面影響,而嚴格的報告和審核要求還將不必要地影響研究活動。

4、對學生的就業(yè)安置和職業(yè)成果的擔憂

SB-1047 未來可能會阻礙對人工智能感興趣的學生進一步學習相關(guān)知識,甚至可能會阻止新人才進入計算機科學等關(guān)鍵領(lǐng)域。此外,隨著科技行業(yè)從大公司向初創(chuàng)公司的轉(zhuǎn)變,額外的監(jiān)管障礙可能會通過支持更大、更好的企業(yè)來削弱新興創(chuàng)新者。這種轉(zhuǎn)變可能會縮窄學生的職業(yè)道路。

聯(lián)名信部分學者簽名。

除了公開信,還有一些研究者選擇在社交媒體發(fā)聲。其中,一位系統(tǒng)生物學家指出,SB-1047 就像在我們還不知道病原體是什么、何時會感染我們以及感染會發(fā)生在哪里之前就激活了炎癥反應。

此前,吳恩達也多次就此事發(fā)聲。他認為,監(jiān)管機構(gòu)應該監(jiān)管應用而不是技術(shù)。例如,電動機就是一項技術(shù)。當我們將其放入攪拌機、電動汽車、透析機或制導炸彈中時,它就成為了一種應用。想象一下,如果法律規(guī)定,當任何人以有害的方式使用電機時,電機制造商都要承擔責任。那電機制造商要么停產(chǎn),要么將電機制造得非常小,以至于對大多數(shù)應用來說毫無用處。如果我們通過這樣的法律,可能會阻止人們制造炸彈,但我們也會失去攪拌機、電動汽車和透析機。相反,如果我們關(guān)注特定的應用,就可以更合理地評估風險并判斷如何確保它們的安全,甚至禁止某些類型的應用。

AI 真的已經(jīng)危險到要如此監(jiān)管的地步了嗎?對此,你怎么看?

參考鏈接:https://a16z.com/sb-1047-what-you-need-to-know-with-anjney-midha/

https://drive.google.com/file/d/1E2yDGXryPhhlwS4OdkzMpNeaG5r6_Jxa/view

https://fortune.com/2024/08/06/godmother-of-ai-says-californias-ai-bill-will-harm-us-ecosystem-tech-politics/?abc123

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港