展會(huì)信息港展會(huì)大全

揭發(fā)問題反遭報(bào)復(fù)?AI行業(yè)內(nèi)部舉報(bào)機(jī)制困境
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-09-20 12:41:32   瀏覽:826次  

導(dǎo)讀:(來源:MIT Technology Review) 近年來,科技公司不斷推出更先進(jìn)的 AI 模型,而監(jiān)管機(jī)構(gòu)屢屢措手不及?梢灶A(yù)見,實(shí)驗(yàn)室即將發(fā)布的新模型將帶來新的監(jiān)管挑戰(zhàn)。這只是時(shí)間問題。例如,OpenAI 可能在幾周內(nèi)發(fā)布 ChatGPT-5,這款模型有望進(jìn)一步提升 AI 的能力...

(來源:MIT Technology Review)

近年來,科技公司不斷推出更先進(jìn)的 AI 模型,而監(jiān)管機(jī)構(gòu)屢屢措手不及。可以預(yù)見,實(shí)驗(yàn)室即將發(fā)布的新模型將帶來新的監(jiān)管挑戰(zhàn)。這只是時(shí)間問題。例如,OpenAI 可能在幾周內(nèi)發(fā)布 ChatGPT-5,這款模型有望進(jìn)一步提升 AI 的能力。目前來看,幾乎沒有任何力量能夠延緩或阻止那些可能帶來極大風(fēng)險(xiǎn)的模型的發(fā)布。

在模型發(fā)布之前進(jìn)行測(cè)試是減少風(fēng)險(xiǎn)的常見方法,這有助于監(jiān)管機(jī)構(gòu)權(quán)衡利弊,甚至可能阻止那些被認(rèn)為過于危險(xiǎn)的模型發(fā)布。然而,當(dāng)前的測(cè)試準(zhǔn)確性和全面性仍然不盡如人意。AI 模型有時(shí)會(huì)故意隱藏自己的能力,避免引發(fā)安全問題。而現(xiàn)有的評(píng)估也難以全面揭示某個(gè)模型的所有潛在風(fēng)險(xiǎn)。此外,測(cè)試的范圍有限,無法發(fā)現(xiàn)所有值得深入調(diào)查的隱患。還有誰來進(jìn)行測(cè)試、測(cè)試人員的偏見如何影響結(jié)果等問題。因此,評(píng)估必須與其他治理工具相結(jié)合。

其中一個(gè)可能的工具是實(shí)驗(yàn)室內(nèi)部的舉報(bào)機(jī)制。理想狀態(tài)下,員工應(yīng)該能夠定期、全面地表達(dá)他們對(duì) AI 安全的擔(dān)憂,并相信這些擔(dān)憂能夠得到有效處理。然而,越來越多的證據(jù)表明,在 AI 實(shí)驗(yàn)室中,公開批評(píng)不僅未能得到鼓勵(lì),反而變得更加稀少。僅三個(gè)月前,13 名 OpenAI 及其他實(shí)驗(yàn)室的前任和現(xiàn)任員工聯(lián)名發(fā)表公開信,表示如果他們?cè)噲D揭露不合規(guī)但不違法的公司行為,可能會(huì)遭到報(bào)復(fù)。

如何發(fā)出警報(bào)

理論上,外部舉報(bào)者保護(hù)機(jī)制可以在發(fā)現(xiàn) AI 風(fēng)險(xiǎn)方面發(fā)揮重要作用。它們能夠保護(hù)因披露公司問題而被解雇的員工,并彌補(bǔ)內(nèi)部舉報(bào)機(jī)制的不足。幾乎所有州都有一項(xiàng)公共政策例外,即員工如果因揭發(fā)不安全或非法的公司行為而遭報(bào)復(fù),仍可以尋求法律補(bǔ)救。然而,在實(shí)際操作中,這一例外條款對(duì)員工的保護(hù)非常有限。在舉報(bào)案件中,法官往往偏向雇主。尤其是在 AI 領(lǐng)域,由于社會(huì)尚未就 AI 開發(fā)和部署的安全標(biāo)準(zhǔn)達(dá)成共識(shí),AI 實(shí)驗(yàn)室在此類訴訟中的勝訴機(jī)會(huì)極大。

這些問題解釋了為什么上述 13 名 AI 工作者,包括前 OpenAI 員工 William Saunders,呼吁設(shè)立一種新的“警示權(quán)”。他們建議公司應(yīng)為員工提供匿名途徑,讓員工可以向?qū)嶒?yàn)室董事會(huì)、監(jiān)管機(jī)構(gòu)或由行業(yè)專家組成的獨(dú)立第三方報(bào)告安全相關(guān)的擔(dān)憂。雖然具體細(xì)節(jié)尚未敲定,但這一流程可能是一個(gè)正式的、程序化的機(jī)制。董事會(huì)、監(jiān)管機(jī)構(gòu)和第三方都需記錄報(bào)告,并可能展開調(diào)查,后續(xù)的會(huì)議和聽證也可能是這一流程的一部分。然而,按照 Saunders 的說法,AI 工作者真正需要的可能是另外一種方式。

Saunders 在《Big Technology》播客中描述了他理想中的安全擔(dān)憂分享流程。他并沒有強(qiáng)調(diào)正式渠道,而是希望有一個(gè)中間的、非正式的步驟。他希望能夠先獲得中立專家的反饋,幫助判斷某個(gè)安全問題是否足夠嚴(yán)重,值得啟動(dòng)“高風(fēng)險(xiǎn)”的正式警示程序。Saunders 認(rèn)為,現(xiàn)有的政府監(jiān)管機(jī)構(gòu)無法承擔(dān)這個(gè)角色。

首先,這些監(jiān)管機(jī)構(gòu)可能缺乏足夠的專業(yè)知識(shí),無法幫助 AI 工作者理清安全問題。其次,員工也很少愿意與政府官員直接接觸正如 Saunders 在播客中所言,這樣的聯(lián)系可能讓人“感到非常有壓力”。他更希望能夠聯(lián)系一位專家,討論自己的擔(dān)憂。在理想情況下,專家會(huì)告訴他相關(guān)風(fēng)險(xiǎn)并不嚴(yán)重或不太可能發(fā)生,這樣他就能安心繼續(xù)手頭的工作。

降低門檻

因此,Saunders 在播客中的建議并不是“警示權(quán)”,因?yàn)檫@意味著員工已經(jīng)確信存在不安全或非法的行為。他真正想要的是一個(gè)“直覺檢查”,即一個(gè)機(jī)會(huì)來驗(yàn)證他對(duì)不安全或非法行為的懷疑是否合理。這種情況下的風(fēng)險(xiǎn)較小,監(jiān)管反應(yīng)也可以相應(yīng)放緩。處理這些初步檢查的第三方可以更加非正式。比如,AI 領(lǐng)域的博士生、已退休的行業(yè)專家或其他擁有相關(guān)知識(shí)的人士可以自愿組成一個(gè) AI 安全熱線。他們可以通過保密的匿名電話,與員工快速、專業(yè)地討論安全問題。熱線的志愿者應(yīng)當(dāng)熟悉最新的安全實(shí)踐,并具備幫助員工了解可用選項(xiàng)(如警示權(quán)機(jī)制)的廣泛知識(shí)。

正如 Saunders 所指出的,很多員工不愿直接將自己的擔(dān)憂升級(jí)至董事會(huì)或政府機(jī)構(gòu)。如果有一個(gè)中間的、非正式的步驟,他們更可能主動(dòng)提出問題。

借鑒其他領(lǐng)域的經(jīng)驗(yàn)

關(guān)于 AI 安全熱線的具體運(yùn)作方式,AI 社區(qū)、監(jiān)管機(jī)構(gòu)和民間社會(huì)還需要進(jìn)行進(jìn)一步討論。為了讓熱線發(fā)揮最大作用,可能需要建立一種機(jī)制,將最緊急、經(jīng)過驗(yàn)證的報(bào)告及時(shí)傳遞給相關(guān)權(quán)威機(jī)構(gòu)。此外,如何確保熱線通話的保密性也是一個(gè)需要深入研究的問題。招募和留住志愿者也是一大挑戰(zhàn)?紤]到 AI 領(lǐng)域?qū)<覀儗?duì) AI 風(fēng)險(xiǎn)的廣泛關(guān)注,出于幫助他人的意愿,一些專家可能會(huì)愿意參與。如果志愿者數(shù)量不足,可能需要提供一些額外激勵(lì)。不過,首先我們必須認(rèn)識(shí)到 AI 安全監(jiān)管中存在的這一缺口。接下來,我們需要借鑒其他行業(yè)的成功經(jīng)驗(yàn),建立第一個(gè) AI 安全熱線。

一個(gè)可以參考的范例是設(shè)立監(jiān)察員。其他行業(yè)已經(jīng)意識(shí)到,設(shè)立中立、獨(dú)立的監(jiān)察員來評(píng)估員工的擔(dān)憂是非常有價(jià)值的。學(xué)術(shù)界、非營(yíng)利組織和私營(yíng)企業(yè)中都有這樣的機(jī)制。監(jiān)察員的最大特點(diǎn)是中立性他們沒有偏袒任何一方的動(dòng)機(jī),因此更容易獲得各方的信任。回顧聯(lián)邦政府中監(jiān)察員的應(yīng)用案例可以發(fā)現(xiàn),當(dāng)有監(jiān)察員存在時(shí),問題往往能更早地被提出并得到解決。

這一概念相對(duì)較新。美國(guó)商務(wù)部在 1971 年設(shè)立了第一個(gè)聯(lián)邦監(jiān)察員,負(fù)責(zé)幫助公民解決與政府機(jī)構(gòu)的爭(zhēng)端,并調(diào)查政府行為。其他機(jī)構(gòu),如社會(huì)保障局和稅務(wù)局,隨后也設(shè)立了自己的監(jiān)察員辦公室。對(duì)這些早期努力的回顧顯示,優(yōu)秀的監(jiān)察員確實(shí)能夠顯著改善公民與政府的關(guān)系。整體來看,監(jiān)察員的存在有助于提高法規(guī)的自愿遵守率,并促進(jìn)公民與政府的合作。

AI 行業(yè)的監(jiān)察員或安全熱線可能會(huì)與聯(lián)邦機(jī)構(gòu)的監(jiān)察員有所不同,但這一概念本身值得 AI 安全倡導(dǎo)者深入研究。

警示權(quán)可能有助于讓 AI 安全問題浮出水面,但我們還需要設(shè)置更多中間的、非正式的步驟。AI 安全熱線是一個(gè)容易實(shí)現(xiàn)的監(jiān)管措施。我們可以迅速組織一批志愿者,提供一個(gè)即時(shí)的渠道,讓像 Saunders 這樣的人可以放心地表達(dá)他們的擔(dān)憂。

本文作者 Kevin Frazier 是圣托馬斯大學(xué)法學(xué)院的助理教授,也是德克薩斯大學(xué)奧斯汀分校憲法研究項(xiàng)目的高級(jí)研究員。

原文鏈接:

https://www.technologyreview.com/2024/09/16/1103959/why-we-need-an-ai-safety-hotline/

贊助本站

人工智能實(shí)驗(yàn)室
下一篇:沒有了...
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港