展會(huì)信息港展會(huì)大全

人工智能需要一種審計(jì)文化,而不是把用戶當(dāng)小白鼠
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-10-30 15:08:44   瀏覽:6376次  

導(dǎo)讀:著名人工智能研究員和活動(dòng)家喬伊布奧拉姆維尼(Joy Buolamwini)戴著她標(biāo)志性的厚框眼鏡,在她波士頓的家中參加了我們的 Zoom 訪談。 作為麻省理工學(xué)院的畢業(yè)生,她似乎對(duì)我們倫敦辦公室掛著的《麻省理工科技評(píng)論》的舊封面很感興趣。這是 1961 年的一期,上...

著名人工智能研究員和活動(dòng)家喬伊布奧拉姆維尼(Joy Buolamwini)戴著她標(biāo)志性的厚框眼鏡,在她波士頓的家中參加了我們的 Zoom 訪談。

作為麻省理工學(xué)院的畢業(yè)生,她似乎對(duì)我們倫敦辦公室掛著的《麻省理工科技評(píng)論》的舊封面很感興趣。這是 1961 年的一期,上面寫著:“你的兒子會(huì)上大學(xué)嗎?”

(來源:NAIMA GREEN)

我看得出來,布奧拉姆維尼覺得這個(gè)封面很有趣。她給它拍了一張照片。自 1961 年以來,世界發(fā)生了很大變化。在她的新回憶錄《揭露人工智能:我在機(jī)器世界中保護(hù)人類的使命》中,布奧拉姆維尼分享了她的人生故事。她在很多方面都親身體會(huì)了科技自那時(shí)以來已經(jīng)取得的進(jìn)步,以及它還需要走多遠(yuǎn)。

布奧拉姆維尼最為人所知的事跡發(fā)生在 2017 年,她與人工智能研究員蒂姆尼特格布魯(Timnit Gebru)共同撰寫了一篇開創(chuàng)性論文,題為《性別陰影(Gender Shades)》。該論文揭露了商業(yè)面部識(shí)別系統(tǒng)常常無法識(shí)別黑人和棕色人種的面孔,尤其是黑人女性。她的研究和倡導(dǎo)促使谷歌、IBM 和微軟等公司改進(jìn)了他們的軟件,以減少偏見,并不再向執(zhí)法部門出售他們的技術(shù)。

現(xiàn)在,布奧拉姆維尼有了新的目標(biāo)。 她呼吁對(duì)人工智能系統(tǒng)的構(gòu)建方式進(jìn)行徹底的重新思考。 布奧拉姆維尼告訴《麻省理工科技評(píng)論》,她認(rèn)為在當(dāng)前的人工智能炒作周期中,讓科技公司制定適用于它們的規(guī)則存在非,F(xiàn)實(shí)的風(fēng)險(xiǎn):(我們正在)重復(fù)一個(gè)錯(cuò)誤,而正是這個(gè)錯(cuò)誤導(dǎo)致了偏見和壓迫性技術(shù)的發(fā)展。

“我擔(dān)心的是,我們給這么多公司發(fā)放了通行證,或者我們在贊揚(yáng)創(chuàng)新的同時(shí)卻不去注意傷害。” 布奧拉姆維尼說。

布奧拉姆維尼表示,一個(gè)特別值得關(guān)注的問題是,我們構(gòu)建當(dāng)今最亮眼的人工智能玩具的基礎(chǔ),即所謂的基礎(chǔ)模型。在技術(shù)人員的設(shè)想中,這些多功能模型將成為許多其他人工智能應(yīng)用程序(從聊天機(jī)器人到自動(dòng)化電影制作)的跳板。

它們是通過從互聯(lián)網(wǎng)上抓取大量數(shù)據(jù)而構(gòu)建的,其中不可避免地包括受版權(quán)保護(hù)的內(nèi)容和個(gè)人信息。許多人工智能公司現(xiàn)在被藝術(shù)家、音樂公司和作家起訴,他們聲稱他們的知識(shí)產(chǎn)權(quán)在未經(jīng)同意的情況下被盜用。

布奧拉姆維尼表示,人工智能公司目前的做法是不道德的,是一種“數(shù)據(jù)殖民主義”,并且“完全無視同意(許可)”。

“如果沒有法律保護(hù),那這些東西就只能眼睜睜地被掠奪。”她說。作為一名作家,她完全相信自己的書、詩歌、聲音和專欄(甚至是博士論文)都會(huì)被人工智能模型“收入囊中”。

“如果我發(fā)現(xiàn)我的任何成果被這些系統(tǒng)抓取,我一定會(huì)大聲說出來。 這就是我們該做的。”她說。

布奧拉姆維尼表示,真正值得稱贊的創(chuàng)新是,公司可以展示對(duì)氣候產(chǎn)生積極影響的模型和來源合法的數(shù)據(jù)。

“對(duì)于為先進(jìn)技術(shù)提供動(dòng)力的壓迫性系統(tǒng),我從中看到了從過去的許多錯(cuò)誤中吸取教訓(xùn)的機(jī)會(huì)。 我希望我們朝不同的方向前進(jìn)。”她說。

我問她,如果能重復(fù)“性別陰影”的成功,那么她今天會(huì)審計(jì)人工智能系統(tǒng)的哪些方面。 布奧拉姆維尼毫不猶豫地表示,她希望人工智能擁有一種審計(jì)文化,而不是一次單一的審計(jì)。

在這種文化中,系統(tǒng)在部署到現(xiàn)實(shí)世界之前要經(jīng)過嚴(yán)格的測試。她希望看到人工智能開發(fā)人員對(duì)他們提出的任何系統(tǒng)提出一些基本問題,例如它是如何做到這一點(diǎn)的?我們是否應(yīng)該使用它?

“現(xiàn)在我們處于豚鼠模式,系統(tǒng)尚未經(jīng)過充分測試……這是不負(fù)責(zé)任的,尤其是當(dāng)這些系統(tǒng)的使用方式會(huì)影響人們的生活經(jīng)歷和生活機(jī)會(huì)時(shí)。”她說。

偶然成為了活動(dòng)家

十年來,布奧拉姆維尼一直處于提高人們對(duì)人工智能危害認(rèn)識(shí)的最前沿。但她成為杰出研究員和活動(dòng)家的道路卻非同尋常。

她的回憶錄讓我們深入了解到,她是如何從一個(gè)年輕的、不想面對(duì)“后果和人類”的計(jì)算機(jī)科學(xué)專業(yè)學(xué)生,變成了一個(gè)無法對(duì)嚴(yán)重技術(shù)缺陷視而不見的人。

在書中的一個(gè)重要時(shí)刻,她描述了自己發(fā)現(xiàn)常見的面部識(shí)別軟件可以識(shí)別白色萬圣節(jié)面具,但不能識(shí)別她自己的臉。盡管她感到不安,但布奧拉姆維尼的最初反應(yīng)是其他人,也許是經(jīng)驗(yàn)更豐富的人工智能研究人員,會(huì)解決這個(gè)問題。但她看到的算法偏見的例子越多,就越難控制自己不去做一些事情。

當(dāng)還是一名博士研究員時(shí),在面部識(shí)別研究成果的推動(dòng)下,布奧拉姆維尼創(chuàng)立了算法正義聯(lián)盟 (Algorithmic Justice League,AJL),這是一個(gè)與算法偏見和不公正作斗爭的非營利組織,并成為對(duì)有偏見的人工智能系統(tǒng)所造成危害的重要發(fā)聲機(jī)構(gòu) 。2019 年,她就面部識(shí)別技術(shù)及其對(duì)公民權(quán)利和自由的影響,向美國國會(huì)提交了兩份專家證詞。

雖然布奧拉姆維尼的故事在某種程度上鼓舞人心,但同時(shí)也是一個(gè)警告。提高人們對(duì)人工智能危害的認(rèn)識(shí),以及公開反對(duì)世界上一些最強(qiáng)大的公司的壓力也帶來的傷害。在書中一個(gè)特別悲傷和感人的部分,布奧拉姆維尼描述了自己在考試前一天晚上被送往急診室,除了頻繁的旅行和宣傳之外,連續(xù)的國會(huì)作證也讓她精疲力竭。

在攻讀博士學(xué)位期間,她多年來一直在努力建立 AJL 并為政府提供有關(guān)人工智能的建議,但她陷入了很嚴(yán)重的“倦怠模式”,以至于她在 2021 年給教授們寫了一封信,稱自己可能會(huì)退學(xué)。她要求他們論證麻省理工學(xué)院博士學(xué)位的實(shí)際好處,因?yàn)檫@將是她的第四個(gè)大學(xué)學(xué)位。

在撰寫畢業(yè)論文期間,她休息了一個(gè)月,并開始玩滑板。“也許現(xiàn)在成為一名職業(yè)滑板運(yùn)動(dòng)員,并可能代表加納參加下一屆奧運(yùn)會(huì)還為時(shí)不晚。”布奧拉姆維尼半開玩笑地寫道。

最終,她決定完成博士學(xué)位,并于 2022 年畢業(yè)。她寫道,她之所以決定這樣做,是因?yàn)樗庾R(shí)到,作為一名有色人種女性,退學(xué)將被視為一種失敗。

高風(fēng)險(xiǎn),高回報(bào)

布奧拉姆維尼還描述了她與科技巨頭亞馬遜對(duì)抗的一段經(jīng)歷。她關(guān)于審計(jì)面部識(shí)別系統(tǒng)的博士研究引起了該公司高管的公開攻擊,當(dāng)時(shí)該公司正在與微軟競爭一份價(jià)值 100 億美元的合同,為五角大樓提供人工智能服務(wù)。

在布奧拉姆維尼和另一位人工智能研究員伊尼奧魯瓦黛博拉拉吉(Inioluwa Deborah Raji)的研究表明,亞馬遜的面部識(shí)別技術(shù)存在偏見,隨后亞馬遜副總裁馬特伍德(Matt Wood)聲稱她的論文和媒體報(bào)道具有“誤導(dǎo)性”,并得出了“錯(cuò)誤的結(jié)論”。

她說,亞馬遜是唯一一家對(duì)布奧拉姆維尼的研究采取強(qiáng)硬態(tài)度的科技公司。 她擔(dān)心自己會(huì)讓當(dāng)時(shí)還是本科生的拉吉陷入危險(xiǎn)。“未來的計(jì)算機(jī)科學(xué)系可能會(huì)認(rèn)為她風(fēng)險(xiǎn)太大,而科技行業(yè)未來的雇主可能會(huì)將她列入黑名單。”布奧拉姆維尼寫道。

“我擔(dān)心,如果其他研究人員看到亞馬遜對(duì)我們所做的事情,而沒有學(xué)者站出來辯護(hù),其他研究人員會(huì)認(rèn)為此類研究的專業(yè)風(fēng)險(xiǎn)太高,布奧拉姆維尼補(bǔ)充道。

很多人都在支持她。馬薩諸塞州美國公民自由聯(lián)盟和喬治城隱私與技術(shù)法律中心在 X (原推特)上公開支持她。在研究界,當(dāng)時(shí)負(fù)責(zé)谷歌人工智能倫理工作的瑪格麗特米切爾(Margaret Mitchell)和格布魯(Gebru)發(fā)表了一封公開信,支持布奧拉姆維尼的工作,包括圖靈獎(jiǎng)得主約書亞本吉奧(Yoshua Bengio)在內(nèi)的 75 名研究人員在上面署名。

她說,令人失望的是,她獲得的大部分公眾支持都來自麻省理工學(xué)院以外。她在書中寫道,她覺得自己“當(dāng)時(shí)基本上被麻省理工學(xué)院的大多數(shù)領(lǐng)導(dǎo)層拋棄了”。

“我以為麻省理工學(xué)院的媒體實(shí)驗(yàn)室(Media Lab)會(huì)為我辯護(hù),因?yàn)樗故玖宋业淖髌芬晕龑W(xué)生和新聞報(bào)道。我感到很失望,因?yàn)槲也坏貌徽埱蟊Wo(hù),但得到的卻很少。”布奧拉姆維尼寫道。 (我們已聯(lián)系麻省理工學(xué)院媒體實(shí)驗(yàn)室征求對(duì)此指控的評(píng)論,如果他們回復(fù),我們將更新這篇文章。)

她對(duì)那些想要說出他們所看到的問題的科技界年輕人有何建議?

“在自己跳入深淵之前就要知道它有多深。”布奧拉姆維尼說。她希望更多的人在看到不公正現(xiàn)象時(shí)能夠大聲疾呼。

但與此同時(shí),她也建議他們尋找身邊那些可以提供支持和保護(hù)的人。“你的聲音很重要。”她說。

支持:Ren

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港