展會(huì)信息港展會(huì)大全

亞馬遜谷歌IBM微軟等巨頭剛剛承諾一同對(duì)抗人工智能選舉干擾
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-02-19 17:31:06   瀏覽:6605次  

導(dǎo)讀:圖片來源@視覺中國(guó) 文 | 互聯(lián)網(wǎng)法律評(píng)論 2024年2月15日,OpenAI推出了名為 Sora的文生視頻大模型,60秒如同電影質(zhì)感般的視頻讓已經(jīng)熟悉OpenAI的民眾和整個(gè)行業(yè)再次炸裂,并將AI視頻生成推進(jìn)一個(gè)全新的時(shí)代。 然而,AI的快速進(jìn)步意味著我們將面臨令人信服的深...

圖片來源@視覺中國(guó)

文 | 互聯(lián)網(wǎng)法律評(píng)論

2024年2月15日,OpenAI推出了名為 Sora的文生視頻大模型,60秒如同電影質(zhì)感般的視頻讓已經(jīng)熟悉OpenAI的民眾和整個(gè)行業(yè)再次炸裂,并將AI視頻生成推進(jìn)一個(gè)全新的時(shí)代。

然而,AI的快速進(jìn)步意味著我們將面臨令人信服的深度造假、高度針對(duì)性的欺詐信息以及更加復(fù)雜的網(wǎng)絡(luò)安全威脅。

2024年,全球有50多個(gè)國(guó)家/地區(qū)將舉行大規(guī)模選舉,包括美國(guó)、孟加拉國(guó)、中國(guó)臺(tái)灣、巴基斯坦、印度尼西亞等,選民人數(shù)占全球人口的一半以上。專家警告稱,2024 年將成為全球范圍內(nèi)前所未有的選舉虛假信息泛濫之年。

就在Sora發(fā)布的次日,2月16日,在慕尼黑安全會(huì)議(MSC)上,亞馬遜、谷歌、IBM、Meta、微軟、OpenAI、TikTok、X等20 家參與構(gòu)建或使用人工智能技術(shù)的科技公司共同承諾:努力檢測(cè)和打擊選舉中的有害人工智能內(nèi)容,包括選舉候選人的深度造假。

20家AI領(lǐng)跑者“抗選舉干擾”的聯(lián)合承諾雖然慰藉了公眾“真實(shí)選舉”的期待,但同時(shí)也凸顯未來挑戰(zhàn)的復(fù)雜性。

圖片:慕尼黑安全會(huì)議的科技公司“人工智能選舉協(xié)議”頁面

簽署方包括:Adobe、亞馬遜、Anthropic、ARM、ElevenLabs、谷歌、IBM、Inflection AI、LinkedIn、McAfee、Meta、微軟、Nota、OpenAI、Snap、Stability AI、TikTok、TrendMicro、TruePic 和 X 。

01首例“人工智能造假干擾大選”案已在美國(guó)出現(xiàn)

1月下旬,美國(guó)發(fā)生了一起“最明顯、可能也是已知的首次利用人工智能干擾美國(guó)選舉”的案件。

據(jù)報(bào)道,有人使用人工智能模仿美國(guó)總統(tǒng)喬拜登的聲音,并使用了他經(jīng)常使用的口頭禪“真是胡言亂語”(What a bunch of malarkey),用錯(cuò)誤的暗示來阻止人們?cè)诿绹?guó)新罕布什爾州的第一大城市投票。這條信息在2024年1月23日初選前兩天發(fā)送給 5,000 至 25,000 名選民。而且這些電話錯(cuò)誤地顯示,來自凱西沙利文(Kathy Sullivan)的個(gè)人手機(jī)號(hào)碼。

美國(guó)當(dāng)局快速鎖定了可能涉嫌這起案件的肇事者,兩家德克薩斯州公司,Life Corporation和Lingo Telecom,美國(guó)聯(lián)邦通信委員會(huì)和新罕布什爾州檢察長(zhǎng)都向這兩家公司及負(fù)責(zé)人發(fā)出了禁止令和傳票。

美國(guó)聯(lián)邦通信委員會(huì)本月曾提議,明確將使用人工智能語音的主動(dòng)機(jī)器人電話定為刑事犯罪;如果根據(jù)新罕布什爾州的《選民壓制法》提出指控,該重罪可判處最高七年監(jiān)禁。

調(diào)查才剛剛開始,但美國(guó)當(dāng)局希望發(fā)出強(qiáng)烈信號(hào),以阻止其他可能試圖干預(yù)今年美國(guó)大選的人。

02如何使用人工智能技術(shù)惡意影響選舉?

人工智能應(yīng)用于改善競(jìng)選工作效率的場(chǎng)景比比皆是:

AI可以收集和總結(jié)選民的興趣,并最終可能將這些優(yōu)先事項(xiàng)與監(jiān)管機(jī)構(gòu)收到公眾意見的具體問題相匹配;

AI可以幫助國(guó)家和地方層面政治家,讓他們的評(píng)論對(duì)不同的受眾更具說服力。

通過簡(jiǎn)化立法文本和跟蹤代表的投票,AI可以增強(qiáng)公民對(duì)其民選官員正在考慮的復(fù)雜立法的理解。

然而,另一方面是,想要歪曲公眾輿論的倡導(dǎo)團(tuán)體或個(gè)人可能會(huì)在人工智能中找到盟友。惡意行為者可以利用ChatGPT 等人工智能驅(qū)動(dòng)的程序,偽造出候選人或選民的視頻、音頻、圖片、文字等,由于其生成速度快、數(shù)量巨大,將被用來在特定問題上形成公眾共識(shí),迫使立法者按照期望的議程采取行動(dòng)。

下面是惡意行為者使用生成人工智能能力的具體威脅:

公眾信任的破壞:雖然一些社區(qū)可能會(huì)被誤導(dǎo)性的人工智能內(nèi)容所欺騙,但其他社區(qū)將越來越不信任真實(shí)信息,從而加深“說謊則紅利”并破壞對(duì)證據(jù)和事實(shí)的信任。

平臺(tái)準(zhǔn)備不足:某些主要和中型平臺(tái)減少了“信任和安全”人員配置,并且對(duì)人工智能生成內(nèi)容的預(yù)期數(shù)量和速度準(zhǔn)備不足。封閉的消息服務(wù)可能是人工智能內(nèi)容的主要渠道。

政策進(jìn)展緩慢:美國(guó)大選前不會(huì)有全面的聯(lián)邦監(jiān)管,而且各州的權(quán)宜之計(jì)監(jiān)管也各不相同;歐盟《人工智能法案》在2021年4月提出,目前仍需歐盟議會(huì)批準(zhǔn),如果如期獲批,與生成式人工智能相關(guān)的某些規(guī)則最快也只能在2025年開始適用。

高質(zhì)量的人工智能生成媒體:對(duì)于技術(shù)支持的系統(tǒng)和試圖識(shí)別不真實(shí)內(nèi)容的普通人來說,檢測(cè)所謂的“深度偽造品”變得越來越困難。

高速大規(guī)模分發(fā):人工智能系統(tǒng)可以快速、低成本地生成和分發(fā)大量?jī)?nèi)容。

消息定位和超本地化錯(cuò)誤信息:人工智能工具可以針對(duì)特定群體、心理概況、超本地化地理位置甚至不同的個(gè)人微調(diào)消息。

自動(dòng)化騷擾:人工智能可用于顯著增加針對(duì)選舉官員或公民領(lǐng)袖的騷擾內(nèi)容的數(shù)量和針對(duì)性。

選舉基礎(chǔ)設(shè)施的網(wǎng)絡(luò)安全:人工智能生成代碼的預(yù)期進(jìn)步可能會(huì)加劇惡意軟件的挑戰(zhàn)。

03打擊惡意干擾選舉,科技巨頭能干什么?

2024 年慕尼黑安全會(huì)議(2 月 16 日至 18 日)聚集了來自世界各地的 450 多名高級(jí)決策者和思想領(lǐng)袖,其中主要包括國(guó)家元首、部長(zhǎng)、國(guó)際和非政府組織的領(lǐng)導(dǎo)人討論國(guó)際安全政策的緊迫問題。

隨著信息戰(zhàn)和網(wǎng)絡(luò)攻擊等威脅的增加,科技公司在國(guó)際會(huì)議上占據(jù)了越來越多的關(guān)注和空間。

慕尼黑安全會(huì)議組織者《雙輸?2024年慕尼黑安全報(bào)告》顯示,過去一年,全球主要經(jīng)濟(jì)體,尤其是意大利、法國(guó)和巴西,對(duì)人工智能的擔(dān)憂加;半導(dǎo)體和人工智能(AI)等戰(zhàn)略技術(shù)的競(jìng)爭(zhēng)將導(dǎo)致大國(guó)分裂科技行業(yè),并招致福利損失;對(duì)人工智能和數(shù)據(jù)安全進(jìn)行緊迫性地全球監(jiān)管,可能會(huì)成為技術(shù)安全化的犧牲品。

圖片:《雙輸?2024年慕尼黑安全報(bào)告》封面

因此,科技公司宣布自愿采取“合理的預(yù)防措施”,簽署了《在2024 年選舉中打擊人工智能欺騙性使用的技術(shù)協(xié)議》

簽署者在協(xié)議中表示,愿意共同合作檢測(cè)技術(shù)等工具,以發(fā)現(xiàn)、標(biāo)記和揭穿人工智能操縱的公眾人物圖像和音頻的“深度偽造”;更多地公開如何在平臺(tái)上打擊人工智能生成的虛假信息。

八項(xiàng)具體承諾分別是:

1. 開發(fā)和實(shí)施技術(shù)以減輕與欺騙性人工智能選舉內(nèi)容相關(guān)的風(fēng)險(xiǎn),包括適當(dāng)?shù)拈_源工具;2. 評(píng)估本協(xié)議范圍內(nèi)的模型,以了解它們可能在欺騙性人工智能選舉內(nèi)容方面帶來的風(fēng)險(xiǎn);3. 尋求檢測(cè)該內(nèi)容在其平臺(tái)上的分布;4. 尋求適當(dāng)解決在其平臺(tái)上檢測(cè)到的此類內(nèi)容;5. 培養(yǎng)跨行業(yè)抵御欺騙性人工智能選舉內(nèi)容的能力;6. 向公眾提供有關(guān)公司如何解決該問題的透明度;7. 繼續(xù)與多元化的全球民間社會(huì)組織、學(xué)者合作;8. 支持提高公眾意識(shí)、媒體素養(yǎng)和全社會(huì)復(fù)原力的努力。

值得一提的是,X(推特)的加入是此次協(xié)議的驚喜之一。因?yàn)轳R斯克在接管推特后大幅削減了內(nèi)容審核團(tuán)隊(duì),并將自己描述為“言論自由絕對(duì)主義者”。針對(duì)這次慕尼黑會(huì)議的協(xié)議,X的首席執(zhí)行官表示:“X 致力于發(fā)揮自己的作用,與同行合作對(duì)抗人工智能威脅,同時(shí)保護(hù)言論自由并最大限度地提高透明度。”

輿論認(rèn)為,該協(xié)議在很大程度上是象征性的,而且并未包含“禁止或刪除深度造假產(chǎn)品”。承諾的模糊性和缺乏任何約束性要求可能有助于贏得眾多公司的支持,但令尋求更有力保證的倡導(dǎo)者感到失望。

有民間社會(huì)團(tuán)體指出,這種“自我監(jiān)管”并不值得信任,這份承諾不能解決使用社交媒體平臺(tái)和廣告模式惡意影響選舉。

04 道阻且長(zhǎng)

誤導(dǎo)性內(nèi)容,尤其是與選舉有關(guān)的內(nèi)容,并不是什么新鮮事。但在人工智能的幫助下,現(xiàn)在任何人都可以快速、輕松且廉價(jià)地創(chuàng)建大量虛假內(nèi)容。

從本質(zhì)來說,這并不僅僅關(guān)乎“選舉”,而是人工智能“威脅著我們區(qū)分事實(shí)與虛構(gòu)的能力”。當(dāng)你開始懷疑所有看到的內(nèi)容是否真實(shí)時(shí),AI就完全摧毀了現(xiàn)實(shí)的基礎(chǔ)。

平臺(tái)的計(jì)算機(jī)生成內(nèi)容檢測(cè)系統(tǒng)是否能夠跟上技術(shù)的進(jìn)步,是值得擔(dān)心的。制定法律和監(jiān)管措施來限制選舉中的人工智能是一個(gè)良好的開端,但這些努力的有效性將取決于科技公司、政府和民間社會(huì)之間的持續(xù)合作,以適應(yīng)不斷變化的威脅并確保數(shù)字時(shí)代民主機(jī)構(gòu)的彈性。

隨著該協(xié)議從承諾轉(zhuǎn)向?qū)嵺`,真正的考驗(yàn)將在于,我們是否有能力培育一個(gè)更安全、更知情的公共領(lǐng)域,在這個(gè)領(lǐng)域可以在不損害法治原則的情況下,充分利用人工智能的潛力。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港