展會(huì)信息港展會(huì)大全

輕松盜走 2500 萬美元,我們?cè)撊绾畏婪度斯ぶ悄茉旒傥C(jī)?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-02-13 07:58:28   瀏覽:8393次  

導(dǎo)讀:近幾個(gè)月來,人工智能接連浮現(xiàn),我們頻繁在新聞標(biāo)題中看到如下字眼:AI 泄露了公司代碼,還根本就刪不掉;AI 軟件侵犯了用戶的人臉信息隱私;某大模型產(chǎn)品被曝泄露私密對(duì)話等等。 然而,更為深刻的問題或許早在大型模型熱潮爆發(fā)之前就已經(jīng)悄然存在:名為 Dee...

近幾個(gè)月來,人工智能接連浮現(xiàn),我們頻繁在新聞標(biāo)題中看到如下字眼:AI 泄露了公司代碼,還根本就刪不掉;AI 軟件侵犯了用戶的人臉信息隱私;某大模型產(chǎn)品被曝泄露私密對(duì)話……等等。

然而,更為深刻的問題或許早在大型模型熱潮爆發(fā)之前就已經(jīng)悄然存在:名為 Deepfake的深度造假技術(shù)嶄露頭角,通過深度學(xué)習(xí)將世界上的任何人無縫拼接到他們從未真正參與過的視頻或照片中,導(dǎo)致了"AI 換臉"這個(gè)詞匯在 2018 年的火爆。

直至 2024 年的今天,Deepfake 的潛在威脅仍未得到有效遏制。

原文地址:https://medium.com/predict/the-ai-that-stole-25-000-000-5f10986927cd

作者 | Will Lockett

譯者 | 王啟隆

出品 | CSDN(ID:CSDNnews)

人工智能詐騙已成現(xiàn)實(shí),引人憂慮。

1995 年上映的動(dòng)畫電影《攻殼機(jī)動(dòng)隊(duì)》描繪過這么一段劇情:名為“傀儡師”的人工智能懂得冒充其他身份,迷惑和控制人類的思想和行為,這種能力使得它在網(wǎng)絡(luò)和虛擬空間中變得無跡可尋。雖然這種情節(jié)只出現(xiàn)在電影中,但倘若你長(zhǎng)久以來深受埃隆馬斯克(Elon Musk)或薩姆奧爾特曼(Sam Altman)等人的警告影響,難免會(huì)設(shè)想一旦人工智能放任自流,便能演變成對(duì)人類的“天網(wǎng)”式威脅。

《攻殼機(jī)動(dòng)隊(duì)》傀儡師

慶幸的是,這一擔(dān)憂并未得到廣大人工智能開發(fā)者們的普遍認(rèn)同。許多學(xué)術(shù)界的人工智能巨頭,如圖靈獎(jiǎng)得主 Joseph Sifakis 就曾在采訪中透露自己對(duì)這種想法的嗤之以鼻。目前,我們尚不具備能在馬路上安全行駛的人工智能,更不必說與人類智慧相匹敵了。

但這絕不意味人工智能無害。

AI 完全有可能成為迄今為止人類所創(chuàng)造出的最具破壞力的工具之一。關(guān)于這一點(diǎn),近期一名不幸遭遇人工智能詐騙的財(cái)務(wù)高管深有體會(huì),其損失高達(dá) 2500 萬美元,案發(fā)地不是在大洋彼岸,而是在離我們很近的香港特別行政區(qū)。面對(duì)此類人工智能犯罪,我們是否有應(yīng)對(duì)之策呢?

偷天換日

2 月 5 日消息,據(jù)港媒香港電臺(tái)報(bào)道,某匿名財(cái)務(wù)總監(jiān)接收到一封自稱源自其英國(guó)同僚的郵件,提出一項(xiàng)隱秘交易。這位財(cái)務(wù)總監(jiān)并非輕信之人,初見即疑其為網(wǎng)絡(luò)釣魚行為。

然而,發(fā)件人堅(jiān)持安排一場(chǎng) Zoom 視頻會(huì)議,當(dāng)這位香港財(cái)務(wù)總監(jiān)接入會(huì)議時(shí),他看到并聽到了幾位熟識(shí)同事的面容與聲音。疑慮消除后,他們開始籌備交易,并按英國(guó)同僚指示,最終分 15 次匯款 2 億港幣(當(dāng)前約 1.84 億元人民幣),轉(zhuǎn)賬至 5 個(gè)本地戶口。

圖源:AI 繪圖

直至另一位員工與總部核實(shí)時(shí)才發(fā)現(xiàn)異常,原來英國(guó)辦公室未曾發(fā)起過此項(xiàng)交易,亦未收到任何款項(xiàng)。試想該財(cái)務(wù)總監(jiān)得知被騙后的極度懊悔與愧疚之情。調(diào)查后發(fā)現(xiàn),該次視頻會(huì)議中唯一真實(shí)的參與者正是那位香港財(cái)務(wù)總監(jiān),其余人員皆是由 Deepfake 人工智能技術(shù)模擬的英國(guó)財(cái)務(wù)總監(jiān)及其他同事形象。

僅憑公開可獲取的少量數(shù)據(jù)、一套基礎(chǔ)的人工智能程序以及狡猾的騙術(shù),這群騙子就成功騙取了足以購(gòu)置一艘豪華超級(jí)游艇的巨額現(xiàn)金。

此刻或許有人會(huì)對(duì)這個(gè)故事嗤之以鼻,斷言這位財(cái)務(wù)總監(jiān)過于馬虎,畢竟我們平時(shí)在抖音、b 站上看到的 Deepfake “整活視頻”都易辨真假,很難做到以假亂真。

然而,實(shí)際情況可能并不如此簡(jiǎn)單,最新研究表明,人們實(shí)際上無法可靠地識(shí)別 Deepfake,這意味著大多數(shù)人在很多場(chǎng)合僅憑直覺判斷自己看到和聽到的東西。更令人不安的是,研究還揭示了人們更容易誤將 Deepfake 視頻當(dāng)作真實(shí)情況而非虛假。換言之,如今的 Deepfake 技術(shù)已十分高明,足以輕易欺騙觀眾。

Deep-learning + Fake

Deepfake 這個(gè)詞是“深度學(xué)習(xí)”(Deep-learning)和“假冒”(Fake)兩個(gè)詞的組合。

因此,Deepfake技術(shù)的核心要素是機(jī)器學(xué)習(xí),這使得以更低的成本快速制作出深度偽造內(nèi)容成為可能。若要制作某人的Deepfake視頻,創(chuàng)作者首先會(huì)利用大量該人的真實(shí)視頻片段對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,使其獲得對(duì)該人從多個(gè)角度和不同光照條件下外觀的逼真“理解”。隨后,創(chuàng)作者將訓(xùn)練好的網(wǎng)絡(luò)與計(jì)算機(jī)圖形技術(shù)相結(jié)合,將此人的復(fù)制品疊加到另一人身上。

許多人認(rèn)為,一類稱為生成對(duì)抗網(wǎng)絡(luò)(GANs)的深度學(xué)習(xí)算法將在未來成為 Deepfake技術(shù)發(fā)展的主要推動(dòng)力。GAN 生成的面部圖像幾乎無法與真人面孔區(qū)分開來。首次針對(duì) Deepfake領(lǐng)域的調(diào)查報(bào)告專門用一個(gè)章節(jié)討論了 GANs,預(yù)示著它們將使任何人都能制作出精巧的 Deepfake內(nèi)容。

圖源:AI 繪圖

2017 年底,名為“deepfakes”的 Reddit 用戶將許多知名影星甚至政要的面孔用于色情視頻轉(zhuǎn)換生成,并將其發(fā)布到網(wǎng)絡(luò)上。這類造假視頻瞬間傳遍社交網(wǎng)絡(luò),此后大量新的 Deepfake 視頻開始出現(xiàn),相應(yīng)的檢測(cè)技術(shù)卻直到幾年后才逐漸出現(xiàn)。

不過,也有正面例子。Deepfake 第一次在銀幕上被觀眾所熟知是因?yàn)橐压恃輪T保羅沃克在《速度與激情 7》中的“復(fù)活”。2023 年的賀歲電影《流浪地球 2》也用 CG 技術(shù)復(fù)現(xiàn)了廣受大眾喜愛的“達(dá)叔”吳孟達(dá)。但在以前,需要一整個(gè)工作室的專家們耗費(fèi)一年的時(shí)間才能創(chuàng)造出這些效果。

如今,這個(gè)過程比以前更快,哪怕是對(duì)技術(shù)一竅不通的普通人,也可以在幾分鐘之內(nèi)創(chuàng)造一個(gè)“AI 換臉”的視頻。

對(duì) Deepfake的擔(dān)憂導(dǎo)致了對(duì)策的激增。早在 2020 年,包括 Meta 和 X 在內(nèi)的社交媒體平臺(tái)禁止在其網(wǎng)絡(luò)中使用類似的 Deepfake 產(chǎn)品。各大計(jì)算機(jī)視覺和圖形會(huì)議上也邀請(qǐng)著專家上臺(tái)演講防御方法。

既然 Deepfake 犯罪分子已經(jīng)開始大規(guī)模地蒙蔽世人,我們又該如何反擊呢?

多重手段,防御 Deepfake 風(fēng)險(xiǎn)

首要策略是對(duì)人工智能進(jìn)行“投毒”。要制造出逼真的 Deepfake,攻擊者需要海量數(shù)據(jù),包括目標(biāo)人物眾多的照片、展示其面部表情變化的大量視頻片段及清晰的語音樣本。大部分 Deepfake 技術(shù)利用個(gè)人或企業(yè)在社交媒體上公開分享的資料作為素材。

不過,現(xiàn)在已有諸如 Nightshade 和 PhotoGuard 之類的程序,能夠在不影響人類感知的情況下修改這些文件,從而讓 Deepfake 失效。比如,Nightshade 通過誤導(dǎo)性處理,使得人工智能誤判照片中的面部區(qū)域,這種錯(cuò)誤識(shí)別恰恰能擾亂構(gòu)建 Deepfake 背后的人工智能學(xué)習(xí)機(jī)制。

其次,對(duì)自身或所在企業(yè)在網(wǎng)上發(fā)布的所有照片和視頻進(jìn)行此類防護(hù)處理,可有效阻止 Deepfake 克攏然而,這種方法并非萬無一失,它更像是場(chǎng)持久戰(zhàn)。隨著人工智能逐漸提高對(duì)篡改文件的識(shí)別能力,反 Deepfake 程序也需要不斷研發(fā)新的方法以保持其有效性。

想建立起更為堅(jiān)固的防線,我們就需要不再單一依賴易于被攻破的身份驗(yàn)證方式。在本文的案例中,涉事的財(cái)務(wù)總監(jiān)將視頻通話視為確認(rèn)身份的絕對(duì)依據(jù),卻未能采取如撥打總部或英國(guó)分支機(jī)構(gòu)其他人員電話進(jìn)行二次身份驗(yàn)證等額外措施。實(shí)際上,已有部分程序利用私鑰加密技術(shù)來確保線上身份驗(yàn)證的可靠性。采用多重身份驗(yàn)證步驟,大大降低此類欺詐的可能性,是所有企業(yè)應(yīng)當(dāng)立即著手實(shí)施的措施。

因此,當(dāng)下次你身處視頻會(huì)議之中,或是接到同事、親友的來電時(shí),請(qǐng)務(wù)必謹(jǐn)記,屏幕對(duì)面可能并非真人。特別是在對(duì)方要求你將 2500 萬美元秘密轉(zhuǎn)賬至一組聞所未聞的陌生銀行賬戶時(shí),我們至少可以先給上司打個(gè)電話。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港