在 AI 技術(shù)快速發(fā)展的今天,實(shí)時(shí)視頻深度偽造(deepfake)技術(shù)正成為一個(gè)日益嚴(yán)峻的全球性問(wèn)題,給個(gè)人、企業(yè)和政府帶來(lái)前所未有的安全威脅。
前不久,中國(guó)香港警方破獲了一起利用 AI 技術(shù)的大規(guī)模詐騙案,犯罪分子利用 AI 換臉技術(shù)在網(wǎng)上交友平臺(tái)上偽裝成女性,詐騙受害者總計(jì) 4600 萬(wàn)美元。
這個(gè)案例凸顯了 deepfake 技術(shù)在犯罪領(lǐng)域的濫用。詐騙團(tuán)伙不僅使用 AI 生成的照片,還在視頻通話中使用 deepfake 技術(shù),將詐騙者變成迷人的女性,以贏得受害者的信任。
隨著使用 deepfake 技術(shù)的門檻越來(lái)越低,人們迫切需要一種有效的檢測(cè)手段。
為了應(yīng)對(duì)這個(gè)問(wèn)題,一家名為 Reality Defender 的美國(guó)初創(chuàng)公司推出了一種 AI 檢測(cè)工具,可以實(shí)時(shí)檢測(cè)視頻通話中的其他人有沒(méi)有使用 deepfake。
該公司的產(chǎn)品經(jīng)理克里斯托弗任(Christopher Ren)為媒體展示了其 AI 檢測(cè)工具的潛力。
他利用 GitHub 上的一些代碼和一張照片,生成特斯拉和 SpaceX 的創(chuàng)始人埃隆馬斯克(Elon Musk)deepfake 視頻,并將其映射到自己的臉上。
圖 | 今年 8 月,Deep-Live-Cam 開發(fā)人員制作了一段演示視頻,展示了自己與馬斯克換臉(來(lái)源:Deep-Live-Cam)
在視頻通話過(guò)程中,Reality Defender 的定制模型會(huì)通過(guò)接收靜態(tài)幀的方式實(shí)時(shí)分析視頻通話畫面。
并且,通過(guò)屏幕上的小工具提醒用戶,他們面對(duì)的可能是 AI 生成的 deepfake 視頻,而不是真實(shí)的馬斯克。
Reality Defender 的 CEO 兼聯(lián)合創(chuàng)始人本科爾曼(Ben Colman)對(duì)媒體表示:“可能只需要幾個(gè)月的時(shí)間,我們就會(huì)看到 deepfake 視頻和‘視頻通話’欺詐的爆炸性增長(zhǎng)。”他強(qiáng)調(diào),在高風(fēng)險(xiǎn)情況下的視頻通話中,眼見不一定為實(shí)。
在現(xiàn)實(shí)應(yīng)用場(chǎng)景中,Reality Defender 選擇將檢測(cè)工具打包成一個(gè) Zoom 插件,可以實(shí)時(shí)預(yù)測(cè)視頻通話中的其他參與者是否是真人或 AI 扮演的冒牌貨。
目前,該公司正在對(duì)這一工具進(jìn)行基準(zhǔn)測(cè)試,以確定其最終的準(zhǔn)確性。
科爾曼強(qiáng)調(diào),盡管其專注于與商業(yè)和政府客戶合作以打擊 AI 驅(qū)動(dòng)的 deepfake,但他們并不反對(duì) AI 技術(shù)的廣泛發(fā)展。
他說(shuō):“我們非常支持 AI。我們認(rèn)為 99.999% 的 AI 用例對(duì)醫(yī)學(xué)、生產(chǎn)力和創(chuàng)造力而言都是變革性的,但在這些非常不起眼的用例中,風(fēng)險(xiǎn)卻不成比例地高。”
除了 Reality Defender,其他科技公司和研究人員也在探索不同的方法,來(lái)應(yīng)對(duì)這種特殊的威脅。
2022 年,英特爾推出了深度偽造檢測(cè)工具 FakeCatcher,該工具通過(guò)分析面部血流的變化來(lái)判斷視頻參與者是否真實(shí)。
美國(guó)紐約大學(xué)計(jì)算機(jī)科學(xué)博士生戈文德米塔爾(Govind Mittal)及其所在團(tuán)隊(duì)則提出了一種基于測(cè)試的方法,要求參與者在加入視頻通話前通過(guò)一種視頻驗(yàn)證碼測(cè)試。
米塔爾指出:“現(xiàn)在創(chuàng)建 deepfake 變得如此簡(jiǎn)單,我們需要的數(shù)據(jù)越來(lái)越少。如果我在 Instagram 上傳了 10 張照片,有人拿著社交媒體的照片就可以假冒我。”
最近,聯(lián)合國(guó)毒品和犯罪問(wèn)題辦公室發(fā)布的一份報(bào)告也強(qiáng)調(diào),有些組織犯罪集團(tuán)在技術(shù)方面具有進(jìn)步,其特別提到了 deepfake 技術(shù)在欺詐中的日益普遍使用。
日漸增多的 deepfake 詐騙案件提醒我們,實(shí)時(shí)的 deepfake 目標(biāo)不再僅限于億萬(wàn)富翁和公眾人物。
該機(jī)構(gòu)在東南亞地區(qū)的某社交平臺(tái)上,發(fā)現(xiàn)了超過(guò) 10 家向犯罪集團(tuán)出售 deepfake 軟件服務(wù)的賬號(hào),顯示出這項(xiàng)技術(shù)正在被犯罪分子廣泛使用。
然而,開發(fā)有效的檢測(cè)工具面臨著重大挑戰(zhàn)?茽柭鼘(duì)媒體表示,獲取更多數(shù)據(jù)是一個(gè)大難題,這也是當(dāng)前 AI 創(chuàng)業(yè)公司普遍面臨的問(wèn)題。
他希望通過(guò)更多的合作伙伴關(guān)系來(lái)填補(bǔ)這些空白,并暗示 2025 年可能會(huì)有多項(xiàng)新的合作協(xié)議。
例如,在 ElevenLabs 被曝與美國(guó)總統(tǒng)拜登的 deepfake 語(yǔ)音通話有關(guān)后,這家 AI 音頻初創(chuàng)公司就與 Realit Defender 達(dá)成了合作意向,以減少潛在的濫用。
盡管這些技術(shù)解決方案正在不斷發(fā)展,但專家們警告說(shuō),人們不應(yīng)過(guò)分自信地認(rèn)為自己能夠識(shí)別視頻深度偽造。
科爾曼指出:“我不會(huì)要求我 80 歲的母親學(xué)習(xí)如何識(shí)別釣魚郵件,因?yàn)樗昙o(jì)太大了,而且也不是計(jì)算機(jī)專家。”
他認(rèn)為,未來(lái)如果 AI 檢測(cè)技術(shù)繼續(xù)改進(jìn)并被證明是可靠的,實(shí)時(shí)視頻檢測(cè)可能會(huì)像電子郵件收件箱中默默運(yùn)行的惡意軟件掃描器一樣普遍。
不過(guò),在這些技術(shù)并不完善且沒(méi)有普及的今天,為了保護(hù)自己和家人免受視頻通話詐騙的侵害,我們不得不提高警惕,不要輕易相信視頻通話中看到的內(nèi)容,并始終提醒自己:眼見不一定為實(shí)。
參考資料:
https://arstechnica.com/security/2024/10/startup-can-catch-identify-deepfake-video-in-realtime/
https://www.realitydefender.com/blog/real-time-video-deepfake-detection-now-on-reality-defender
https://arstechnica.com/ai/2024/10/deepfake-lovers-swindle-victims-out-of-46m-in-hong-kong-ai-scam/
運(yùn)營(yíng)/排版:何晨龍