展會信息港展會大全

研究人員開展DeepFake AI 偽造音頻攻防戰(zhàn),促進業(yè)界辨?zhèn)渭夹g提升
來源:互聯(lián)網   發(fā)布日期:2023-07-11 07:12:50   瀏覽:9655次  

導讀:IT之家 7 月 10 日消息,DeepFake 當下是一系列能夠生成特定人物照片、視頻及音頻的 AI 模型總稱,模型生成的各種信息相對可以輕松繞過各種企業(yè)機構的識別系統(tǒng),因此也有許多黑產圍繞 DeepFake 而展開,當下如何更精準辨識 DeepFake 生成的內容成為難題。 IT...

IT之家 7 月 10 日消息,DeepFake 當下是一系列能夠生成特定人物照片、視頻及音頻的 AI 模型總稱,模型生成的各種信息相對可以輕松繞過各種企業(yè)機構的識別系統(tǒng),因此也有許多黑產圍繞 DeepFake 而展開,當下如何更精準辨識 DeepFake 生成的內容成為難題。

IT之家曾報道,加拿大滑鐵盧大學的兩名研究人員 AndreKassis 與 UrsHengartner 研發(fā)了新型語音 DeepFake 軟件,成功欺騙語音認證系統(tǒng)概率高達 99%,該軟件使用機器學習軟件,只需要 5 分鐘的人聲錄音,就可以模擬出非常逼真的人聲。

用戶通過語音認證注冊之后,會要求用戶重復一個特定的短語或者句子。

系統(tǒng)會根據(jù)用戶的聲音提取聲紋(語音指紋),并將其存儲在服務器。

如果您將來嘗試進行身份驗證,系統(tǒng)將提示您說出不同的短語,并從中提取的特征將與系統(tǒng)中存儲的語音指紋進行比較,以確定是否應授予訪問權限。

▲ 圖源 uwaterloo 網站

對于這一新型語音 DeepFake 軟件,其他安全研究人員紛紛開始應對,亞馬遜的研究人員嘗試檢查語音樣本,來判斷樣本的真實性。

▲ 圖源 Pindrop 網站

而 Kassis 與 Hengartner 打造出一個方法來繞過上述亞馬遜的機制,該方法可辨識出合成語音中的標記,并自動移除這些具有 AI 特征的段落,令系統(tǒng)無法區(qū)分。

另一方面,專門開發(fā)語音身份認證安全機制的 Pindrop 則認為這一機制并不穩(wěn)妥,即“雖然攻擊方可以移除生成的語音片段中具有 AI 特征的段落,但防守方可以同時從多角度來判斷音頻文段的真實性,例如檢測 IP 地址、要求提供特定的語音信息等”,因此依然可以檢測出使用 DeepFake 的攻擊者。

▲ 圖源 Pindrop 網站

但研究人員 Pindrop 同時指出,現(xiàn)有用來對抗 Deekfake 語音的系統(tǒng)有許多缺陷,打造安全系統(tǒng)的唯一方式是像黑客一樣思考。他同時建議那些只仰賴語音進行身份認證的企業(yè),應該部署額外的認證措施,以防止企業(yè)受到詐騙,導致經濟損失。

贊助本站

人工智能實驗室
相關內容
AiLab云推薦
推薦內容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港