展會(huì)信息港展會(huì)大全

語音克隆技術(shù)引發(fā)擔(dān)憂,OpenAI 再次解釋其文本轉(zhuǎn)語音工具
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-06-11 10:04:06   瀏覽:4449次  

導(dǎo)讀:IT之家 6 月 10 日消息,OpenAI 在幾個(gè)月內(nèi)第二次就其文本轉(zhuǎn)語音工具進(jìn)行解釋,并再次強(qiáng)調(diào)該工具目前并未大范圍開放,且未來也可能不會(huì)。 圖源 Pexels 無論我們最終是否會(huì)大規(guī)模部署這項(xiàng)技術(shù),讓世界各地的人們理解這項(xiàng)技術(shù)的發(fā)展方向都非常重要,OpenAI公司...

IT之家 6 月 10 日消息,OpenAI 在幾個(gè)月內(nèi)第二次就其文本轉(zhuǎn)語音工具進(jìn)行解釋,并再次強(qiáng)調(diào)該工具目前并未大范圍開放,且未來也可能不會(huì)。

圖源 Pexels

“無論我們最終是否會(huì)大規(guī)模部署這項(xiàng)技術(shù),讓世界各地的人們理解這項(xiàng)技術(shù)的發(fā)展方向都非常重要,”OpenAI公司周五在其網(wǎng)站上發(fā)布的一份聲明中表示,“這就是為什么我們想要解釋模型的運(yùn)作方式、我們?nèi)绾螌⑵溆糜谘芯亢徒逃,以及我們(nèi)绾螄@該技術(shù)實(shí)施安全措施的原因。”

據(jù)IT之家了解,去年年底,OpenAI 與一小部分外部用戶分享了其“語音引擎”。該引擎利用文本輸入和 15 秒的人聲音頻剪輯,即可“生成聽起來自然的人聲,并與原始說話人非常相似”。該工具可以創(chuàng)建以假亂真的多語言人物聲音,當(dāng)時(shí)該公司表示他們選擇預(yù)覽這項(xiàng)技術(shù)而非大規(guī)模發(fā)布,是為了“增強(qiáng)社會(huì)抵御能力”,以應(yīng)對(duì)“越來越逼真的人工智能生成模型”帶來的威脅。

作為這些努力的一部分,OpenAI 表示他們正在積極淘汰使用語音識(shí)別進(jìn)行銀行賬戶驗(yàn)證的方式,探索保護(hù)個(gè)人聲音在人工智能中使用的政策,教育公眾有關(guān)人工智能的風(fēng)險(xiǎn),并加快開發(fā)跟蹤視聽內(nèi)容的技術(shù),以便用戶識(shí)別他們是在與真人還是合成內(nèi)容進(jìn)行互動(dòng)。

然而,盡管做出了上述努力,人們對(duì)這項(xiàng)技術(shù)的擔(dān)憂仍然存在。美國(guó)總統(tǒng)拜登的人工智能負(fù)責(zé)人布魯斯·里德 (Bruce Reed) 曾表示,聲音克隆技術(shù)是他夜不能寐的原因之一。美國(guó)聯(lián)邦貿(mào)易委員會(huì) (Federal Trade Commission) 今年 3 月表示,詐騙分子正在利用人工智能技術(shù)來提高他們欺詐行為的可信度,他們使用聲音克隆工具,使得人們更難區(qū)分人工智能生成的聲音和人類的聲音。

OpenAI 在周五更新的聲明中試圖緩解這些擔(dān)憂,“我們繼續(xù)與來自政府、媒體、娛樂、教育、民間社會(huì)等領(lǐng)域的美國(guó)和國(guó)際合作伙伴接觸,以確保我們?cè)跇?gòu)建過程中納入他們的反潰”該公司還指出,一旦“語音引擎”配備了其最新模型 GPT-4o,它也將帶來新的威脅。該公司表示,他們內(nèi)部正在積極地“對(duì) GPT-4o 進(jìn)行‘紅隊(duì)測(cè)試’,以識(shí)別和解決來自社會(huì)心理學(xué)、偏見和公平以及錯(cuò)誤信息等領(lǐng)域的已知和未知風(fēng)險(xiǎn)。”

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港