展會信息港展會大全

AI生成內(nèi)容爆發(fā)式增長,打擊虛假信息靠監(jiān)管還是靠技術?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-12 09:10:57   瀏覽:6257次  

導讀:文丨實習記者 車念聰 一直處于科技監(jiān)管前沿的歐盟正在加碼對人工智能(AI)生成內(nèi)容的監(jiān)管。歐盟委員會副主席薇拉 堯羅娃 (Vera Jourova)在6月5日新聞發(fā)布會上表示,歐盟將要求科技巨頭和內(nèi)容生產(chǎn)平臺如谷歌、YouTube和TikTok等對其AI生成的圖片、視頻和文...

文丨實習記者 車念聰

一直處于科技監(jiān)管前沿的歐盟正在加碼對人工智能(AI)生成內(nèi)容的監(jiān)管。歐盟委員會副主席薇拉 堯羅娃 (Vera Jourova)在6月5日新聞發(fā)布會上表示,歐盟將要求科技巨頭和內(nèi)容生產(chǎn)平臺如谷歌、YouTube和TikTok等對其AI生成的圖片、視頻和文本進行檢測,并向用戶提供明確的標記,以打擊虛假信息泛濫甚至被惡意利用。

虛假信息古來有之,伴隨互聯(lián)網(wǎng)和算法等技術的普及而壯大;而自去年ChatGPT問世,大批AI生成內(nèi)容呼嘯前來,當文本、圖片甚至視頻都可以在數(shù)秒之內(nèi)由AI生成且越來越難以甄別,裝滿虛假信息的“潘多拉的魔盒”才算真正開啟。虛假信息和與社交媒體的耦合早就在諸如美國大選等重大事件中擾亂著政治的正常運作,堯羅娃在演講中更是進一步擔憂AI或被用來散布虛假情報,成為戰(zhàn)爭機器。而就在上月底,一張顯示五角大樓遭受襲擊的AI生成圖片,以擦邊彭博社的名義在推特上廣為傳播,一度導致股市大跌,彰顯了其擾亂金融市場和經(jīng)濟的巨大潛能。跟AI生成相關的法律事件也開始顯現(xiàn),美國佐治亞州一名電臺主持人指控ChatGPT生成了一起虛假的法律訴訟,指控他挪用資金;而在國內(nèi),福州某科技公司法人代表郭先生陷入了一場AI電信詐騙,10分鐘內(nèi)被騙走430萬元。同時研究也表明,虛假信息還會帶來社會信任惡化、加劇分裂等惡果。

虛假信息既關乎政治,也是法律、技術問題,同時還涉及言論自由以及技術倫理等問題,也因此需要決策者、技術人員、研究人員和普通用戶的通力合作。

堯羅娃擔心,政府的監(jiān)管恐怕遠遠跟不上AI生成的速度。這種擔憂不無道理。ChatGPT只用了兩個月時間,就實現(xiàn)了月活躍人數(shù)破億,比上一個爆火的應用TikTok實現(xiàn)這一數(shù)字少了7個月。各大科技公司也紛紛斥巨資,跑步入場布局大模型生態(tài)投資。相比之下,監(jiān)管的速度要遠遠落后。就歐盟正在推行的虛假信息準則(disinformation code)而言,若要正式成為法律還需要數(shù)年時間,盡管歐盟已經(jīng)是AI監(jiān)管領域的最激進的探索者,也因此堯羅娃呼吁科技巨頭立刻著手標注工作。

各國政策的不同、平臺的跨國監(jiān)管,也增加了政策協(xié)調(diào)的難度。目前大多數(shù)科技巨頭已經(jīng)跟歐盟簽署了虛假信息準則,承諾加大打擊虛假信息力度并定期匯報進展。但馬斯克主導下的推特上個月退出了這個目前仍是自愿性質(zhì)的協(xié)議。

然而即便各國監(jiān)管機構(gòu)、生產(chǎn)AI內(nèi)容的科技公司均達成了一致,實施相關法律和規(guī)則也并非易事。首先,對假消息的認定本身就是一個難題,而且,新聞圖片和合成圖片,在當今的社交媒體上已經(jīng)不存在明確的界限。其次,在AI輔助下生成的虛假信息,應該由誰舉證和監(jiān)管?如果涉及誹謗和著作權(quán)侵權(quán),可能可以歸入民事訴訟,由被害人提起訴訟;如果虛假信息危害公共安全,應該由什么政府部門舉證?對于發(fā)布虛假信息的人員和公司,應該是事前監(jiān)控還是事后懲戒?AI的開發(fā)者,使用者,發(fā)布者以及發(fā)布平臺,責任如何分配。這些問題都需要更多的詳細討論。

在國內(nèi),政府也在嘗試摸索管理AI及其相關技術的法律法規(guī)。近日,國家互聯(lián)網(wǎng)信息辦公室將就《生成式人工智能服務管理辦法(征求意見稿)》向社會公開征求意見。其中首先明確,國家支持人工智能算法、框架等基礎技術的自主創(chuàng)新、推廣應用、國際合作,鼓勵優(yōu)先采用安全可信的軟件、工具、計算和數(shù)據(jù)資源。同時,意見稿擬規(guī)定,提供生成式人工智能服務應當要求用戶提供真實身份信息。利用生成式人工智能生成的內(nèi)容應當真實準確,采取措施防止生成虛假信息。

其次,從技術角度討論,AI生成內(nèi)容的快速、準確檢測一直是一個復雜的技術難題。當前的技術水平還無法完全解決AI生成內(nèi)容可能存在的誤導性和虛假信息問題。文字本身作為碎片化的信息載體,在未來會變得越來越難以被技術手段檢測出AI杜撰的成分,這是文字的特點所決定的。但是圖片作為一個整體的信息媒介,相比較來說可能會更加容易去分辨出當中的AI成分。這種監(jiān)管難度的不同,又該去如何定義相關的管理辦法呢?

好消息是,技術進步本身或許可以成為解決技術困境的手段。馬克安德森是一家風險投資公司的聯(lián)合創(chuàng)始人,也是包括Meta在內(nèi)多家科技公司的董事會成員,他在近期一篇題為《為什么AI會拯救世界》的文章里寫道,“如果你擔心人工智能生成虛假的人物和虛假的視頻,答案就是構(gòu)建新的系統(tǒng),人們可以通過加密簽名驗證自己和真實內(nèi)容。在人工智能之前,數(shù)字內(nèi)容的真實和虛假的創(chuàng)造和修改已經(jīng)存在;答案不是禁止文字處理器和Photoshop或者人工智能而是利用技術構(gòu)建一個真正解決問題的系統(tǒng)。”他認為,所有的AI技術以及其衍生產(chǎn)品,都將在未來為現(xiàn)存的行業(yè)和從業(yè)人員的效率以及工作產(chǎn)出帶來革命性的增長。相對應的,人們需要開發(fā)相關的技術來監(jiān)管和控制,而不是一味的禁止從而讓自身脫離于技術的發(fā)展。

如果監(jiān)管做不到及時,那用來打敗魔法的魔法技術的進步,是否能跟得上信息“變異”的速度?迄今為止還沒有一致的答案。今年3月,生命未來研究所(Future of Life)向全社會發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實驗室立即暫停比GPT-4更強大的人工智能系統(tǒng)的訓練,暫停時間至少為6個月,理由之一就是不要讓“機器用宣傳和謊言充斥我們的信息渠道”。簽署者包括馬斯克、蘋果聯(lián)合創(chuàng)始人史蒂夫沃茲尼亞克(Steve Wozniak)等上千名科技大佬和AI專家。在這期間,公開信呼吁AI開發(fā)人員必須與政策制定者合作,加快AI治理系統(tǒng),包括推出標明來源系統(tǒng)和水印系統(tǒng),以幫助區(qū)分哪些是真實信息,哪些是合成信息。

等待解答的問題不僅僅停留在監(jiān)管和技術層面,其他諸如,監(jiān)管與言論自由的邊界在哪?監(jiān)管是否會危及創(chuàng)新?對普通用戶而言,又該如何識別AI時代的虛假信息,從什么渠道獲取可靠信息以及是否應該接受相關的教育和培訓?……林林總總,皆需進一步的探索。但無論如何,將AI監(jiān)管置于聚光燈之下,是向著正確方向邁出的重要一步。

贊助本站

人工智能實驗室
相關內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港