展會信息港展會大全

OpenAI正引爆一場全球AI安全熱戰(zhàn),我們將如何應(yīng)對?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-06-25 09:32:03   瀏覽:5435次  

導(dǎo)讀:(圖片來源:Stockcake) 最近AI領(lǐng)域發(fā)生了一件重磅事件,引發(fā)廣泛關(guān)注。 北京時間6月20日,OpenAI聯(lián)合創(chuàng)始人、前首席科學(xué)家伊利亞(Ilya Sutskever)在社交平臺上發(fā)文宣布,將創(chuàng)辦一家安全超級智能公司(Safe Superintelligence Inc.,簡稱SSI)。 SSI是我...

(圖片來源:Stockcake)

最近AI領(lǐng)域發(fā)生了一件重磅事件,引發(fā)廣泛關(guān)注。

北京時間6月20日,OpenAI聯(lián)合創(chuàng)始人、前首席科學(xué)家伊利亞(Ilya Sutskever)在社交平臺上發(fā)文宣布,將創(chuàng)辦一家“安全超級智能公司”(Safe Superintelligence Inc.,簡稱SSI)。

“SSI是我們的使命、我們的名字、我們的整個產(chǎn)品路線圖,因為它是我們唯一的焦點。我們的團隊、投資者和商業(yè)模式都是以實現(xiàn)SSI為目標。”伊利亞、科技企業(yè)家和投資者Daniel Gross、OpenAI前科學(xué)家Daniel Levy在該公司官網(wǎng)發(fā)表的聯(lián)合署名文章中稱,“構(gòu)建安全的超級智能,是我們這個時代最重要的技術(shù)問題。我們計劃盡快提升能力,同時確保我們的安全始終處于領(lǐng)先地位。”

伊利亞透露,該公司已經(jīng)啟動了世界上第一個直接的安全的超級智能實驗室,只有一個目標和一個產(chǎn)品:一個安全的超級智能。但目前,SSI并未公布公司的股東、科研團隊和盈利模式。

實際上,伊利亞離開OpenAI,很大程度上就是因為與OpenAI CEO奧爾特曼(Sam Altman)為核心的管理層存在分歧,尤其是在如何駕馭超級AI、AGI(通用人工智能)安全發(fā)展等問題上存在相反的觀點。

其中,奧爾特曼和OpenAI總裁Greg Brockman傾向于加速商業(yè)化,以獲得更多資金來支持AI模型的算力需求,力求快速增強AI的力量;而伊利亞等人則希望AI更安全。

去年11月,雙方矛盾激化,OpenAI上演“宮斗”大戲,結(jié)果奧爾特曼和Greg Brockman在短暫離職后重歸OpenAI,原董事會中的多位董事離開,伊利亞則在今年5月宣布離任。

對此,國內(nèi)AI安全公司瑞萊智慧(RealAI)CEO田天對鈦媒體AGI等表示,奧爾特曼和伊利亞之間的分歧在于對AI安全的“路線之爭”,伊利亞的新公司就是為了 AI 安全目標而設(shè)立的。

田天指出,包括伊利亞、圖靈獎得主Geoffrey Hinton等人認為,AI安全問題現(xiàn)在已經(jīng)到了“非常迫切”去解決的程度。如果現(xiàn)在不去做,很有可能就會錯過這個機會,未來再想亡羊補牢是“沒有可能性”的。

“大模型領(lǐng)域也是一樣。雖然我們對于大模型預(yù)期非常高,認為它在很多領(lǐng)域都能去應(yīng)用,但其實現(xiàn)在,真正在嚴肅場景下的大模型應(yīng)用典型案例還是非常少的,主要問題在于 AI 安全上。如果不解決安全可控問題,對于一些嚴肅場景,是沒有人敢去信任AI,沒有人敢去用它(AI)。只有說解決安全、可信問題,AI才有可能去落地和應(yīng)用。”田天表示,如果一些商業(yè)化公司對于安全問題不夠重視、并毫無邊界快速往前跑的話,可能會造成一系列安全危害,甚至可能對于整個全人類有一些安全風險和影響。

早在聊天機器人ChatGPT發(fā)布之前,伊利亞便提到AGI對人類社會可能的威脅。他把AGI與人類的關(guān)系,類比人類與動物的關(guān)系,稱“人類喜歡許多動物,但當人類要造一條高速路時,是不會向動物征求意見的,因為高速路對人類很重要。人類和通用人工智能的關(guān)系也將會這樣,通用人工智能完全按照自己的意愿行事。”

AGI,即人工智能已具備和人類同等甚至超越人類的智能,簡單而言就是能說會寫,具備計算、推理、分析、預(yù)測、完成任務(wù)等各類人類行為。這樣的AI曾經(jīng)遙遠,但在OpenAI推出第四代模型GPT-4且正訓(xùn)練第五代模型GPT-5時,AGI看似近在咫尺。

今年以來,AI 安全問題持續(xù)引發(fā)關(guān)注。

今年1月,美國一位流行歌手被人用AI惡意生成虛假照片,在社交媒體迅速傳播,給歌手本人造成困擾;2月,香港一家公司遭遇“AI變臉”詐騙,損失高達2億元港幣,據(jù)悉,這家公司一名員工在視頻會議中被首席財務(wù)官要求轉(zhuǎn)賬。然而,會議中的這位“領(lǐng)導(dǎo)”和其他員工,實際都是深度偽造的AI影像。詐騙者通過公開渠道獲取的資料,合成了首席財務(wù)官的形象和聲音,并制作出多人參與視頻會議的虛假場景。

整體來看,為了實現(xiàn)AGI目標,當前,AI系統(tǒng)在設(shè)計上主要面臨五大安全挑戰(zhàn):

軟硬件的安全:在軟件及硬件層面,包括應(yīng)用、模型、平臺和芯片,編碼都可能存在漏洞或后門;攻擊者能夠利用這些漏洞或后門實施高級攻擊。在AI模型層面上,攻擊者同樣可能在模型中植入后門并實施高級攻擊;由于AI模型的不可解釋性,在模型中植入的惡意后門難以被檢測。

數(shù)據(jù)完整性:在數(shù)據(jù)層面,攻擊者能夠在訓(xùn)練階段摻入惡意數(shù)據(jù),影響AI模型推理能力;攻擊者同樣可以在判斷階段對要判斷的樣本加入少量噪音,刻意改變判斷結(jié)果。

模型保密性:在模型參數(shù)層面,服務(wù)提供者往往只希望提供模型查詢服務(wù),而不希望暴露自己訓(xùn)練的模型;但通過多次查詢,攻擊者能夠構(gòu)建出一個相似的模型,進而獲得模型的相關(guān)信息。

模型魯棒性:訓(xùn)練模型時的樣本往往覆蓋性不足,使得模型魯棒性不強;模型面對惡意樣本時,無法給出正確的判斷結(jié)果。

數(shù)據(jù)隱私:在用戶提供訓(xùn)練數(shù)據(jù)的場景下,攻擊者能夠通過反復(fù)查詢訓(xùn)練好的模型獲得用戶的隱私信息。

北京智源人工智能研究院學(xué)術(shù)顧問委員會主任張宏江在2024北京智源大會上表示,過去一年大模型發(fā)展速度之快,行業(yè)紛紛探討通用人工智能的實現(xiàn)路徑與曙光,但AI安全問題的嚴重性與緊迫性不容忽視。

“當我們從不同層面 AI 能安全問題進行審視,除了對社會偏見,錯誤信息,潛在的工作替代或者大模型、自主機器人帶來的大規(guī)模自動化而導(dǎo)致的工作流失,以及潛在的加速財富集中或財富兩極化等問題有所了解,更應(yīng)該關(guān)注 AI 可能帶來新的經(jīng)濟體系和包括潛在的災(zāi)難性風險或誤用事故,甚至可能導(dǎo)致延伸性的人類風險。AI 安全已有很多聲明和請愿,但更重要的是明確目標、投入資源、采取行動、共同應(yīng)對風險。”張宏江表示。

北京智源人工智能研究院理事長黃鐵軍表示,水深流急,AI安全已進入風險很突出的階段。應(yīng)對AI安全風險,需要對AGI水平和能力進行分五級,而且,人類應(yīng)該致力于解決 AI 安全問題,加強與國際社會在AI安全領(lǐng)域的合作,確保AI技術(shù)可控,迎接安全AGI的到來。

AGI水平和能力的五個級別

生成式AI技術(shù)是一把雙刃劍,如何把生成式AI的強大能力用于建立信息安全規(guī)范,將制約行業(yè)發(fā)展的“絆腳石”變?yōu)?ldquo;壓艙石”?業(yè)界一直在探索“用技術(shù)治理技術(shù)”的方案。

就在6月21日,瑞萊智慧推出全球首個可實時檢測AI合成內(nèi)容產(chǎn)品RealBelieve,中文名“尊嘟假嘟”。

據(jù)悉,與此前國內(nèi)外AIGC檢測產(chǎn)品被動上傳檢測不同,RealBelieve主要面向終端用戶,能夠提供主動實時檢測防護,可接入視頻流鑒別人臉真?zhèn),也可在用戶瀏覽網(wǎng)頁內(nèi)容時提供AIGC合成可能性提示。不僅可以為終端用戶提供文本、圖片、視頻和音頻多種模態(tài)的文件上傳檢測服務(wù),還可以通過瀏覽器插件的形式實時提示用戶所瀏覽網(wǎng)頁的疑似AI合成內(nèi)容,變被動為主動。目前,尊嘟假嘟RealBelieve已開啟內(nèi)測招募。

田天表示,作為國內(nèi)為數(shù)不多專攻 AI 安全領(lǐng)域的公司,瑞萊智慧已服務(wù)百余家政務(wù)、金融等領(lǐng)域客戶。隨著AI技術(shù)的發(fā)展,安全在整個AI發(fā)展中的優(yōu)先級一直在往前去走。未來 AI 技術(shù)要往超級智能方向發(fā)展的話,必須要建立整個安全體系,從而確保形成安全的超級智能技術(shù)。

“如果現(xiàn)在不去做好 AI 安全的話,可能后面我們就沒有機會了。”田天稱。

(本文首發(fā)于鈦媒體App,作者|林志佳,編輯|胡潤峰)

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港