展會信息港展會大全

“AI應(yīng)該要像航空和核能一樣,擁有嚴(yán)格的安全規(guī)范”
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-07-09 13:39:45   瀏覽:6749次  

導(dǎo)讀:【文/觀察者網(wǎng) 陳思佳】ChatGPT在全球掀起了人工智能熱潮,讓生成式人工智能的概念進(jìn)入公眾視野。但AI技術(shù)的高速發(fā)展也讓人們產(chǎn)生了新的擔(dān)憂,AI會不會被用來作惡?AI會不會對社會運(yùn)行產(chǎn)生負(fù)面影響,甚至威脅人類的安全? 7月7日,在第六屆世界人工智能大會...

【文/觀察者網(wǎng) 陳思佳】ChatGPT在全球掀起了人工智能熱潮,讓生成式人工智能的概念進(jìn)入公眾視野。但AI技術(shù)的高速發(fā)展也讓人們產(chǎn)生了新的擔(dān)憂,AI會不會被用來作惡?AI會不會對社會運(yùn)行產(chǎn)生負(fù)面影響,甚至威脅人類的安全?

7月7日,在第六屆世界人工智能大會(WAIC)的“人工智能風(fēng)險與安全”論壇上,多名海外專家通過視頻方式,討論了對AI技術(shù)應(yīng)用前景和潛在安全風(fēng)險的看法。他們普遍認(rèn)為,當(dāng)前的AI技術(shù)還存在很多信息安全方面的漏洞,未來應(yīng)用前景也具有不確定性,研究人員和監(jiān)管機(jī)構(gòu)應(yīng)當(dāng)引起重視,盡早制定安全措施。

美國非營利研究機(jī)構(gòu)“人工智能安全中心”董事丹亨德里克斯(Dan Hendrycks)認(rèn)為,與人類相比,AI系統(tǒng)具有更強(qiáng)的適應(yīng)性,強(qiáng)大的能力可能導(dǎo)致AI系統(tǒng)在很多領(lǐng)域取代人類的工作,甚至直接參與到?jīng)Q策過程中來。

他警告說,企業(yè)AI競爭可能導(dǎo)致安全措施遭到削減,導(dǎo)致公司在安全方面“走捷徑”,“一個無限制的市場可能導(dǎo)致AI接管所有決策”。另一個令人擔(dān)憂的問題則是,人類可能過度依賴AI系統(tǒng)的決策,“我們可能失去控制的機(jī)會,越來越無法看到甚至理解AI的行為……這可能帶來更大的風(fēng)險。”

亨德里克斯認(rèn)為,AI開發(fā)者需要保持謹(jǐn)慎和安全意識,不能嘗試淡化規(guī);纳鐣L(fēng)險,為應(yīng)對意外事件做好準(zhǔn)備。有關(guān)機(jī)構(gòu)和組織應(yīng)該要考慮如何開展更加安全的AI系統(tǒng)研發(fā),安全人員需要明確制定使AI系統(tǒng)更加安全的措施。

美國加州大學(xué)伯克利分校計算機(jī)科學(xué)教授斯圖爾特羅素(Stuart Russell)談到了如何防止AI“反客為主”的問題。在他看來,AI需要構(gòu)建成以人類利益為核心動機(jī)結(jié)構(gòu)的形式,“事實上,我們感興趣的不是具有智能的機(jī)器,而是對我們有益的機(jī)器。”

他注意到,AI的“黑箱”模型并不透明,人們并不理解其內(nèi)部運(yùn)作方式。他舉例說,在今年早些時候曾出現(xiàn)過“令人毛骨悚然的微軟Bing聊天機(jī)器人敦促科技專欄作家離婚”的新聞,“至少表明上來看,AI可能主動追求某種目標(biāo)。”

因此羅素認(rèn)為,人們應(yīng)該利用“可以理解的組件”構(gòu)建AI系統(tǒng),并確保不會部署和運(yùn)行不安全的AI系統(tǒng)。“人工智能對社會的潛力是巨大的,為進(jìn)一步發(fā)展創(chuàng)造了不可阻擋的動力。但如果我們繼續(xù)按照我們過去的方向發(fā)展,我認(rèn)為我們可能會失去控制……AI要像航空和核能一樣,擁有嚴(yán)格且不可繞過的安全標(biāo)準(zhǔn),并且需要通過國際合作確保安全標(biāo)準(zhǔn)得到遵守。”

加州大學(xué)伯克利分校計算機(jī)科學(xué)教授宋曉東(Dawn Song)則重點討論了信息安全問題,她指出,高速發(fā)展的AI技術(shù)加劇了敏感信息泄露和惡意內(nèi)容傳播的風(fēng)險。

宋曉東表示,在與谷歌研究人員的早期研究中,他們發(fā)現(xiàn)攻擊者可以通過簡單查詢的方式,從GPT-2等模型中提取訓(xùn)練數(shù)據(jù)中的個人身份信息。盡管GPT-3.5、GPT-4等模型加強(qiáng)了對個人身份等信息的保護(hù),但攻擊者依然能通過特定的提示“欺騙”AI,從而獲取敏感信息。

另一個潛在風(fēng)險是,攻擊者可能濫用AI技術(shù)以生成惡意內(nèi)容,“而且,通過人工智能輔助生成的內(nèi)容數(shù)量可能超過人類生成內(nèi)容的數(shù)量,我們將很難區(qū)分AI生成內(nèi)容和人類生成的內(nèi)容,尤其是生成式AI技術(shù)還在不斷改進(jìn)。”

她強(qiáng)調(diào),人們迫切需要建立防御機(jī)制應(yīng)對惡意操縱生成的內(nèi)容,并構(gòu)建大語言模型可信度的評估體系。

針對高速發(fā)展的AI技術(shù),包括中國、美國和歐洲在內(nèi)的諸多國家已開始推動AI立法工作,探尋有助于AI技術(shù)發(fā)展和監(jiān)管的路徑。

歐洲議會在6月14日以499票贊成、28票反對和93票棄權(quán)的結(jié)果,通過《人工智能法案》草案,正式進(jìn)入最終談判階段。草案將AI風(fēng)險劃分為不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險和低風(fēng)險四個級別,對風(fēng)險較高的應(yīng)用程序?qū)嵤﹪?yán)格的監(jiān)管。

草案還為AI使用場景劃定禁區(qū),嚴(yán)格禁止“對人類安全造成不可接受風(fēng)險的AI系統(tǒng)”,包括有目的地操縱技術(shù)、利用人性弱點或根據(jù)行為、社會地位和個人特征等進(jìn)行評價的系統(tǒng)等。實時遠(yuǎn)程生物識別技術(shù)在最新投票中還被調(diào)整為“不可接受的風(fēng)險”,禁止AI在該領(lǐng)域的應(yīng)用。

美國消費者新聞與商業(yè)頻道(CNBC)稱,盡管草案正式成為法律還需要時間,但歐洲議會已經(jīng)為立法掃清“主要障礙”,歐盟這項法案或?qū)⒊蔀槿蚴着降腁I法規(guī)之一。

美國政府則從今年4月起開始研究是否需要對ChatGPT等AI工具進(jìn)行審查。作為潛在監(jiān)管手段的第一步,美國商務(wù)部在4月11日就相關(guān)問責(zé)措施公開征求意見,包括新AI模型在發(fā)布前是否應(yīng)該通過認(rèn)證程序等問題。

美國國會參議院民主黨領(lǐng)袖查克舒默在6月提出“人工智能安全創(chuàng)新”框架,主張在鼓勵創(chuàng)新的同時推進(jìn)安全、問責(zé)制、基礎(chǔ)和可解釋性。他呼吁美國國會在該框架下加快對AI立法的進(jìn)展,希望能在“幾個月內(nèi)”制定聯(lián)邦層面的AI法案。

中國的AI立法相關(guān)工作也已經(jīng)提上日程。今年4月,中國國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,這是國內(nèi)生成式人工智能(AI)領(lǐng)域的首份監(jiān)管文件。

據(jù)澎湃新聞報道,7月6日,在世界人工智能大會科學(xué)前沿全體會議上,科技部戰(zhàn)略規(guī)劃司司長梁穎達(dá)表示,人工智能法草案已被列入國務(wù)院2023年立法工作計劃,提請全國人大常委會審議。展望未來,梁穎達(dá)表示,我國將鼓勵人工智能前沿研究和原始創(chuàng)新,鼓勵人工智能技術(shù)開源發(fā)展,堅持科技向善的理念,發(fā)展負(fù)責(zé)任的人工智能。

本文系觀察者網(wǎng)獨家稿件,未經(jīng)授權(quán),不得轉(zhuǎn)載。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港