展會信息港展會大全

(經(jīng)濟觀察)如何給人工智能發(fā)展勒好韁繩?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-03-26 10:15:05   瀏覽:7613次  

導讀:中新社北京3月25日電 (王夢瑤)當前,人工智能成為各國發(fā)展重點,如何與人工智能共存,并在保證其安全可控的前提下更好造福人類社會,成為全球共同挑戰(zhàn)。 24日,政界、學界、企業(yè)界人士齊聚中國發(fā)展高層論壇人工智能發(fā)展與治理專題研討會,共商人工智能安全治...

中新社北京3月25日電 (王夢瑤)當前,人工智能成為各國發(fā)展重點,如何與人工智能共存,并在保證其安全可控的前提下更好造福人類社會,成為全球共同挑戰(zhàn)。

24日,政界、學界、企業(yè)界人士齊聚中國發(fā)展高層論壇“人工智能發(fā)展與治理專題研討會”,共商人工智能安全治理。

北京智源研究院創(chuàng)始人、創(chuàng)始理事長張宏江用“震撼”一詞形容Sora。

他表示,Sora可以根據(jù)文字提供一段現(xiàn)實世界無法拍攝出來的逼真場景,多模態(tài)大模型還可以通過“櫻花和雪天無法同時出現(xiàn)”以及雪片的均勻程度判斷視頻是否由人工生成,甚至可以思考、推理而非以往機械式地執(zhí)行命令。

“人類做出的最偉大的發(fā)明就是人工智能,毋庸置疑,它也是最具風險和最危險的創(chuàng)新。”福特斯克金屬集團執(zhí)行董事長安德魯福瑞斯特表示,人類的DNA幾十年甚至幾百年才能有一些改善,但是AI卻能以光速不斷完善。

“AI的學習能力超過人類的平均學習能力”,張宏江同樣表示,人類的學習能力是一條平緩的直線,但是機器的學習能力是一條指數(shù)曲線,兩線相交后人類的學習能力將落后于機器。更可怕的是,當系統(tǒng)本身有能力自我改善時,可能會帶來全球性的災難后果,他提醒。

香港中文大學(深圳)前海國際事務研究院院長、廣州粵港澳大灣區(qū)研究院理事長鄭永年則拿原子彈進行類比,稱原子彈是人類掌握的第一個自我毀滅的工具,“我們現(xiàn)在又多了一樣”,“如果人工智能和核武器結(jié)合起來會更糟糕”。

如何避免這種災難性后果,給人工智能發(fā)展勒好韁繩?這個問題顯得比以往任何時候都更為重要。

Verimag實驗室創(chuàng)始人、2007年圖靈獎得主約瑟夫希發(fā)基思直言,一些國際會議正在討論建立全球監(jiān)管框架的問題,但達成全球人工智能監(jiān)管框架的機會比較渺茫。

然而近期達成的《北京 AI安全國際共識》在人工智能監(jiān)管方面仍取得了可喜突破。張宏江強調(diào),最重要的是劃出了安全紅線:人工智能不能自主復制或改進,不能尋求權(quán)力,不能協(xié)助不良行為,尤其是大規(guī)模殺傷性武器、生化武器和制造大規(guī)模網(wǎng)絡災難,不能欺騙人類,這些紅線不可逾越。

清華大學智能產(chǎn)業(yè)研究院院長、中國工程院院士張亞勤的建議則更趨具體,他建議將機器人與其背后的人或公司關(guān)聯(lián),以便追溯實體責任,同時建立監(jiān)管分級體制,根據(jù)風險大小確定不同程度的監(jiān)管標準。

持續(xù)深化人工智能安全治理,合作的重要性被反復提及。

鄭永年稱,美國和中國的人工智能發(fā)展各有比較優(yōu)勢,在治理方面需要兩個國家進行合作。

中國科學技術(shù)部副部長吳朝暉也在發(fā)言中指出,世界各國應攜手一道,以高度負責任的態(tài)度推動人工智能的發(fā)展,堅持智能向善、智能向上,確保人工智能始終處于人類的控制之下,從而實現(xiàn)安全、可靠、可控。(完)

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港