展會信息港展會大全

世界人工智能大會的聲音:圖靈獎得主強調(diào)三大風(fēng)險,薛瀾關(guān)注“步伐差距”
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-07-07 16:48:01   瀏覽:13713次  

導(dǎo)讀:7月5日,2024世界人工智能大會(WAIC)前沿人工智能安全與治理論壇在上海舉行。與會專家就前沿人工智能(AI)安全研究、評測、治理和國際合作等問題進行主旨演講和圓桌討論。 參與論壇的專家表示,在AI快速發(fā)展的背景下,人類需要對AI潛在的風(fēng)險做好準(zhǔn)備。其...

7月5日,2024世界人工智能大會(WAIC)前沿人工智能安全與治理論壇在上海舉行。與會專家就前沿人工智能(AI)安全研究、評測、治理和國際合作等問題進行主旨演講和圓桌討論。

參與論壇的專家表示,在AI快速發(fā)展的背景下,人類需要對AI潛在的風(fēng)險做好準(zhǔn)備。其中,國際合作和對話必不可少,有關(guān)AI治理的政策應(yīng)得到優(yōu)化,以解決目前技術(shù)發(fā)展快、監(jiān)管政策慢導(dǎo)致的“步伐差距”。同時,在人類與AI共生的社會中,“紅線”問題也應(yīng)被討論。

AGI的三大風(fēng)險

“人類沒有準(zhǔn)備好應(yīng)對快速變化,因此我們需要現(xiàn)在就為未來的風(fēng)險做好準(zhǔn)備。人工智能帶來的不確定性,意味著我們需要就此提出預(yù)防性措施,表明各方在這個問題上對話和合作的重要性。”與會的圖靈獎得主、深度學(xué)習(xí)三巨頭之一、米拉-魁北克人工智能研究所(Mila)創(chuàng)始人和科學(xué)總監(jiān)約書亞本吉奧(Yoshua Bengio)指出。

在AI領(lǐng)域,國際合作已初現(xiàn)端倪。2023年11月,首屆全球AI安全峰會(AI Safety Summit)在英國布萊切利莊園召開,會后包括中國在內(nèi)的與會國達成全球第一份針對AI的國際性聲明《布萊切利宣言》。28個國家和歐盟一致認為,AI對人類構(gòu)成了潛在的災(zāi)難性風(fēng)險。

作為《布萊切利宣言》的關(guān)鍵承諾之一,今年5月,由本吉奧主持的《2024先進人工智能安全國際科學(xué)報告》(以下簡稱《報告》)發(fā)布。報告聯(lián)合了一支多元化的全球人工智能專家團隊,其中包括來自世界30個人工智能領(lǐng)先國家的專家顧問小組,以及聯(lián)合國和歐盟的代表。2023年11月,其初期版本以AI科學(xué)狀況報告的形式發(fā)布。本吉奧此番提及的為中期報告,為5月舉行的首爾AI峰會上的討論提供了信息。最終報告預(yù)計將在2025年于法國舉行的“AI行動峰會”(AI Action Summit)上發(fā)布。

7月5日,本吉奧在演講中表示,《報告》涉及范圍非常廣,包括目前已經(jīng)存在的歧視、偏見等AI風(fēng)險,以及誤用AI、影響勞動力市場等問題。

《報告》發(fā)現(xiàn),人們對AI獲取能力速度理解的不同,導(dǎo)致對于AI使用理解、社會如何應(yīng)對風(fēng)險和技術(shù)的看法也不同。同時,《報告》提到AI專家在部分議題上缺乏統(tǒng)一意見的問題,比如大規(guī)模失業(yè)、AI失控等議題。

《報告》還討論了通用人工智能(AGI),即能夠生成文本、圖像和實現(xiàn)自動化決策的AI系統(tǒng),指出AGI會帶來三類風(fēng)險:惡意風(fēng)險(深度偽造)、功能故障風(fēng)險(失控)、 系統(tǒng)性風(fēng)險(版權(quán)、隱私)。

本吉奧稱:“《報告》的目的不是預(yù)測未來AI科技的走向,而是總結(jié)現(xiàn)有的科學(xué)研究,為優(yōu)化相應(yīng)政策提供根據(jù)。”

參與撰寫《報告》的專家指出,政策制定者需要把對AI影響的理解變?yōu)閮?yōu)先事項。

聯(lián)合國曾表示,全球協(xié)調(diào)下的AI治理,能讓AI不脫離人類控制范圍的同時,把由AI服務(wù)、算法、計算機算力等帶來的不確定性,放到國際層面。

為了更好了解減輕AI風(fēng)險的問題,本吉奧提出兩點措施:一是各國政府需要更好理解AI系統(tǒng)如何運作,包括為何和怎樣發(fā)展AI;二是了解誰會從AI中得到經(jīng)濟利益,需要在研究方面投入多少。

AI發(fā)展存在“步伐差距”

與會的清華大學(xué)文科資深教授、人工智能國際治理研究院院長薛瀾,從四方面提出了全球AI治理目前面臨的挑戰(zhàn)。

首先,目前技術(shù)發(fā)展過快,但政治和機構(gòu)相關(guān)改變較慢,因此出現(xiàn)“步伐差距”的問題;其次,實現(xiàn)更健康的AI系統(tǒng)發(fā)展,增加更多算力是否是唯一的辦法,未來可能各方會有不同看法;第三,非線性機構(gòu)重疊,導(dǎo)致相關(guān)機構(gòu)、機制因為沒有清晰的上下級關(guān)系,無法有機結(jié)合進行治理;第四,地緣政治問題。

在薛瀾看來,想要解決以上挑戰(zhàn),提升各方在安全性和治理上的合作必不可少。同時,各國政府可以不用像歐盟那樣提出綜合性的AI法案,但必須對AI治理做出快速響應(yīng)。

歐盟已批準(zhǔn)的《人工智能法案》,是世界上首部對AI進行全面監(jiān)管的法案。法案根據(jù)AI使用方法,而非技術(shù)本身造成的影響風(fēng)險進行分類。

薛瀾表示,在政府之外,AI業(yè)界的自我約束也有用處。最后的國際治理,并非單一機構(gòu)可以解決,而是需要形成多邊網(wǎng)絡(luò)系統(tǒng)。

“我們未來還需要討論以下三類問題:國內(nèi)對技術(shù)使用的監(jiān)管問題;國際社會問題,比如根本風(fēng)險需要國際合作;更難管理的是,國內(nèi)問題對國際產(chǎn)生影響,反之亦然。”薛瀾說。

與會的中國科學(xué)院自動化研究所人工智能倫理與治理研究中心主任、聯(lián)合國人工智能高層顧問機構(gòu)專家曾毅提醒了有關(guān)AI紅線的問題。

曾毅表示,因為AI機制與人類機制不同,因此在“機器是否能像人類一樣智能”的問題上,他持反對意見。

“未來我們可能是建構(gòu)性的思考方式,現(xiàn)在AI的優(yōu)點、風(fēng)險都有限。我們需要用一種主動視角做持續(xù)的對齊和嵌入,有真正想法后才能讓AI和人類更好結(jié)合,而不僅是預(yù)防的角度考慮。”曾毅表示。

提及AI紅線,曾毅說,“我們應(yīng)重新思考這一問題”。“以核武器為例,AI控制核武器,并非AI的能力,而是人類放棄做決策。因此,AI紅線和人類紅線應(yīng)該一起討論。”

“AI會犯錯,對信息處理非完全智能。”曾毅認為,在訓(xùn)練未來的AI時,不能只是下達做或不做的命令,行善去惡非常重要。

“將來我們重視人類和AI的關(guān)系,在讓AI和人類價值觀保持一致的問題上會存在很多挑戰(zhàn),因為人類價值觀需適應(yīng)功能社會的變化。”曾毅表示。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港