展會信息港展會大全

中方多條倡議成為英國AI峰會宣言內(nèi)容,五個要點解讀《布萊切利宣言》
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-11-03 16:07:21   瀏覽:6563次  

導(dǎo)讀:【全球AI戰(zhàn)略洞察】欄目由清華大學(xué)人工智能國際治理研究院推出,旨在通過對當(dāng)前人工智能領(lǐng)域發(fā)生的重要信息進(jìn)行標(biāo)注、提煉、解讀,剖析全球AI治理各國家間不同的戰(zhàn)略圖景,以此描繪人工智能治理領(lǐng)域的國際格局。 欄目主理人:劉典 復(fù)旦大學(xué)中國研究院副研究...

【全球AI戰(zhàn)略洞察】欄目由清華大學(xué)人工智能國際治理研究院推出,旨在通過對當(dāng)前人工智能領(lǐng)域發(fā)生的重要信息進(jìn)行“標(biāo)注、提煉、解讀”,剖析全球AI治理各國家間不同的戰(zhàn)略圖景,以此描繪人工智能治理領(lǐng)域的國際格局。

欄目主理人:劉典

復(fù)旦大學(xué)中國研究院副研究員、清華大學(xué)人工智能國際治理研究院戰(zhàn)略與宏觀研究項目主任

前言

自英國首相6月7日宣布英國將主辦首屆人工智能安全全球峰會以來,中國是否會參與該峰會便一直是各方關(guān)注的焦點。

2023年11月1日,該峰會在布萊切利園(Bletchley Park)正式開幕。來自各國的100多名政界和商界名人出席,包括美國副總統(tǒng)哈里斯、歐盟委員會主席馮德萊恩、OpenAI的奧特曼、特斯拉的馬斯克、谷歌DeepMind的哈薩比斯、Arm的哈斯等。

中國科技部副部長吳朝暉

中國科技部副部長吳朝暉率領(lǐng)由科技部、外交部、中國科學(xué)院、阿里巴巴、騰訊組成的代表團(tuán)參會,并在開幕式全體會議上發(fā)言。與會期間,代表團(tuán)參與了人工智能安全等問題的討論,宣介了中方幾天前提出的《全球人工智能治理倡議》,接下來還會和相關(guān)國家開展雙邊會談。中國也聯(lián)署了會議的重要成果文件關(guān)于人工智能國際治理的《布萊切利宣言》。

值得關(guān)注的是,本次《布萊切利宣言》中,多條內(nèi)容都能與中方《全球人工智能治理倡議》中的內(nèi)容有對應(yīng),表明中方的倡議在本次峰會的宣言中多處有體現(xiàn)。

01

內(nèi)容要點

一、中方《全球人工智能治理倡議》多條內(nèi)容被納入《布萊切利宣言》

本次《布萊切利宣言》中,多條內(nèi)容都能與中方《全球人工智能治理倡議》中的內(nèi)容有對應(yīng)

1. 以人為本

《全球人工智能治理倡議》第一條指出,發(fā)展人工智能應(yīng)堅持“以人為本”理念,以增進(jìn)人類共同福祉為目標(biāo),確保人工智能始終朝著有利于人類文明進(jìn)步的方向發(fā)展。

《布萊切利宣言》第一段申明,為了所有人的利益,AI應(yīng)該以安全、以人為本、可信賴和負(fù)責(zé)任的方式設(shè)計、開發(fā)、部署和使用。

2. 尊重他國主權(quán),遵守他國法律

《全球人工智能治理倡議》第二條指出,面向他國提供人工智能產(chǎn)品和服務(wù)時,應(yīng)尊重他國主權(quán),嚴(yán)格遵守他國法律。

《布萊切利宣言》第九段指出,在開展合作的同時,應(yīng)認(rèn)識到做法可能因國情和適用的法律框架而有所差異。

3. 建立風(fēng)險評估體系

《全球人工智能治理倡議》第五、六條指出,推動建立風(fēng)險等級測試評估體系,研發(fā)主體不斷提高人工智能可解釋性和可預(yù)測性,逐步建立健全法律和規(guī)章制度。

《布萊切利宣言》第七段強(qiáng)調(diào),開發(fā)前沿人工智能能力的參與者對確保這些人工智能系統(tǒng)的安全負(fù)有特別重大的責(zé)任,包括通過安全測試系統(tǒng)、通過評估以及通過其他適當(dāng)措施。

4. 公平、非歧視原則

《全球人工智能治理倡議》第七條指出,要堅持公平性非歧視性原則。

《布萊切利宣言》第三段指出,應(yīng)認(rèn)識到需要解決保護(hù)人權(quán)、透明度和可解釋性、公平、問責(zé)、監(jiān)管、安全、適當(dāng)?shù)娜祟惐O(jiān)督、道德、減少偏見、隱私和數(shù)據(jù)保護(hù)等問題。

5. 加強(qiáng)國際合作、對話

《全球人工智能治理倡議》第九條倡導(dǎo),堅持廣泛參與、協(xié)商一致、循序漸進(jìn)的原則,密切跟蹤技術(shù)發(fā)展形勢,開展風(fēng)險評估和政策溝通,分享最佳操作實踐。在此基礎(chǔ)上,通過對話與合作,在充分尊重各國政策和實踐差異性基礎(chǔ)上,推動多利益攸關(guān)方積極參與,在國際人工智能治理領(lǐng)域形成廣泛共識。

《布萊切利宣言》第五、六段申明,人工智能產(chǎn)生的許多風(fēng)險本身具有國際性,因此最好通過國際合作加以解決;酌情就共同原則和行為準(zhǔn)則等方法開展合作,重申國際合作應(yīng)努力讓廣泛的合作伙伴酌情參與進(jìn)來,強(qiáng)調(diào)所有參與者都可以在確保人工智能安全方面發(fā)揮作用:國家、國際論壇和其他倡議、公司、民間社會和學(xué)術(shù)界需要共同努力。并在第八段強(qiáng)調(diào),應(yīng)對人工智能前沿風(fēng)險的議程將側(cè)重于建立和保持應(yīng)對人工智能安全風(fēng)險的全球共識。

6. 幫助發(fā)展中國家

《全球人工智能治理倡議》第十一條指出,增強(qiáng)發(fā)展中國家在人工智能全球治理中的代表性和發(fā)言權(quán),開展面向發(fā)展中國家的國際合作與援助,不斷彌合智能鴻溝和治理能力差距。

《布萊切利宣言》第六段指出,應(yīng)幫助發(fā)展中國家加強(qiáng)人工智能能力建設(shè),發(fā)揮人工智能的有利作用以支持可持續(xù)增長和縮小發(fā)展差距。

二、中國等28國聯(lián)署關(guān)于人工智能國際治理的《布萊切利宣言》

來自28個國家的政府代表,以及7個國際多邊組織、超過80家學(xué)術(shù)科研機(jī)構(gòu)、企業(yè)和公民組織出席了人工智能安全峰會。

包括中國、美國、英國、歐盟、新加坡、日本、韓國、澳大利亞、巴西、加拿大、智利、法國、德國、印度、印度尼西亞、愛爾蘭、以色列、意大利、肯尼亞、沙特阿拉伯、荷蘭、尼日利亞、菲律賓、盧旺達(dá)、西班牙、瑞士、土耳其、烏克蘭、阿聯(lián)酋在內(nèi)的多個國家聯(lián)署了《布萊切利宣言》。

該宣言強(qiáng)調(diào)了以人為本的AI發(fā)展理念,呼吁各國科研機(jī)構(gòu)、企業(yè)等在AI設(shè)計、開發(fā)和使用過程中,始終以人的福祉為出發(fā)點和落腳點,確保AI技術(shù)為人類帶來實實在在的利益。

同時,《宣言》也警示了AI發(fā)展過程中可能帶來的傷害,要求各方通過法規(guī)等手段,防范和化解相關(guān)風(fēng)險。

三、宣言指出,現(xiàn)在應(yīng)采取行動在全球范圍內(nèi)安全發(fā)展人工智能

1、人工智能應(yīng)以安全的方式設(shè)計、開發(fā)、部署,做到以人為本、值得信賴負(fù)責(zé)任

2、現(xiàn)在應(yīng)采取行動,以在全球范圍內(nèi)安全發(fā)展人工智能

3、解決人工智能帶來的重大風(fēng)險是必要緊迫

4、在人工智能技術(shù)快速發(fā)展的背景下,需要加深對潛在風(fēng)險及應(yīng)對行動的理解

四、宣言指出,人工智能的風(fēng)險應(yīng)對需要包容的國際合作,并強(qiáng)調(diào)了開發(fā)者的責(zé)任

1、人工智能的風(fēng)險需要通過包容的國際合作加以解決

2、國家、國際論壇、公司、學(xué)術(shù)界等所有參與者都可以在確保人工智能安全方面發(fā)揮作用

3、前沿人工智能開發(fā)者對確保人工智能安全負(fù)有特別重大的責(zé)任

五、宣言指出,為促進(jìn)更廣泛的人工智能國際合作,將支持一個具有國際包容性的前沿人工智能安全科學(xué)研究網(wǎng)絡(luò)

1、在合作的背景下,應(yīng)對人工智能前沿風(fēng)險的議程將側(cè)重于:確定共同關(guān)注的風(fēng)險,建立并保持對這些風(fēng)險共識,制定基于各國國情的政策并酌情開展合作

2、建立一個用于政策制定公益事業(yè)國際人工智能前沿安全科學(xué)研究網(wǎng)絡(luò),以促進(jìn)提供最佳的科學(xué)支持

3、繼續(xù)開展包容性的全球?qū)υ?/strong>,推動更廣泛的國際討論和人工智能前沿安全研究

02

全文信息點標(biāo)注與拆解

以下是《布萊切利宣言》的要點內(nèi)容和原文標(biāo)注:

《布萊切利宣言》(中譯文)

人工智能(AI)帶來了巨大的全球機(jī)遇:它有潛力改變和增強(qiáng)人類福祉、和平與繁榮。

為了實現(xiàn)這一目標(biāo),我們申明,

為了所有人的利益,AI應(yīng)該以安全、以人為本、可信賴和負(fù)責(zé)任的方式設(shè)計、開發(fā)、部署和使用。

我們歡迎國際社會迄今為止在AI合作方面所做的努力

●以促進(jìn)包容性經(jīng)濟(jì)增長、可持續(xù)發(fā)展和創(chuàng)新,

●保護(hù)人權(quán)和基本自由,

●并培養(yǎng)公眾對AI系統(tǒng)的信任和信心,

●以充分實現(xiàn)其潛力。

AI系統(tǒng)已經(jīng)部署在日常生活的許多領(lǐng)域,包括:

●住房、就業(yè)、交通、教育、健康、無障礙和司法,

●對它們的使用可能會繼續(xù)增加。

因此,我們認(rèn)識到,現(xiàn)在是一個獨特的時刻,需要采取行動,申明安全發(fā)展人工智能的必要性,并以包容的方式在我們各國和全球范圍內(nèi)利用人工智能的變革性機(jī)遇,造福于人類。

這包括用于:

●公共服務(wù),如衛(wèi)生和教育、糧食安全、科學(xué)、清潔能源、生物多樣性和氣候等領(lǐng)域,

●實現(xiàn)人權(quán)的享有,

●并加倍努力實現(xiàn)聯(lián)合國可持續(xù)發(fā)展目標(biāo)。

除了這些機(jī)會,AI也帶來重大風(fēng)險,包括在日常生活領(lǐng)域。為此,我們歡迎

相關(guān)的國際努力,

●審查和解決AI系統(tǒng)在現(xiàn)有論壇和其他相關(guān)舉措中的潛在影響,

●并認(rèn)識到需要解決保護(hù)人權(quán)、透明度和可解釋性、公平性、問責(zé)制、監(jiān)管、安全、適當(dāng)?shù)娜祟惐O(jiān)督、道德、減少偏見、隱私數(shù)據(jù)保護(hù)問題。

我們還注意到,AI系統(tǒng)操縱內(nèi)容生成欺騙性內(nèi)容的能力可能帶來不可預(yù)見的風(fēng)險。

所有這些問題都至關(guān)重要,我們確認(rèn)解決這些問題必要性緊迫性。

特別的安全風(fēng)險出現(xiàn)在“前沿”的AI,即那些能夠執(zhí)行各種任務(wù)的高能力通用AI模型,包括:

基礎(chǔ)模型,

●以及可能表現(xiàn)出與當(dāng)今最先進(jìn)模型相匹配或超過現(xiàn)有能力的相關(guān)特定狹窄定義的AI。

重大風(fēng)險可能來自潛在的故意濫用,或與按照人類意圖行事相關(guān)的控制問題。此類問題部分是人類尚未完全理解AI的這些能力,因此難以預(yù)測。

我們特別關(guān)注網(wǎng)絡(luò)安全和生物技術(shù)等領(lǐng)域的此類風(fēng)險,以及前沿AI系統(tǒng)可能放大虛假信息等風(fēng)險的領(lǐng)域。這些AI模型最重要的能力可能導(dǎo)致嚴(yán)重甚至災(zāi)難性的傷害,無論是故意還是無意的。

鑒于AI的快速和不確定的變化速度,以及在技術(shù)投資加速的背景下,我們申明,加深對這些潛在風(fēng)險的理解,以及加深對應(yīng)對這些風(fēng)險的行動的理解,尤為緊迫。

人工智能產(chǎn)生的許多風(fēng)險本身具有國際性,因此最好通過國際合作加以解決。

我們決心

●以包容的方式共同努力,

●通過現(xiàn)有的國際論壇和其他相關(guān)倡議,

●確保人工智能以人為本、值得信賴和負(fù)責(zé)任,

●確保人工智能的安全,

●并支持所有人的利益,

促進(jìn)合作,

●以應(yīng)對人工智能帶來的廣泛風(fēng)險。

在此過程中,我們認(rèn)識到,各國應(yīng)考慮采取有利于創(chuàng)新、適度的治理監(jiān)管方法,最大限度地發(fā)揮人工智能的效益,并考慮到人工智能的相關(guān)風(fēng)險。

這可能包括

●根據(jù)國情和適用的法律框架

●酌情對風(fēng)險進(jìn)行分類和歸類。

我們還注意到酌情就共同原則行為準(zhǔn)則等方法開展合作重要性。

關(guān)于最有可能在前沿人工智能方面發(fā)現(xiàn)的具體風(fēng)險,我們決心

●通過現(xiàn)有國際論壇

●和其他相關(guān)倡議,包括未來的國際人工智能安全峰會,

加強(qiáng)和維持我們的合作

●并擴(kuò)大與更多國家的合作,

確定、理解并酌情采取行動。

所有參與者都可以在確保AI安全方面發(fā)揮作用:國家、國際論壇其他倡議、公司、民間社會學(xué)術(shù)界需要共同努力。我們注意到包容性人工智能彌合數(shù)字鴻溝重要性,重申國際合作應(yīng)努力酌情讓廣泛的合作伙伴參與進(jìn)來,并歡迎發(fā)展為導(dǎo)向的方法和政策,以幫助發(fā)展中國家加強(qiáng)人工智能能力建設(shè),并利用人工智能的賦能作用來支持可持續(xù)增長縮小發(fā)展差距

我們申明,雖然必須在整個AI生命周期考慮安全,但發(fā)展前沿AI能力的行為者,特別是那些異常強(qiáng)大和潛在有害的AI系統(tǒng),對確保這些AI系統(tǒng)的安全負(fù)有特別重大的責(zé)任,包括通過安全測試系統(tǒng)、評估其他適當(dāng)措施。我們鼓勵所有相關(guān)行為者就其衡量、監(jiān)測和減輕AI潛在有害能力及其可能出現(xiàn)的相關(guān)影響的計劃,提供適當(dāng)?shù)?strong>透明度問責(zé)制,特別是為了防止濫用控制問題以及其他風(fēng)險的放大。

在我們的合作范圍內(nèi),并為了給國家國際兩級的行動提供信息,我們應(yīng)對前沿AI風(fēng)險的議程將側(cè)重于

識別共同關(guān)注的人工智能安全風(fēng)險,建立對這些風(fēng)險的共同科學(xué)和循證理解,并在能力不斷提高的情況下,在更廣泛的全球方法的背景下保持這種理解,以了解人工智能對我們社會的影響。

●根據(jù)這些風(fēng)險,在各國制定各自的基于風(fēng)險的政策,以確保安全,在適當(dāng)?shù)那闆r下進(jìn)行合作,同時認(rèn)識到我們的方法可能因國情和適用的法律框架而異。這包括,除了提高私人行為者開發(fā)前沿人工智能能力的透明度外,還包括適當(dāng)?shù)?strong>評估指標(biāo)、安全測試工具,以及發(fā)展相關(guān)的公共部門能力科學(xué)研究。

為推進(jìn)這一議程,我們決心支持建立一個具有國際包容性的前沿AI安全科學(xué)研究網(wǎng)絡(luò),該網(wǎng)絡(luò)包括和補(bǔ)充現(xiàn)有和新的多邊、多邊和雙邊合作,包括通過現(xiàn)有國際論壇其他相關(guān)舉措,促進(jìn)為決策和公共利益提供最佳科學(xué)。

認(rèn)識到AI的變革性積極潛力,并作為確保更廣泛的AI國際合作的一部分,我們決心維持包容性的全球?qū)υ?/strong>,讓現(xiàn)有國際論壇和其他相關(guān)舉措?yún)⑴c進(jìn)來,并以開放的方式更廣泛的國際討論做出貢獻(xiàn),并繼續(xù)研究前沿AI安全問題,以確保可以負(fù)責(zé)任地利用技術(shù)的好處造福所有人。我們期待2024年再次會面。

【會議官網(wǎng)】https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023

協(xié)定簽署國

澳大利亞

巴西

加拿大

智利

中國

歐盟

法國

德國

印度

印度尼西亞

愛爾蘭

以色列

意大利

日本

肯尼亞

沙特阿拉伯

荷蘭

尼日利亞

菲律賓

韓國

盧旺達(dá)

新加坡

西班牙

瑞士

土耳其

烏克蘭

阿聯(lián)酋

英國

美國

其他國際組織、研究機(jī)構(gòu)、非政府組織和科技企業(yè)

Academia and civil society

Ada Lovelace Institute

Advanced Research and Invention Agency

African Commission on Human and People’s Rights

AI Now Institute

Alan Turing Institute

Algorithmic Justice League

Alignment Research Center

Berkman Center for Internet & Society, Harvard University

Blavatnik School of Government

British Academy

Brookings Institution

Carnegie Endowment

Centre for AI Safety

Centre for Democracy and Technology

Centre for Long-Term Resilience

Centre for the Governance of AI

Chinese Academy of Sciences

Cohere for AI

Collective Intelligence Project

Columbia University

Concordia AI

ETH AI Center

Future of Life Institute

Institute for Advanced Study

Liverpool John Moores University

Mila Quebec Artificial Intelligence Institute

Mozilla Foundation

National University of Cordoba

National University of Singapore

Open Philanthropy

Oxford Internet Institute

Partnership on AI

RAND Corporation

Real ML

Responsible AI UK

Royal Society

Stanford Cyber Policy Institute

Stanford University

Technology Innovation Institute

Université de Montréal

University College Cork

University of Birmingham

University of California, Berkeley

University of Oxford

- University of Southern California

University of Virginia

Industry and related organisations

Adept

Aleph Alpha

Alibaba

Amazon Web Services

Anthropic

Apollo Research

ARM

Cohere

Conjecture

Darktrace

Databricks

Eleuther AI

Faculty AI

Frontier Model Forum

Google DeepMind

Google

Graphcore

Helsing

Hugging Face

IBM

Imbue

Inflection AI

Meta

Microsoft

Mistral

Naver

Nvidia

Omidyar Group

OpenAI

Palantir

Rise Networks

Salesforce

Samsung Electronics

Scale AI

Sony

Stability AI

techUK

Tencent

Trail of Bits

XAI

Multilateral organisations

Council of Europe

European Commission

Global Partnership on Artificial Intelligence (GPAI)

International Telecommunication Union (ITU)

Organisation for Economic Co-operation and Development (OECD)

UNESCO

United Nations

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港