展會信息港展會大全

OpenAI風波后,人工智能安全發(fā)展與監(jiān)管將何去何從?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-12-29 08:54:03   瀏覽:29230次  

導讀:OpenAI 風波 2023年,OpenAI的戲份很足。3月份時,ChatGPT4.0亮相,驚艷到了全世界,一時間大家紛紛嘗試讓ChatGPT寫小作文、編代碼,及至咋舌ChatGPT偶爾會胡編亂造一通的做派。眾多軟件科技公司更是緊跟潮流,卯足了勁開發(fā)各種應用的大語言模型。OpenAI帶動...

OpenAI 風波

2023年,OpenAI的戲份很足。3月份時,ChatGPT4.0亮相,驚艷到了全世界,一時間大家紛紛嘗試讓ChatGPT寫小作文、編代碼,及至咋舌ChatGPT偶爾會胡編亂造一通的做派。眾多軟件科技公司更是緊跟潮流,卯足了勁開發(fā)各種應用的大語言模型。OpenAI帶動了人工智能(AI)的一輪新高潮。

時至11月,Open AI再次震驚了全世界。公司董事會突然宣布CEO奧特曼去職。之后,局勢反轉(zhuǎn)再反轉(zhuǎn),OpenAI員工集體威脅辭職,微軟馬上伸出橄欖枝愿意整體接收,最終一周之后,奧特曼重返CEO位置,董事會大改組,被認為是CEO罷免事件推手力量的公司首席科學家蘇茨克弗也不再任董事。OpenAI的大風波暫時平息。

一個有意思的方面是,奧特曼雖然恢復CEO職位,卻并沒有回到董事會,而OpenAI的治理結(jié)構(gòu)獨特,董事會是最高決策機構(gòu)。

奧特曼為何遭罷免?OpenAI是這樣官宣陳述的“董事會經(jīng)過深思熟慮的審查程序”,奧特曼“與董事會的溝通中沒有始終坦誠,阻礙了其履行職責的能力。董事會不再對他繼續(xù)領(lǐng)導OpenAI的能力充滿信心”。

同一時間段,據(jù)悉OpenAI某位高管在給員工的溝通信中表示,奧特曼并沒有瀆職行為,在公司財務(wù)、業(yè)務(wù)、安全或隱私等方面也沒有失誤。奧特曼回歸后,關(guān)于其免職事件,OpenAI公司仍要開展內(nèi)部調(diào)查。

追求速度還是安全?

OpenAI事件一番戲劇性地演進,將一個人從幕后推到了大眾的矚目中,連帶他推崇的重要主張。這個人就是前文提及的,OpenAI首席科學家蘇茨克弗,他同時是OpenAI的聯(lián)合創(chuàng)始人。

盡管ChatGPT4.0走紅后代表OpenAI在媒體上頻頻露臉的是CEO奧特曼,但事實上蘇茨克弗才是ChatGPT的核心發(fā)明人,攻克了AI重要的技術(shù)難題,被業(yè)界稱為“ChatGPT之父”。

蘇茨克弗出生于前蘇聯(lián),持以色列和加拿大的國籍。他是深度學習領(lǐng)域的專家。蘇茨克弗在讀博士期間師從圖靈獎得主, 有“人工智能教父”之稱的杰弗里辛頓(Geoffrey Hinton)。

在OpenAI所處的加州硅谷地區(qū),對于人工智能的發(fā)展有兩派相反的觀點。

一派希望全速推動人工智能的發(fā)展,認為隨著技術(shù)進步,相關(guān)的社會問題會自然而然地得到解決,這在歷史上多次證明,所以不必多擔憂。用中國的俗語來說,就是“船到橋頭自然直”。

另有一派,則主張在AI程序向社會公開之前,先要在實驗室進行徹底測試,特別是生成式人工智能。

蘇茨克弗是后一派觀點的代表人物。

蘇茨克弗比較近期的公眾演講,包括今年3月份他接受英偉達CEO黃仁勛的采訪,和今年10月他的TED演講。在演講中,蘇茨克弗直白地表示,AI將會發(fā)展達到人類的智能水平,進而超越人類智能,比人更聰明。他拋出一個深刻的問題:比人類更聰明的人工智能,將會怎樣對待人類?

蘇茨克弗每每演講,都顯得邊講邊在沉思。他不茍言笑,卻觀點犀利,表達清晰。

與人類的“生物大腦”相對照,蘇茨克弗稱人工智能是處在計算機系統(tǒng)中的“電子大腦”。“電子大腦”的優(yōu)勢在于能夠充分全面地占有信息,在此基礎(chǔ)上,推導結(jié)果。

蘇茨克弗習慣于以人和動物的關(guān)系,來類比將來通用人工智能(AGI)與人類之間或?qū)⒋嬖诘年P(guān)系。他反復地會問觀眾,AI會愛人類嗎?AI會像今天人類對待動物那樣來對待人類嗎?公開演講時,蘇茨克弗頻頻穿著帶動物圖案的T恤出鏡頭,似乎為了加強他的觀點。

蘇茨克弗向聽眾介紹,他之所以在2015年聯(lián)合創(chuàng)辦Open AI,出發(fā)點正是為了在推動AI發(fā)展的進程中,妥善解決AI和社會的問題。

AGI通用人工智能,何為“通用”?

Artificial General Intelligence (AGI) 中文譯為“通用人工智能”。其實,這個中文翻譯并沒有準確地傳意。General是相對Special而言的。在AI的這個語境下,人工智能機器人先后打敗了人類的國際象棋大師、圍棋大師,實現(xiàn)了蛋白質(zhì)結(jié)構(gòu)預測的重大突破,等等,這些赫赫成績反映了AI智能的某個 (special) 方面,或者說是單項考評的成績。

而AGI指的是在綜合考評上AI全面地達到乃至超過人類智能的那個時刻,用通俗的話來說,就是“全面碾壓”。所以,用“綜合人工智能”或“全面人工智能”翻譯AGI,似乎更加提挈。

AGI目前尚未實現(xiàn),但是正在向人類走來。OpenAI在其公司網(wǎng)頁上預期,十年內(nèi),AGI會被實現(xiàn)。按人工智能成果的此起彼伏來看,十年不知道是不是一個保守的時間估計。

此外還有一個AI名詞,GenerativeAI,中文翻譯是“生成式人工智能”。為什么稱generative(生成),而不是creative (創(chuàng)作)?造詞者大概是考慮到目前的知識產(chǎn)權(quán)法律框架體系并不承認AI作為發(fā)明創(chuàng)作的主體,不賦予AI創(chuàng)作的主體資格。

但是,從價值的角度來衡量,AI大語言模型生成的段落、文章以及圖片是否具備文化價值?人是否樂意花時間去閱讀乃至欣賞?認為AI作品是生成的而非創(chuàng)作的,這樣的界定更多來自于人類對待人工智能的主觀態(tài)度。但是,一旦AGI實現(xiàn),其“生成”的作品例如出品的小說超出人類作家的水準,是否有必要開放創(chuàng)作發(fā)明的主體資格,延及AI?還是另外新辟AI-IP這個權(quán)利范疇?

OpenAI的Q*項目之謎

奧特曼究竟為什么被董事會罷免?官宣中提到奧特曼沒有和董事會坦誠溝通,言下之意是他背著董事會秘密地干了些什么。敏銳的記者們在努力揭秘。

據(jù)路透社等幾家媒體的報導,奧特曼在公司內(nèi)部大力推進Project Q*項目,很可能是他被免職的重要原因。

據(jù)稱,Project Q*的研究將AI的智能水平又推上了一個新的高度。AI將不僅能基于統(tǒng)計學的能力,在占有信息和數(shù)據(jù)的基礎(chǔ)上做預測,生成文字和圖片,還掌握了數(shù)學推理的能力。前者不一定有一個標準答案,而數(shù)學的答案是唯一的。

OpenAI的治理結(jié)構(gòu),采取了非盈利機構(gòu)控制下屬盈利公司的模式,其最初的意愿正是希望AI的研究發(fā)展不受制于資本的影響。OpenAI的首席科學家蘇茨克弗更是積極倡導AI發(fā)展要顧及人類安全的大命題,安全謹慎地推進AI研究。

ChatGPT4.0發(fā)布后,蘇茨克弗在今年四五月期間提出了OpenAI內(nèi)部的一個名為“超級對齊(Super-alignment)”的項目,據(jù)說調(diào)動了占OpenAI五分之一的內(nèi)部資源,著重于AI與安全的研究。

根據(jù)路透社及其他媒體調(diào)查后所推斷,CEO奧特曼并沒有太重視AI帶來的安全擔憂,而是繼續(xù)大力推進人工智能的商業(yè)化,由此觸發(fā)了他被免職的一幕。

基辛格博士參與撰寫的暢銷書:

The Age of AI

The Age

of

AI

《AI

時代》

被福布斯雜志評選為

2

022

“當年最暢銷的

1

0

本技術(shù)類書籍之一”

,該書由基辛格博士及兩位技術(shù)領(lǐng)域的頂尖專家共同撰寫。書中指出,在人類發(fā)展的歷史長河中,推理是人類高度珍視,或者說是引以為傲的一項重要能力。

如果人工智能突破推理的障礙,從而擁有了與人類相當?shù)耐评砟芰,甚至超越了人類的推理能力,那么這是否意味著人類對自身能力將產(chǎn)生懷疑?作者們認為,定義AI能力的同時,也意味著重新來定義人類的能力乃至人類的地位。

對AI將威脅人類安全的擔憂

追溯到2015年,霍金、馬斯克以及多名人工智能專家已經(jīng)聯(lián)名簽署了公開信,呼吁重視人工智能將帶來的社會影響,并展開認真的研究。公開信特別指出,人工智能雖然將帶來非常多的好處,甚至消除疾病和貧困,但要警惕人工智能趨向于不安全和不可控的態(tài)勢。

近年來,隨著AI威力的持續(xù)升級,有關(guān)AI很可能帶來安全威脅的擔憂也不斷被放大。ChatGPT4.0推出后,馬斯克等上千名科技界人士發(fā)表公開信,提議所有人工智能實驗室立即暫停訓練比ChatGPT4.0更強大的人工智能系統(tǒng)至少六個月。

當蘇茨克弗的導師、人工智能教父辛頓被記者采訪時問及人工智能是否會消滅人類,他回答:“我認為這并非不可想象。我只能說這些。”這話聽著,是不是讓人感到后脊發(fā)涼?

硅谷是人工智能研究的前沿,也大概是有關(guān)人工智能與人類安全問題爭論最多的地方。像蘇茨克弗這樣的頂級科學家在擔憂AI對人類可能帶來的不可挽回的影響,也有大量的富豪捐款投入在有關(guān)AI與安全問題的研究上。

有效利他主義(effective altruism)是其中一種代表性的思潮,關(guān)心遠方最貧窮的人,關(guān)心子孫后代的生活環(huán)境,關(guān)注科技對人類的影響尤其是AI對社會的影響,考察如何定量評估干預產(chǎn)生的效果,利他的同時達成利己。

回到本文開篇提到的奧特曼被免,OpenAI董事會大改組,對普羅大眾來說,這場戲劇性事件除了能為八卦談資增加題材,更向大眾揭開了AI與安全這個命題的面紗。由陌生到開始了解,從有所了解到更深入地探究,OpenAI風波好比是向大眾啟蒙AI安全問題的重要與迫切,這也是這個事件產(chǎn)生的積極社會影響。

AI監(jiān)管,及國際合作

近幾年來,中國、歐盟、美國等全球的主要國家和地區(qū),有關(guān)AI監(jiān)管都出臺了一系列法律法規(guī),主要涉及隱私保護、數(shù)據(jù)安全、防范AI的武器化應用、算法反歧視等方面。這些都是重要問題,但不得不說,更重要的問題在于:AI一旦演進成為超級智能,將在多大程度影響人類安全本身?或者說,人類是否持續(xù)可以保有對AI的控制權(quán)?

令人欣慰的是,今年11月初在英國召開了人工智能安全峰會,包括中國在內(nèi)超過25個國家的政府代表和科技界人士參加。參會成員國同意以國際合作的途徑,建立人工智能的有效監(jiān)管方法。盡管這看著是一個松散的非正式的合作模式,但是合作好過不合作,中國參與其中也可以爭取到發(fā)言權(quán)和交換意見的渠道。

可以說,人工智能的風險和對人類可能產(chǎn)生的根本性的影響,其重要性和后果一點都不遜于碳排放等問題,可以說有過之而無不及。正如代表中國參會的科技部副部長吳朝暉所指出的,人工智能的治理攸關(guān)全人類的命運,是世界各國面臨的共同課題。

耐人尋味的是,在英國AI峰會后發(fā)布的全體與會國家宣言中,特別強調(diào)的一點是各國要加強合作,識別、理解AI帶來的風險,并采取適當?shù)男袆印P赃M一步指出,需要加深對于潛在風險的理解。從這些字里行間透露出來的信號是,AI迅猛發(fā)展,各國政府承認看不清楚其前景。

馬斯克也參加了這次峰回,他對記者表示,在監(jiān)管AI之前,必須要有洞察力。換言之,風險撲朔迷離,首要步驟是清晰識別和理解風險。

而識別和理解AI風險,需要政府和科技界緊密合作,后者向前者介紹AI的發(fā)展狀況和風險,幫助政府了解和理解,進而制定規(guī)范,調(diào)動資源,有效監(jiān)管。如此才談得上有效控制風險,指導科技界負責任地開發(fā)和部署人工智能。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港