展會信息港展會大全

AI來了,新奇之余擔憂顯現
來源:互聯網   發(fā)布日期:2023-12-25 09:46:58   瀏覽:9399次  

導讀:2023年對AI(人工智能)來說意味著什么?每個人可能都有自己的答案。這一年,AI真正進入公眾視野。這一年,聊天機器人和其他生成式AI技術迎來爆發(fā)。也是這一年,政府及其他組織開始認真對待AI的風險。 在一組照片上,美國前總統(tǒng)特朗普狼狽地被一群警察追逐,...

2023年對AI(人工智能)來說意味著什么?每個人可能都有自己的答案。這一年,AI真正進入公眾視野。這一年,聊天機器人和其他生成式AI技術迎來爆發(fā)。也是這一年,政府及其他組織開始認真對待AI的風險。

在一組“照片”上,美國前總統(tǒng)特朗普狼狽地被一群警察追逐,并在混亂中被制伏。當時恰逢特朗普面臨刑事訴訟,這些圖片一時間引發(fā)了震驚和困惑,但很快被證實是AI生成的假照片。

類似的案例越來越多,擔憂隨之而來。AI技術使得虛假信息變得更加難以鑒別,可能被用于詐騙,也可能被用于影響輿論和選舉。2024年將是全球選舉大年,多國將迎來大選,AI技術將成為選舉中的不確定因素。

監(jiān)管AI的呼聲漸起。從一封科學家和研究人員聯名呼吁暫停開發(fā)AI公開信,到我國首個AI監(jiān)管文件,再到全球首屆AI安全峰會和歐盟首部“AI法”……這一年,AI安全已經上升為全球政治的中心話題之一。

生成式AI爆發(fā)

去年年底,一款新的AI聊天機器人問世,它以近乎人類的文字運用能力進行溝通。不久之后,更多的AI系統(tǒng)不僅生成文字,還生成圖像、音頻、視頻和音樂等。這些系統(tǒng)被稱為生成式AI。

人們漸漸開始使用AI進行娛樂、學習、寫作、編程、制作圖像和視頻等。廣告業(yè)開始通過AI幫助生成廣告?萍挤⻊展臼褂肁I幫助客戶修復技術漏洞。藝術家運用AI創(chuàng)作藝術作品。眾多企業(yè)開始尋求將生成式AI工具集成到其現有產品或服務中去。

英國一家研究機構11月發(fā)布的調查報告顯示,英國約五分之四的青少年正在使用生成式AI工具,澳大利亞約三分之二的員工在工作中使用生成式AI。

甚至新的工作崗位開始出現,比如提示詞工程師,他們通過設計適當的提示詞,合理利用不同的AI模型,實現最優(yōu)的輸出內容。

業(yè)內人士預測,AI發(fā)展的下一個里程碑將是生成式AI系統(tǒng)變得更加多模態(tài),即它能夠處理文本、圖像、音頻、視頻等多種類型的數據,這意味著AI將對現實世界有更深入的理解。

開啟“潘多拉”之盒?

然而,新奇之余,擔憂也開始顯現。

在世界各地,學生開始讓AI代寫論文、作答家庭測驗,引發(fā)了教育界的擔憂,一些學校不得不禁止學生使用AI工具。

AI聊天機器人在回答中常常犯事實性錯誤。它們以絕對肯定的語言撒謊或胡言亂語。研究人員稱這種現象為“幻覺”。開發(fā)AI聊天機器人的公司警告說,不能全部相信聊天機器人所說的話。

AI換臉和聲音克隆技術被用于網絡詐騙。不法分子可以使用這些新技術在視頻通話中模擬他人的面部和聲音,令人一時難以辨別真?zhèn)巍?/p>

據追蹤虛假信息的組織NewsGuard在12月發(fā)布的報告,自今年4月以來,該組織記錄的利用AI制造假新聞的網站從49個激增至600多個,增長11倍有余。

9月,在斯洛伐克,全國選舉投票日前夕,一段聽起來像是一名候選人的聲音的音頻在社交媒體傳播,音頻中的聲音似乎在描述通過賄賂部分選民來操縱選舉的計劃。事后,核查人員指出,音頻有AI偽造跡象。

10月,阿根廷舉行大選,兩名領先候選人的團隊和支持者都使用AI生成了大量宣傳內容,被媒體稱為全球首個“AI大選”。

分析人士認為,美國、印度、俄羅斯、墨西哥等國都將在明年迎來全國選舉,AI制作的宣傳內容和虛假信息預計都將出現大幅上升,可能成為影響選舉的一大因素。

搶走人類“飯碗”?

對大眾而言,更大的擔憂或許是AI可能會取代人類的工作。

當生成式AI工具可以生成文字、圖像、音樂、聲音、代碼等內容時,它們似乎威脅到任何從事相關領域工作的人。

今年5月,在美國,好萊塢編劇舉行罷工,要求制片方禁止使用AI生成劇本,他們擔心自己的工作會被AI取代。

高盛公司的一份評估報告預測,未來,生成式AI將可以取代目前人類工作崗位總量的四分之一,僅在歐盟和美國,3億個人類工作崗位可能因AI而消失。不過,生成式AI也會造就許多高創(chuàng)造力的新崗位。

美國未來學家馬丁福特認為,在AI面前,短期內相對安全的職位有三類:真正創(chuàng)新性的工作,比如提出新的商業(yè)策略和法律策略等;需要復雜人際交往的工作,比如護士、商業(yè)顧問和調查記者;需要大量移動性和靈巧度的技術工種,比如電工、管道工、焊工等。

把AI管起來

AI技術爆發(fā)式發(fā)展,AI監(jiān)管隨之而起。

3月,一批AI科學家和研究人員呼吁暫停AI開發(fā)六個月。“只有當我們確信其影響將是積極的,其風險將是可控的時候,才應該開發(fā)強大的AI系統(tǒng)。”他們在信中說。

當然,AI開發(fā)沒有因為這封信而暫停。但這封信傳達了一個強烈信號,即人類已經到了需要關注AI帶來的風險的時刻了。

同月,聯合國教科文組織總干事奧德蕾阿祖萊發(fā)表聲明,呼吁各國盡快實施該組織通過的《人工智能倫理問題建議書》,為人工智能發(fā)展設立倫理標準。

7月,中國政府發(fā)布《生成式人工智能服務管理暫行辦法》,以促進生成式人工智能健康發(fā)展和規(guī)范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。

10月,美國總統(tǒng)拜登簽署行政命令,推動15家AI領域領軍企業(yè)自愿承諾推動安全、可靠和可信的AI發(fā)展的工作,并建立AI安全的新標準。

11月,首屆全球人工智能(AI)安全峰會在英國舉辦,包括中國、美國、英國在內的28個國家及歐盟共同簽署了《布萊切利宣言》,承諾以安全、以人為本、值得信賴和負責任的方式設計、開發(fā)、部署和使用AI。

12月,歐洲議會、歐盟成員國和歐盟委員會三方就《人工智能法案》達成協議,該法案經過多年辯論,為AI應用設置了規(guī)則和風險分級制度,這是全球首個針對AI的主要法規(guī)。

2023年4月14日,新京報專訪加利福尼亞大學伯克利分校計算機科學教授斯圖爾特羅素報道版面。

記者手記

今年年初,AI聊天機器人突然走紅。人們在新奇中夾雜疑慮。恰逢一批科學家和業(yè)內人士寫了一封公開信,呼吁暫停正在進行的AI開發(fā)競賽,并警告AI的風險。

這封公開信的末尾附著一連串響亮的名字:圖靈獎得主、蒙特利爾大學教授約書亞本吉奧,加利福尼亞大學伯克利分校計算機科學教授、智能系統(tǒng)中心主任斯圖爾特羅素,特斯拉創(chuàng)始人埃隆馬斯克,蘋果聯合創(chuàng)始人史蒂夫沃茲尼亞克,以色列學者尤瓦爾赫拉利……

我們順著這份名單一個接著一個聯系,多數人出于各種原因沒有接受采訪。幸好,斯圖爾特羅素回復說可以通過郵件回答一些問題。羅素是國際人工智能聯合會議(IJCAI)兩項大獎得主,其與他人合著的《人工智能:一種現代的方法》被譽為人工智能領域最受歡迎的教材。

我們與羅素在兩周時間內斷斷續(xù)續(xù)地溝通了十幾封郵件。羅素及一批科學家擔心的AI風險,并不只是我們目前能夠看到的信息不準確、利用AI造假等,更多是對未來不確定性的擔憂。

他進一步解釋道,大型語言模型是非常大的“黑箱系統(tǒng)”(Black-box system),即一個系統(tǒng)的內部運作方式對于外部觀察者是不可見的或難以理解的。因此,即使我們賦予AI的是一個善意的目標,它仍可能帶來災難性后果。

羅素假設了一個場景:假如抽掉大氣中的氧氣可以阻止氣候變化,人類肯定不會同意這種方案,因為沒有氧氣會導致所有人類滅亡,但AI可能會認為這個方案是沒有問題的,因為這個方案可以實現其預設的阻止氣候變化的目標,且它自身也不需要依靠氧氣來生存。

對于羅素提出這個假設,業(yè)界正在試圖給出解決方案。不少AI模型開發(fā)商采取“基于人類反饋的強化學習”(RLHF)技術,繞過了給AI設置目標這一風險環(huán)節(jié)。通俗來說,RLHF有一點像馴狗,人類評估員對AI作出的不同響應給予“獎勵”和“懲罰”,以此來規(guī)范AI。另外,有研究團隊提出編寫一部AI“憲法”,即一套AI必須遵守的規(guī)則和價值觀來規(guī)范AI。

但這兩種路徑各有短板或難點。前者需要大量的人力,且對于今后可能出現的超越人類思維能力的AI來說,這一方法可能不會奏效。后者的問題之一是誰來編寫這些規(guī)則,應該由專業(yè)人士操刀還是應該鼓勵大眾參與。

AI監(jiān)管領域遇到的另一個難題是技術發(fā)展快,去年的AI監(jiān)管方案可能今年就過時了。比如,歐盟前幾年在討論AI監(jiān)管時,還沒有遇到生成式AI爆炸式發(fā)展。因此,今年歐盟在通過“AI法”之前,不得不對其進行大幅修改。

回到年初科學家們發(fā)出的那封公開信,其實他們很明白,從可行性角度來看,在世界范圍內協調所有政府、企業(yè)叫停AI開發(fā)是一件幾乎不可能的事。羅素自己也說,這封公開信的意圖是引發(fā)世界各地媒體和政府的關注。在過去一年內,首屆全球AI安全峰會召開,首部“AI法”誕生,注意力和資源都開始涌入這一領域,羅素等人的意圖無疑是實現了。

新京報記者 陳奕凱

編輯 張磊 校對 付春 劉越

贊助本站

人工智能實驗室
相關內容
AiLab云推薦
推薦內容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港