展會信息港展會大全

前谷歌CEO施密特署名文章:在AI會走之前不要嘗試去跑
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-07-06 19:20:56   瀏覽:7117次  

導讀:又是一個各種極端天氣頻出的夏季,前所未有的熱浪、野火和洪水席卷了世界各國。想要準確預測此類極端情況一直是一個挑戰(zhàn),作為潛在的應(yīng)對手段,半導體巨頭英偉達正在為地球打造一個人工智能驅(qū)動的數(shù)字孿生版本。 這個數(shù)字孿生名為Earth-2,它將使用人工智能...

又是一個各種極端天氣頻出的夏季,前所未有的熱浪、野火和洪水席卷了世界各國。想要準確預測此類極端情況一直是一個挑戰(zhàn),作為潛在的應(yīng)對手段,半導體巨頭英偉達正在為地球打造一個人工智能驅(qū)動的“數(shù)字孿生”版本。

這個數(shù)字孿生名為“Earth-2”,它將使用人工智能模型 FourCastNet 的預測,在數(shù)十 TB 的地球系統(tǒng)數(shù)據(jù)的幫助下,比現(xiàn)有預測方法更快、更準確地預測未來兩周的天氣。

常見的天氣預報系統(tǒng)有能力為未來一周生成大約 50 個預報,而 FourCastNet 可以生成數(shù)千種預測,準確捕捉罕見但致命的災(zāi)難風險,從而為弱勢群體提供寶貴的準備和疏散時間。

人們寄予厚望的氣候建模革命只是一個開始。隨著人工智能的出現(xiàn),科學將變得更加令人興奮,并且在某些方面變得前所未有的陌生。這種轉(zhuǎn)變將在實驗室以外的地方出現(xiàn),它們將影響我們所有人。

(來源:CHRISTOPH BURGSTEDT/SCIENCE PHOTO LIBRARY)

如果我們做出對的選擇,通過合理的監(jiān)管和對人工智能創(chuàng)新應(yīng)用的恰當支持來解決科學上最緊迫的問題,那么人工智能就可以改寫科學進程。我們可以建立一個未來,在這個未來中,人工智能驅(qū)動的工具將讓我們免于無意識和耗時的勞動,也將引導我們進行創(chuàng)造性的發(fā)明和發(fā)現(xiàn),讓那些原本需要幾十年時間的突破成果更快出現(xiàn)。

近幾個月來,大型語言模型(LLM,large language model)幾乎已經(jīng)成為人工智能的代名詞,但在科學領(lǐng)域,有許多不同的模型架構(gòu)可能會產(chǎn)生更大的影響。在過去的十年里,科學的大多數(shù)進步都來自于專注特定問題的較小的“經(jīng)典”模型。這些模型已經(jīng)帶來了深遠的進步。最近,融合了跨領(lǐng)域知識和生成式人工智能的、體積更大的深度學習模型擴大了可能性。

例如,來自加拿大麥克馬斯特大學和美國麻省理工學院的科學家使用人工智能模型來識別一種抗生素,以對抗被世界衛(wèi)生組織稱為世界上最危險的耐藥細菌之一(的病原體)。谷歌 DeepMind 模型可以控制核聚變反應(yīng)中的等離子體,使我們離清潔能源革命更進一步。在醫(yī)療保健領(lǐng)域,美國食品和藥物管理局已經(jīng)批準 523 種使用人工智能的設(shè)備用于放射學。

重塑科學

從本質(zhì)上講,我們在小學學到的科學過程將保持不變:進行背景研究,確定假設(shè),通過實驗進行檢驗,分析收集的數(shù)據(jù),并得出結(jié)論。但人工智能有可能在未來徹底改變這些步驟的具體實踐。

人工智能已經(jīng)改變了一些科學家進行文獻綜述的方式。PaperQA 和 Elicit 等工具使用了大型語言模型(LLM)掃描文章數(shù)據(jù)庫,并對現(xiàn)有文獻引文進行簡潔而準確的總結(jié)。

一旦文獻綜述完成,科學家們就形成了一個有待檢驗的假設(shè)。LLM 的核心工作原理是預測句子中的下一個單詞,構(gòu)建完整的句子和段落。這使得 LLM 特別適用于科學領(lǐng)域的結(jié)構(gòu)清晰的問題,并使其能夠幫助科學家找到物理學或生物學的下一個重大發(fā)現(xiàn)。

人工智能還可以更快地擴大假設(shè)的搜索范圍,再縮小潛在目標的范圍。因此,人工智能工具可以幫助制定更有力的假設(shè),例如為新藥提供更有前景的候選模型。我們已經(jīng)看到模擬的運行速度比幾年前快了幾個數(shù)量級,這使得科學家在進行真實世界的實驗之前可以在模擬中嘗試更多的設(shè)計選項。

例如,美國加州理工學院的科學家使用人工智能流體模擬模型自動設(shè)計了一種更好的導管,可以防止細菌向上游游動并導致感染。這種能力將從根本上改變科學發(fā)現(xiàn)的漸進過程,使研究人員能夠從一開始就為最佳解決方案進行設(shè)計,而不是像我們曾經(jīng)對燈絲的改良那樣,通過一大堆逐漸改進的設(shè)計來取得進展。

進入實驗階段,人工智能將能夠更快、更便宜、更大規(guī)模地進行實驗。例如,我們可以用數(shù)百個日夜運行的微量移液器制造人工智能驅(qū)動的機器,以前所未有的速度產(chǎn)生樣本?茖W家可以使用人工智能工具進行一千次實驗,而不再因為樣本有限,不得不將自己限制在有限的實驗次數(shù)中。

擔心下一次資助、出版或任期過程的科學家將不再局限于成功幾率最高的安全實驗,他們可以自由地追求更大膽、更跨學科的假設(shè)。例如,在評估新分子時,研究人員傾向于選擇與我們已經(jīng)知道的分子結(jié)構(gòu)相似的候選分子,但人工智能模型沒有相同的偏見和約束。

最終,大部分科學過程將在“自主運行的實驗室”中進行,即與人工智能相結(jié)合的自動化機器人平臺。在這里,我們可以將人工智能能力從數(shù)字領(lǐng)域帶入物理世界。這種自主運行的實驗室已經(jīng)在 Emerald Cloud Lab 和 Artificial 等公司出現(xiàn),甚至在美國阿貢國家實驗室也出現(xiàn)了。

最后,在分析和結(jié)論階段,自主運行的實驗室將超越自動化,根據(jù)產(chǎn)生的實驗結(jié)果,使用 LLM 來解釋結(jié)果,并推薦下一個實驗。然后,作為研究過程中的合作伙伴,人工智能實驗室人類助理可以訂購消耗品來補滿實驗中消耗的,并在一夜之間設(shè)置和運行下一個推薦的實驗,結(jié)果可以隨時公布,甚至是當科學家睡覺的時候。

可能性和局限性

年輕的研究人員可能對這一前景感到緊張。幸運的是,這場革命創(chuàng)造的新工作可能比目前大多數(shù)實驗室工作更有創(chuàng)意,也沒有那么無腦。

人工智能工具可以降低新科學家的進入門檻,并為那些傳統(tǒng)上被排除在該領(lǐng)域之外的人打開機會。有了 LLM 能夠幫助構(gòu)建代碼,STEM(Science、Technology、Engineering)學生將不再需要掌握晦澀難懂的代碼構(gòu)建,這為新的非傳統(tǒng)人才打開了象牙塔的大門,并使科學家更容易參與自己研究方向以外的領(lǐng)域。很快,經(jīng)過專門培訓的 LLM 可能會不僅限于提供書面工作的初稿,并可能被開發(fā)為與人類評審員一起評審新論文的“同行”。

人工智能工具有著令人難以置信的潛力,但我們必須認識到人的價值和重要性,同時也不能在學會走路之前嘗試跑步。例如,通過自主運行實驗室將人工智能和機器人技術(shù)成功融合并非易事?茖W家們在實驗室里學到了很多隱性知識,這些知識很難傳授給人工智能驅(qū)動的機器人。同樣,在我們將大部分文書工作、研究和分析交給 LLM 之前,我們應(yīng)該意識到當前 LLM 的局限性,甚至是幻覺。

像 OpenAI 和 DeepMind 這樣的公司仍然在新的突破、模型和研究論文方面處于領(lǐng)先地位,但目前的行業(yè)主導地位不會永遠持續(xù)下去。到目前為止,DeepMind 在具有明確目標和指標的、定義明確的問題方面表現(xiàn)出色。它最著名的成功案例之一是在兩年一度的 Critical Assessment of Structure Prediction(CASP)競賽上,其研究團隊根據(jù)蛋白質(zhì)的氨基酸順序預測蛋白質(zhì)的確切形狀。

從 2006 年到 2016 年,在 CASP 競賽的 1 到 100 分制中,最難類別的平均分數(shù)在 30 到 40 分之間。突然間,在 2018 年,DeepMind 的 AlphaFold 模型獲得了驚人的 58 分。兩年后,一個名為 AlphaFold2 的更新版本獲得了 87 分,使其人類競爭對手難以望其項背。

得益于開源資源,我們開始看到一種模式,即行業(yè)達到某些基準,然后學術(shù)界介入完善模型。在 DeepMind 發(fā)布 AlphaFold 后,美國華盛頓大學的民川百可(Minkyung Baek)和大衛(wèi)貝克(David Baker)發(fā)布了 RoseTTAFold,該軟件使用 DeepMind 的框架來預測蛋白質(zhì)復合物的結(jié)構(gòu),而不是僅預測 AlphaFold 最初可以處理的單個蛋白質(zhì)結(jié)構(gòu)。更重要的是,學者們更不容易受到市場競爭壓力的影響,因此他們可以超越吸引 DeepMind 的明確問題和可量化的成功。

除了達到新的高度,人工智能還可以通過解決科學的可復制性危機來幫助驗證我們已經(jīng)知道的事情。大約 70% 的科學家報告說,他們無法復制另一位科學家的實驗,這是一個令人沮喪的數(shù)字。隨著人工智能降低了實驗的成本和工作量,在某些情況下,成功復制結(jié)果或得出無法復制的結(jié)論會更容易,這有助于增強人們對科學的信任。

可復制性和信任的關(guān)鍵在于透明度。在理想的世界里,科學領(lǐng)域的一切都是開放獲取的,從無需付費的論文到開源數(shù)據(jù)、代碼和模型。可悲的是,由于這些模型可能會帶來危險,使所有模型都開源是不現(xiàn)實的。在許多情況下,完全透明的風險大于信任和公平的好處。盡管如此,在一定程度上,我們?nèi)钥梢裕ǘ覒?yīng)該)讓模型更透明,尤其是使用場景更有限的經(jīng)典人工智能模型。

監(jiān)管的重要性

對于所有這些領(lǐng)域,我們必須記住人工智能的固有局限性和風險。人工智能是一種強大的工具,因為它可以讓人類用更少的時間、更少的教育、更少的設(shè)備完成更多的任務(wù)。但這些能力亦會讓其成為危險的武器。美國羅切斯特大學教授安德魯懷特(Andrew White)與 OpenAI 簽訂了合同,參與一個“紅色團隊”,該團隊的目的是在 GPT-4 發(fā)布前發(fā)現(xiàn)其風險。

在拿到該語言模型及相關(guān)工具后,懷特發(fā)現(xiàn)它可以給出包含危險化合物的回答,甚至可以從化學品供應(yīng)商那里訂購。為了測試這個過程,他曾成功地把一個(安全的)測試化合物送到了家里。OpenAI 表示,在 GPT-4 發(fā)布之前,它利用懷特的發(fā)現(xiàn)對其模型進行了調(diào)整。

即使人類本意不壞,也可能促使人工智能產(chǎn)生糟糕的結(jié)果。正如計算機科學家斯圖爾特拉塞爾所說,我們應(yīng)該少擔心自己會創(chuàng)造出終結(jié)者,多擔心自己是否會成為米達斯國王他希望自己觸摸到的一切都能變成金子,因而意外地將自己的女兒“點石成金”。

我們目前沒有一套機制能促使人工智能改變其目標,即使它以我們意想不到的方式對其目標做出反應(yīng)。一個經(jīng)常被提到的思維實驗是這樣的:你告訴了一個人工智能系統(tǒng)制作盡可能多的回形針。為了實現(xiàn)其目標,該模型劫持了電網(wǎng),并殺死了任何試圖阻止其劫持電網(wǎng)的人。隨著回形針不斷增多,世界陷入一片混亂。到頭來,人工智能“心滿意足”地表示,自己已經(jīng)實現(xiàn)了目標。

OpenAI 已經(jīng)成功實施了一系列令人印象深刻的保護措施,但只有 GPT-4 位于 OpenAI 的服務(wù)器上,這些措施才會保持不變。很快就會有人復制模型并將其存儲在自己的服務(wù)器上。這些前沿模型需要得到保護,以防止居心不良的人拆除開發(fā)者精心添加的人工智能安全護欄。

為了解決對人工智能系統(tǒng)的有意和無意的濫用,我們需要對科技巨頭和開源模型進行聰明、知情的監(jiān)管,不要阻止我們以有利于科學的方式使用人工智能。盡管科技公司在人工智能安全方面取得了長足進步,但政府監(jiān)管機構(gòu)目前在制定適當法律方面準備不足,應(yīng)該在應(yīng)對和教育技術(shù)最新發(fā)展方面采取更多的行動。

除了監(jiān)管之外,政府和慈善機構(gòu)可以支持社會回報高、但經(jīng)濟回報或?qū)W術(shù)激勵少的科學項目。有幾個領(lǐng)域特別緊迫,包括氣候變化、生物安全和流行病防備。正是在這些領(lǐng)域,我們最需要人工智能模擬和自主運行實驗室?guī)淼乃俣群鸵?guī)模。

在安全考量允許的情況下,政府還可以幫助開發(fā)大型、高質(zhì)量的數(shù)據(jù)集,例如 AlphaFold 所依賴的數(shù)據(jù)集。開放數(shù)據(jù)集是公共產(chǎn)品:它們使許多研究人員受益,但研究人員幾乎沒有動力去創(chuàng)建它們。政府和慈善組織可以與大學和公司合作,找出科學領(lǐng)域的重大挑戰(zhàn),強大的數(shù)據(jù)庫將幫助我們更好地應(yīng)對這些挑戰(zhàn)。

在化學研究領(lǐng)域,沒有人能夠正確地匯總存儲在數(shù)十個數(shù)據(jù)庫中的分子性質(zhì)數(shù)據(jù)。如果我們只有一個數(shù)據(jù)來源的話,就無法獲得人工智能模型所能獲得的對該領(lǐng)域的見解。

與此同時,生物學缺乏物理學或化學的已知和可計算的數(shù)據(jù),像內(nèi)在無序的蛋白質(zhì)這樣的子領(lǐng)域?qū)ξ覀儊碚f仍然是神秘的。因此,需要更協(xié)調(diào)一致的努力來理解甚至記錄匯總數(shù)據(jù)庫中的數(shù)據(jù)。

在科學領(lǐng)域廣泛采用人工智能的道路是漫長的,我們必須做很多正確的事情,從建立正確的數(shù)據(jù)庫到實施正確的法規(guī),從減輕人工智能算法中的偏見,再到確保有需要的科學家能夠平等地獲取計算資源。

盡管如此,我們?nèi)蕴幱谝粋非常樂觀的時刻。以前的科學范式轉(zhuǎn)變,比如科學過程或大數(shù)據(jù)的出現(xiàn),一直集中在內(nèi)部,使科學更加精確、準確和有條理。與此同時,人工智能有著廣闊的發(fā)展空間,使我們能夠以新穎的方式將信息結(jié)合起來,并將科學的創(chuàng)造力和進步帶到新的高度。

作者簡介:埃里克施密特(Eric Schmidt)于 2001 年至 2011 年擔任谷歌 CEO。他目前是 Schmidt Futures 的聯(lián)合創(chuàng)始人,這是一項慈善倡議組織,專注于在早期押注于杰出人才,讓世界變得更美好,通過應(yīng)用科學和技術(shù),將各個領(lǐng)域的人才聚集起來。

支持:Ren

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港