展會信息港展會大全

諾蘭專訪:AI不是原子彈,但將其捧上神壇最危險
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-22 20:27:35   瀏覽:6230次  

導(dǎo)讀:這可能是英國著名導(dǎo)演克里斯托弗諾蘭,發(fā)布新片最好的時機,沒有之一。 在《信條》(Tenet)因為新冠疫情「折戟」之后,導(dǎo)演的新片《奧本海默》(Oppenheimer)即將于一個月后開畫。 這部講述「原子彈之父」羅伯特奧本海默生平的影片,聚焦于一個富有魅力和...

這可能是英國著名導(dǎo)演克里斯托弗諾蘭,發(fā)布新片最好的時機,沒有之一。

在《信條》(Tenet)因為新冠疫情「折戟」之后,導(dǎo)演的新片《奧本海默》(Oppenheimer)即將于一個月后開畫。

這部講述「原子彈之父」羅伯特奧本海默生平的影片,聚焦于一個富有魅力和智慧的男人,如何率領(lǐng)「地球上最聰明的大腦」,攻克物理學(xué)難題的同時,發(fā)明了世界上最危險的武器的故事。

諾蘭及其同輩人成長中對于「核威脅」的恐懼,在當(dāng)下有了新的回響。

只不過,這次原子彈有了新的名字,叫 AI

ChatGPT 技術(shù)讓人工智能再次大火,而對于新技術(shù)的恐懼和興奮呈同樣態(tài)勢。數(shù)百位 AI 專家一同發(fā)布聯(lián)名信,聲明人工智能可能帶來的「滅絕人類」的威脅。

連線 Wired 近期刊載了克里斯托弗諾蘭導(dǎo)演的專訪長文,導(dǎo)演在其中闡述了對于當(dāng)下熱議的「AI 威脅」的看法,以及人工智能和 70 年前核威脅的比較。

曾經(jīng)在《星際穿越》中用愛拯救人類的諾蘭卻認為,AI 最大的威脅,是人類有一種本能的欲望,希望將其造物捧上神壇,進而擺脫自己需要承擔(dān)的一切責(zé)任。

導(dǎo)演一針見血地指出,相對于奧本海默一輩科學(xué)家在科學(xué)與當(dāng)權(quán)者之間的掙扎和反抗,當(dāng)下 AI 從業(yè)者的「求監(jiān)管」,是「虛偽」的。

同時,作為執(zhí)著于膠片的老派電影人,諾蘭對于生成式 AI 在影視創(chuàng)作領(lǐng)域的發(fā)展抱有期待,但自己想做的,還是「要給演員一個真實的氛圍和環(huán)境」。

人類最大的危險,是放棄責(zé)任。」諾蘭在采訪中說道。

標題:How Christopher Nolan Learned to Stop Worrying and Love AI

鏈接:https://www.wired.com/story/christopher-nolan-oppenheimer-ai-apocalypse

作者: MARIA STRESHINSKY

編譯:靖宇

以下為采訪對話原文,編者進行了不改變原意的修整

毀滅世界,原子彈第一

問:感覺你和艾瑪(諾蘭的妻子,他一直以來的制片人)的工作,從某種程度上,一直在為《奧本海默》做準備。

諾蘭:這就是我對這部電影的感覺。

我對所做的每個項目都有這種感覺。因為我試圖在以前所學(xué)的基礎(chǔ)上繼續(xù)前進。每當(dāng)你完成一部電影,都會有一些問題懸而未決。因此,在下一部電影中,你會把留下來的問題撿起來。

在《奧本海默》中,非常有字面意義,《信條》(Tenet,諾蘭的前一部電影)中就提到了奧本海默。

問:所以他在你的腦海中已經(jīng)存在了一段時間。

諾蘭:奧本海默的故事已經(jīng)伴隨我多年。這是一個令人難以置信的想法有人試圖通過計算,來尋找理論和現(xiàn)實世界之間的關(guān)系,然后有一個非常小的可能性,他們將摧毀整個世界。然而,他們還是按下了按鈕。

問:非常戲劇性。

諾蘭:我是說,這簡直是最戲劇性的時刻,在整個人類歷史上來看。

問:很多人可能不知道,當(dāng)我們在 1945 年投下炸彈時,這不僅是一個可怕的時刻,也正是這個時刻,讓人們了解到人類現(xiàn)在擁有了可以消滅整個人類的能力。

諾蘭:我對奧本海默的感覺是,很多人知道這個名字,知道他與原子彈有關(guān),在美國歷史的關(guān)系中還發(fā)生了一些復(fù)雜的事情,此外就沒了。

坦率地說,對我來說,這就是我的電影的理想觀眾。那些什么都不知道的人將會得到最瘋狂的體驗。因為這是個瘋狂的故事。

問:你是指他的個人故事?

諾蘭:觀眾應(yīng)該了解,因為他是有史以來最重要的人之一。

諾蘭御用演員希里安墨菲在片中扮演奧本海默|豆瓣電影

問:電影里有一句臺詞,有人對奧本海默說,你可以讓任何人做任何事。類似這樣的話。他是一個出色的管理者,對一切了如指掌,在那個房間里,有些科學(xué)家在做 X,而在另一個房間里,那些科學(xué)家在做 Y,他是一個能把這一切記在腦子里的人。

諾蘭:他知道如何通過他的角色的戲劇性來激勵人們,投射他自己的光輝。他給所有的科學(xué)家、官員,每個人一個聚焦的目標。

問:他擁有真正的魅力。

諾蘭:魅力,這是個完美的詞。它讓一切得以成形,這部電影經(jīng)常涉及到這一點,正是他的魅力,讓這些學(xué)者、這些理論家能夠走到一起,用他們自己的雙手建立起如此巨大、如此重要的東西。這是個奇跡。

問:談到建立一個巨大的東西,我最近在溫哥華的 TED 會議上,最有趣的會議之一是一系列關(guān)于生成式人工智能的談話。很多發(fā)言者都提到了原子彈、核武器。最后一位發(fā)言者是一位技術(shù)專家他談到了人工智能不可避免的武器化。

演講結(jié)束時他說,維持世界秩序的唯一途徑是擁有更好的人工智能武器。那是一種威懾。這聽起來很像人們對原子彈的看法。感覺你的電影找到了最合適的發(fā)行時機。

諾蘭:我認為這種關(guān)系是一個有趣的問題。這是不一樣的。但這是最好的比喻這就是為什么我在《信條》中使用它不假思索地向世界釋放一項新技術(shù)的危險性。這是一個警告性的故事。我們可以從中吸取教訓(xùn)。

話雖如此,我確實相信,就改變和危及世界的技術(shù)而言,原子彈是獨一無二的。

問:而且這些技術(shù)的起源是不一樣的?

諾蘭:有根本的區(qū)別。

研究原子分裂的科學(xué)家們一直試圖向政府解釋:(核能)是自然界的一個事實,來源于上帝、或任何創(chuàng)世者。這只是關(guān)于自然的知識,它不可避免地將會發(fā)生。沒有人可以隱藏它,我們沒有創(chuàng)造,也不擁有它。他們是這么看的。

問:換句話說,他們覺得自己只是揭示了已經(jīng)存在的東西。

諾蘭:而我認為你很難對人工智能提出這樣的論點。當(dāng)然,肯定有人會這樣做。

問:你一定是在炸彈的陰影下長大的。

諾蘭:我是在 20 世紀 80 年代的英國長大的,我們有一系列核裁軍之類的運動,人們非常、非常清楚核武器的威脅。當(dāng)我 13 歲時,我和朋友們相信,我們最終會在核災(zāi)難中死去。

問:但你們沒有,世界在繼續(xù)前進。

諾蘭:有一天,我和史蒂文斯皮爾伯格談起這個問題,他是在 60 年代古巴導(dǎo)彈危機的威脅下長大的。一樣一樣的。

在人類歷史上,有些時候,核戰(zhàn)爭的危險對我們來說是如此的觸手可及、觸目驚心,以至于我們對它非常了解。當(dāng)然,我們也只能擔(dān)心這么久,然后繼續(xù)前進,開始擔(dān)心其他事情。問題是,危險實際上并沒有消失。

問:對。我的意思是,我覺得一個月前,我們都在擔(dān)心某些國家可能真的會使用核武器。

諾蘭:我記得 80 年代的情況是,對核戰(zhàn)爭的恐懼已經(jīng)退去,轉(zhuǎn)而對環(huán)境破壞的恐懼。這幾乎就像人類無法對單一一種威脅保持長時間的恐懼,我們與恐懼有一種復(fù)雜的關(guān)系。

是的,某些國家一直在利用這種末日威脅和這種恐懼來搖旗吶喊。這讓人非常不安。

導(dǎo)演諾蘭工作照|環(huán)球影業(yè)

將 AI 捧上神壇,才最危險

問:和人工智能末日的威脅一樣讓人不安?

諾蘭:好吧,人工智能在武器系統(tǒng)方面的增長,以及它將產(chǎn)生的問題在很多年前就已經(jīng)非常明顯,很少有記者費心去寫它。現(xiàn)在有一個聊天機器人可以為當(dāng)?shù)貓蠹垖懸黄恼,突然就成了一個危機

問:我們這些做媒體的人,多年來一直在這樣做。盲目追求。我們中的一些人正在寫關(guān)于人工智能的文章,因為它可以使我們失去工作。

諾蘭:這就是問題的一部分。對我來說,人工智能是一個非常簡單的問題,這就像算法這個詞。我們看到公司使用算法,現(xiàn)在是人工智能,作為逃避其行為責(zé)任的一種手段。

問:請多解釋兩句。

諾蘭:如果我們認可人工智能是全能的觀點,我們就是認可它可以減輕人們對其行為的責(zé)任在軍事上、社會經(jīng)濟上等等。

人工智能最大的危險在于,我們將這些神一樣的特性歸于它,從而讓我們自己擺脫了困境。

我不知道這其中的神話基礎(chǔ)是什么,但縱觀歷史,人類有這種傾向,即創(chuàng)造虛假的偶像,以我們自己的形象塑造一些東西,然后說我們有神一樣的力量,因為我們做出了這些東西。

問:這感覺非常,非常正確。就像我們正處于那個臨界點。

諾蘭:正是如此。

問:有了這些大型的語言模型,機器甚至下一步可能開始自學(xué)。

諾蘭:洛杉磯時報上有一篇關(guān)于 ChatGPT 和 OpenAI 的有趣文章。它基本上 ChatGPT 是一個銷售手段,OpenAI 現(xiàn)在是一家私人公司。他們有世界上最偉大的銷售機器,而這是一個非常危險的東西。也許我們不應(yīng)該推向大眾,因為現(xiàn)在每個人都想要 AI 助手了。

這并不意味著這里沒有真正的危險,因為我覺得有。但我個人,這只是我的觀點,我認為危險在于放棄責(zé)任

問:人們一直說需要有一個國際機構(gòu)來監(jiān)管 AI。

諾蘭:但這是科技公司最古老的政治伎倆。對吧?這就是,你知道,SBF 與 FTX 做的事(加密幣交易所崩盤丑聞);扎克伯格多年來一直要求被監(jiān)管。因為他們知道,我們選出來的官僚,根本搞不清這些問題。

問:正如我們從國會聽證會上看到的那樣?

諾蘭:他們又能說啥呢?我的意思是,這是非常專業(yè)的東西,當(dāng)權(quán)者對創(chuàng)作者和奧本海默讓我還是帶回到奧本海默。

奧本海默的問題是,他非常看重戰(zhàn)后科學(xué)家的作用他們作為專家,必須弄清楚如何控制核力量。但當(dāng)你看到發(fā)生在他身上的事情時,你就會明白,那是永遠不會被允許發(fā)生的。

這是科學(xué)和當(dāng)權(quán)者之間非常復(fù)雜的關(guān)系,它從未像奧本海默的故事那樣被殘酷地暴露出來。我認為可以從中吸取各種教訓(xùn)。

奧本海默同樣需要周旋于當(dāng)權(quán)者和科學(xué)之間|Total Film

問:比如說?

諾蘭:所以他試圖從體制內(nèi)開展工作,而不是轉(zhuǎn)身就說,你知道,我們需要的是愛,或者有的沒的。他的方法非常實際,但還是被擊垮了。這是非常復(fù)雜的,我認為現(xiàn)在的這些「發(fā)明家」,他們說「我們需要被監(jiān)管」是非常虛偽的。

問:奧本海默希望科學(xué)能夠被分享。

諾蘭:他使用的是坦誠(Condor)這個詞。坦誠。

問:他的想法似乎隨著氫彈的出現(xiàn)而發(fā)生了變化?

諾蘭:不,他也相信氫彈的事。這事有點意思,因為在某種程度上,有點劇透。但在另一個方面,那是歷史,你能谷歌搜索。

在這個重要時刻,隨著氫彈計劃的推進,他開始發(fā)表演講,他說,「我希望我能告訴你我所知道的。我不能。如果你知道我所知道的,你會明白,我們都必須分享信息。本質(zhì)上講,這是我們避免毀滅世界的唯一途徑。

所以坦率是他認為最實際的手段。他認為聯(lián)合國在未來是一個強大的機構(gòu),有真正的行動能力。他認為對全球?qū)υ幽艿目刂,才是確保世界和平的唯一途徑。顯然,這并沒有發(fā)生。

問:他沒有預(yù)見到現(xiàn)在正在發(fā)生的事情,民主國家的緩慢衰落。

諾蘭:我認為他根本沒看到這一點,當(dāng)時還是一個非常樂觀的時刻。

問:這就是為什么要有一個世界性的人工智能管理機構(gòu)。

諾蘭:對。但這是與拒絕受地域限制的科技公司打交道時的問題。

從制度上講,科技公司被鼓勵、并被允許規(guī)避政府監(jiān)管。這已經(jīng)成為一種「道德觀」。

順便說一下,這把我弄的好像認為硅谷很邪惡,所有這些人都很可怕。我不這么認為。這只是體制(System),它就是這么運行的。

問:在安全問題層面,核武器的制造需要特定元素,但 AI 沒有這個限制。

諾蘭:在第二次世界大戰(zhàn)期間,英國的核彈計劃是非常復(fù)雜的。他們有很多偉大的科學(xué)家。但丘吉爾政府意識到,他們只是沒有足夠的資源。所以他們把他們的一切都給了美國人。他們說,你們有體量,遠離前線有,有工業(yè)基矗

在我的研究中,我讀到一個統(tǒng)計數(shù)字,關(guān)于參與制造第一顆原子彈的美國人的數(shù)量大概在 50 萬左右。數(shù)家公司參與,這是一個巨大的物理過程,這就是為什么到今天,一個國家偷偷做核試驗很容易被發(fā)現(xiàn)。因此,有一些事情給我們一點保證,這個過程可以被管理。

而我認為這些限制,沒一個適用于人工智能。

問:對,確實不使用于 AI特別是當(dāng)我們所談?wù)摰娜斯ぶ悄艿囊恍〇|西是一種「更軟」的威脅。飛速蔓延的虛假信息,技術(shù)上的失業(yè)。

諾蘭:確實,但我不太我覺得人工智能仍然可以成為非常強大的工具。我對此持樂觀態(tài)度,我真的很樂觀。

但我們必須把它看作是一種工具,揮舞它的人仍然必須保持對揮舞該工具的責(zé)任。如果我們賦予人工智能以人類的地位,就像我們在某些時候?qū)舅龅哪菢樱敲词堑,我們將有巨大的問題。

AI 很好,但堅持傳統(tǒng)

問:你是否看到人工智能中的美妙之處,特別是在電影制作方面?

諾蘭:哦,當(dāng)然。整個機器學(xué)習(xí)應(yīng)用于深度偽造技術(shù)(Deepfake),這是在視覺效果和音頻方面的一個非凡的進步。從長遠來看,在環(huán)境營造方面,例如造出一扇門或者窗子。如果將事物外觀、事物的反光等等大量數(shù)據(jù)匯成數(shù)據(jù)庫,它將是非常強大的工具。

問:你會用 AI 去創(chuàng)作嗎?

諾蘭:我是非常老派的「模擬」(Analog)電影人。我用膠片拍攝,試圖給演員一個完整的現(xiàn)實。

我對技術(shù)的立場,就其與我的工作的關(guān)系而言,是我想把技術(shù)用在它最好的地方。例如,如果我們做一個特技,一個危險的特技。你可以用更顯眼的威亞來做,然后再后期抹掉,類似這樣的事情。

問:意思是這將提高視覺效果的便利性和效率。

諾蘭:這不是空手套白狼,它是從一個更詳細、更數(shù)據(jù)驅(qū)動的想法出發(fā)的。它可能最終打破動畫和攝影之間的屏障,因為它是一個混合體。

如果你告訴一個藝術(shù)家,比如說,畫一張宇航員的照片,他們是根據(jù)記憶或參考資料來進行發(fā)明。有了人工智能,這是不同的方法,你實際上是在使用整個圖像的歷史。

問:使用真實的圖像。

諾蘭:使用真實的圖像,但以一種完全的、根本性的重建方式這當(dāng)然會引起重大的藝術(shù)家版權(quán)問題,而這必須得到妥善處理。

影片試圖還原奧本海默和愛因斯坦的交流場面|環(huán)球影業(yè)

問:讓我們回到科學(xué)和你的電影上來。在你客串編輯的 2014 年 12 月的《WIRED》雜志中,有一句話,你說:「講故事和科學(xué)方法之間的關(guān)系讓我著迷。這并不是真的關(guān)于智力上的理解。那是一種把握某種事物的感覺」。跟我說說你對科學(xué)的熱愛吧。

諾蘭:嗯,我一直對天文學(xué)和物理學(xué)問題感興趣。我在《星際穿越》中探索了這個愛好。當(dāng)我弟弟(喬納森諾蘭)寫劇本時,他會看愛因斯坦的思想實驗,他發(fā)現(xiàn)其中一些實驗有一種特別的憂郁感,而那都是與時間中的部分有關(guān)的。

比如,被分開的雙胞胎,一個被帶走回來后,另一個長大了一些,你知道嗎?愛因斯坦在思考物理學(xué),和你如何做這些思想實驗,你如何構(gòu)思這些想法,有非常相同的「文學(xué)性」(literary quality)。物理學(xué)家需要的可視化過程與文學(xué)創(chuàng)作沒什么不同。

問:你在電影的剪輯階段有這樣的感覺嗎?

諾蘭:我在電影制作的每個階段都有這種感覺。我的很多工作是試圖表達對事物形狀的直覺和感覺。這可能很困難,也很復(fù)雜。

問:我發(fā)現(xiàn),如果我正在創(chuàng)作一個故事,但我不知道結(jié)構(gòu)、流程,那就有問題了。我無法以一種有意義的方式談?wù)撨@個作品。

諾蘭:我以一種非常地理或幾何學(xué)角度來思考結(jié)構(gòu)和模式。多年來,我試圖采用一種從頭開始的結(jié)構(gòu)方法,但最終它是一個非常本能的過程: 這種感覺是否有一個敘事的形狀,以及它是如何形成的?我很著迷地意識到,物理學(xué)家進行著非常類似的過程。真的很有趣。

問:也許這是對《星際穿越》的致敬,但物理學(xué)家似乎總是如此深愛物理學(xué)。

諾蘭:我熱衷于追求真理,熱愛科學(xué)方法。我討厭看到它被媒體中的科學(xué)家或代表科學(xué)家發(fā)言的媒體所歪曲。純粹的科學(xué)方法,以及科學(xué)不斷尋求自我反駁的想法,讓它比宗教或者其他任何東西,都更能提升人類的思維。

問:在這次采訪之前,我和我母親一起看了你的電影。她感覺你的電影可能傳遞一種非常反消極主義的信息!抖乜虪柨恕、《星際穿越》、《蝙蝠俠》;蛘,這是樂觀主義?

諾蘭:《盜夢空間》的結(jié)尾,正是如此。有人對那個結(jié)局有一種虛無主義的觀點,對吧?但同時,他也向前看了,和他的孩子們在一起。這種模糊性不是一種情感上的模糊性。對觀眾來說,這是一種智力上的模糊。

有趣的是,我認為《盜夢空間》和《奧本海默》的結(jié)局之間,有一種有意思的關(guān)系可以探討。奧本海默有一個復(fù)雜的結(jié)局、復(fù)雜的感情。

問:早期觀眾的反應(yīng)如何?

諾蘭有些人離開電影時處于絕對崩潰狀態(tài)。他們說不出話來。那些存在于歷史和事實層面的恐懼,電影都有表現(xiàn)。但對人物的愛,對關(guān)系的愛,和我之前所有的作品一樣強烈。

導(dǎo)演在洛杉磯的家中,影片由其子拍攝|MAGNUS NOLAN

問:還有主題的復(fù)雜性。

諾蘭:奧本海默的故事,是所有不可能的問題的集合、不可能的倫理困境、悖論。他的故事中沒有簡單的答案,只有困難的問題,而這正是故事如此吸引人的原因。

我認為我們能夠在影片中找到很多值得樂觀的東西,但有這樣一個壓倒一切的大問題在上方懸著。我覺得有必要在結(jié)尾處提出一些問題,讓人們在腦中回味,并引發(fā)討論。

問:在原子彈投下之前和之后,奧本海默的腦子里會想什么?你認為在他會怎么想?

諾蘭:答案就在影片中。我是以第一人稱寫這個劇本的。這是我對西里安(希里安墨菲,片中奧本海默飾演者)說的: 你是觀眾的眼睛。他做到了。大部分的故事,我們都沒有超出他的經(jīng)歷。這是我傳達這個問題答案的最好嘗試。

問:我對將看到完整作品這事有點緊張。

諾蘭:我想你可能要等很久才行。這是一種強烈的體驗,因為它是一個強烈的故事。我最近給一個電影制片人看,他說這是一部恐怖電影,我并不反對。

有趣的是,你之前用了虛無主義這個詞,我不認為我的作品能和虛無主義沾邊。但當(dāng)我開始完成這部電影時,我開始感覺到這種顏色,在我的其他電影中沒有,純粹的黑暗。它就在那里,這部電影與之抗爭。

問:會影響到你嗎?你睡得好嗎?

諾蘭:我現(xiàn)在睡得很好,完成制作時感到松了一口氣。但我非常喜歡看這部電影。我想當(dāng)你看到這部電影時,你就會明白。被可怕的事情所吸引是一種復(fù)雜的感覺,你懂嗎?恐怖空間就是如此展開的。

問:你的孩子看過嗎?

諾蘭:是的。

問:他們以前知道關(guān)于奧本海默的事情嗎?

諾蘭:在我開始寫劇本時,我告訴我的一個兒子,他真的對我說:「但現(xiàn)在沒有人真正擔(dān)心這個問題了,核武器!箖赡旰,他就不這么說了。世界又變了。

這對我們所有人來說都是一個教訓(xùn),但對年輕人來說尤其如此。

世界變化很快。

頭圖來源:MAGNUS NOLAN

贊助本站

人工智能實驗室

相關(guān)熱詞: 諾蘭 專訪 不是 原子彈 將其 神壇 危險

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港