展會(huì)信息港展會(huì)大全

OpenAI員工內(nèi)部信!揭露神秘Q*威脅人類?這里有啥硬傷?
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-11-29 16:08:53   瀏覽:6207次  

導(dǎo)讀:(作者王煜全,海銀資本創(chuàng)始合伙人) 雖然Sam Altman已經(jīng)回OpenAI了,但是他被罷免的原因仍然懸而未決,所以就引出了各種猜測(cè)。 11月23日,《路透社》號(hào)稱有知情人爆料,說OpenAI罷免Altman的四天前,有幾位研究人員給董事會(huì)寫了一封信,他們發(fā)現(xiàn)了一個(gè)強(qiáng)大...

(作者王煜全,海銀資本創(chuàng)始合伙人)

雖然Sam Altman已經(jīng)回OpenAI了,但是他被罷免的原因仍然懸而未決,所以就引出了各種猜測(cè)。

11月23日,《路透社》號(hào)稱有知情人爆料,說OpenAI罷免Altman的四天前,有幾位研究人員給董事會(huì)寫了一封信,他們發(fā)現(xiàn)了一個(gè)強(qiáng)大的人工智能模型“Q*”,并警告說這有可能威脅人類。

還有人告訴《路透社》,OpenAI的一些人認(rèn)為Q*可能是實(shí)現(xiàn)通用人工智能的重要突破,這個(gè)新模型能夠解決很多數(shù)學(xué)問題。

Open AI的宮斗剛剛過去,威脅人類的Q*算法又引起了新一波熱潮,《The Information》等各個(gè)媒體爭(zhēng)相報(bào)道,還有不少業(yè)內(nèi)人士開始提出各種猜想。

那么,大家認(rèn)為Q*是什么呢?

人工智能培訓(xùn)公司Tromero的聯(lián)合創(chuàng)始人索菲亞卡拉諾夫斯卡提出了一種觀點(diǎn),Q*是兩種著名的人工智能技術(shù)Q-learning和A*搜索的組合,這個(gè)說法流傳得比較廣。

其中,Q-learning是強(qiáng)化學(xué)習(xí)的一種形式,通過獎(jiǎng)勵(lì)理想結(jié)果來(lái)訓(xùn)練AI做出更好的決策。

舉個(gè)例子來(lái)說,Q-learning就像是玩一個(gè)全新的電子游戲,開始時(shí)你對(duì)游戲一無(wú)所知,但通過不斷嘗試,從游戲的獎(jiǎng)勵(lì)或懲罰機(jī)制中學(xué)習(xí),你會(huì)逐漸理解如何玩得更好,最終能夠在游戲中獲得更高的分?jǐn)?shù)。

2014年,Google DeepMind用Q-learning構(gòu)建了一種AI算法,它可以自己玩“雅達(dá)利2600游戲機(jī)”中的各種游戲,水平和人類差不多。

而A*算法是一種高效的搜索算法。就像是一種智能地圖導(dǎo)航,它在規(guī)劃從一個(gè)地點(diǎn)到另一個(gè)地點(diǎn)的路線時(shí),會(huì)同時(shí)考慮已經(jīng)走過的路程和預(yù)估的剩余路程,以找到最快的路徑。

生成式AI一直被詬病的缺點(diǎn)是有“幻覺”,也就是生成一些違反常理或者不合邏輯的信息,這是因?yàn)樗目偨Y(jié)能力很強(qiáng),但是推理能力較弱。

按照索菲亞的解讀,如果GPT能結(jié)合Q-learning和A*算法,就可能提升規(guī)劃、推理能力,減少“幻覺”,也就離通用人工智能更進(jìn)一步了。

但是,也有人提出了反對(duì)意見,認(rèn)為所謂的Q*并沒有那么厲害。

比如,Meta的首席人工智能科學(xué)家Yann LeCun發(fā)推說,大家可以忽略有關(guān)Q*的大量廢話了。它很可能是OpenAI在提升規(guī)劃能力上的嘗試,但幾乎每個(gè)頂級(jí)實(shí)驗(yàn)室都在這樣做,比如FAIR、DeepMind等等。也就是說,即使存在Q*也并不是什么新鮮事。

艾倫人工智能研究所的科學(xué)家Nathan Lambert認(rèn)為,Q*主要用于研究高中數(shù)學(xué)問題,而不是毀滅人類。

而英偉達(dá)高級(jí)科學(xué)家Jim Fan說,在他研究人工智能的十年里,從未見過一個(gè)讓這么多人產(chǎn)生幻想的算法,卻只有名字,沒有論文,沒有統(tǒng)計(jì)數(shù)據(jù),也沒有產(chǎn)品。

我們一直倡導(dǎo)大家在網(wǎng)絡(luò)媒體時(shí)代要加強(qiáng)信息素養(yǎng),Q*就是一個(gè)典型例子。

實(shí)際上,《路透社》并沒有看到所謂的內(nèi)部信,也沒有任何證據(jù)證明Q*存在,只有一些知情人士的口頭爆料。

試想一下,如果真的有一群人取得了一項(xiàng)突破性的技術(shù)進(jìn)展,那么他們會(huì)高興還是恐懼呢?

實(shí)際上,即使是威力更大的核裂變被發(fā)現(xiàn)時(shí),人們也并沒有藏著掖著,而是發(fā)論文公布成果。

1939年,德國(guó)科學(xué)家哈恩和斯特拉斯曼發(fā)表了鈾原子核裂變現(xiàn)象的論文,同年9月,丹麥物理學(xué)家玻爾和惠勒從理論上闡述了核裂變反應(yīng)過程,并指出能引起這一反應(yīng)的最好元素是同位素鈾235。

他們的理論對(duì)后來(lái)的原子彈開發(fā)起了重要的作用,但這并沒有阻止他們推出新成果。

退一步講,假設(shè)真的有一種可以讓GPT大幅度進(jìn)化的算法,AI就能威脅全人類了嗎?

我多次強(qiáng)調(diào),生成式AI是一個(gè)功能而不是應(yīng)用,功能到應(yīng)用之間還需要復(fù)雜的工程化協(xié)作。

我們?nèi)匀灰院肆炎優(yōu)槔,從核裂變理論到原子彈爆炸,中間就有一個(gè)龐大而復(fù)雜的系統(tǒng)工程,也就是奧本海默領(lǐng)導(dǎo)的曼哈頓計(jì)劃。他們不僅集中了眾多科學(xué)家,還動(dòng)員了10萬(wàn)多名工作人員,歷時(shí)3年才造出原子彈。

當(dāng)人們談到AI毀滅世界的時(shí)候,很容易聯(lián)想到《終結(jié)者》中的“天網(wǎng)”,好像AI會(huì)控制機(jī)器人、武器、裝備來(lái)消滅人類。

但是,生成式AI只是一個(gè)算法,有非常明顯的能力邊界。如果想要威脅全人類,就需要對(duì)物理世界產(chǎn)生改變。

這不是一個(gè)算法改進(jìn)就能實(shí)現(xiàn)的,需要結(jié)合更多的技術(shù)與工程突破,還要人類來(lái)做廣泛的工程化改造,光靠算法可不行。也就是說,能毀滅人類的還得是人類。

有人會(huì)說,有的科幻片里人工智能會(huì)占領(lǐng)互聯(lián)網(wǎng),毀壞金融系統(tǒng)、數(shù)據(jù)系統(tǒng),造成經(jīng)濟(jì)損失。但是,即使沒有強(qiáng)大的人工智能,也一直有黑客在網(wǎng)絡(luò)世界里做壞事。不過從來(lái)也沒有人認(rèn)為黑客會(huì)毀滅人類。

而人工智能只是工具,它產(chǎn)生主觀意識(shí)的情節(jié)仍然只存在于科幻片中。即使有了自主意識(shí),還想毀滅人類,其破壞力撐死也就是黑客的水平。這樣看來(lái),OpenAI的宮斗劇雖然結(jié)束了,但媒體已經(jīng)開始把它演繹成科幻片了。

簡(jiǎn)單總結(jié)一下,Q*威脅人類的信息來(lái)源本就不明確,OpenAI官方也從來(lái)沒有承認(rèn)相關(guān)算法,即使有人工智能算法有突破也無(wú)需擔(dān)心,因?yàn)樗约簾o(wú)法跨越能力邊界,無(wú)法真正威脅到人類生存。

真正值得思考的問題是,如何利用人工智能幫助人們解決現(xiàn)實(shí)問題,最大限度地為人類謀福利,這就需要“智能服務(wù)設(shè)計(jì)”。

(本文僅代表作者個(gè)人觀點(diǎn))

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港