展會信息港展會大全

微軟稱GPT-4或具備人類邏輯,人工智能終將成“人類智能”?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-05-18 10:24:05   瀏覽:7364次  

導(dǎo)讀:人工智能技術(shù)的引領(lǐng)者OpenAI已經(jīng)成為全球科技行業(yè)和監(jiān)管機(jī)構(gòu)關(guān)注的最大焦點,科技大佬們圍繞OpenAI的爭議也一直未平息。 5月16日,ChatGPT之父、OpenAI公司CEO薩姆奧爾特曼(Sam Altman)首次在美國國會發(fā)表證詞。 對奧爾特曼發(fā)難的議員們也動用了ChatGPT的...

人工智能技術(shù)的引領(lǐng)者OpenAI已經(jīng)成為全球科技行業(yè)和監(jiān)管機(jī)構(gòu)關(guān)注的最大焦點,科技大佬們圍繞OpenAI的爭議也一直未平息。

5月16日,“ChatGPT之父”、OpenAI公司CEO薩姆奧爾特曼(Sam Altman)首次在美國國會發(fā)表證詞。

對奧爾特曼發(fā)難的議員們也動用了ChatGPT的新手段。

美國康涅狄格州民主黨參議員理查德布盧門撒爾(Richard Blumenthal)在聽證會開場時播放了一段“他的講話錄音”,后來他透露講話內(nèi)容和聲音都是由AI生成的。

密蘇里州共和黨參議員喬;衾↗osh Hawley)指出,一年前,人們還無法預(yù)見人工智能能以如此強(qiáng)大的方式進(jìn)入“公眾意識”。他設(shè)想了生成式AI技術(shù)未來在加速信息生產(chǎn)的同時,可能對人類社會造成的挑戰(zhàn)。“這就像是原子彈,巨大的技術(shù)突破帶來的后果也可能是嚴(yán)重且可怕的。”霍利表示。

馬斯克:我才是OpenAI存在的原因

最新針對OpenAI發(fā)聲的還有特斯拉CEO馬斯克。馬斯克在5月16日最新接受媒體采訪時聲稱自己是“OpenAI存在的原因”,并指責(zé)OpenAI在確保AI安全性方面做得不夠,他再次反對微軟對OpenAI的控制權(quán)。他還表示,自己曾在OpenAI招聘關(guān)鍵科學(xué)家和工程師方面發(fā)揮了重要作用。

馬斯克是OpenAI的早期投資者之一,他曾承諾向OpenAI注入10億美元投資,不過此后因理念不合,他退出了OpenAI,最終的投資大約為5000萬美元。

針對馬斯克的最新表態(tài),微軟CEO納德拉(Satya Nadella)發(fā)出了針鋒相對的回應(yīng),他表示:“聲稱微軟控制OpenAI的說法是不正確的。”

納德拉稱:“雖然我非常尊重埃隆(馬斯克)和他所做的一切,但我只想說這實際上是不正確的,OpenAI非常重視由非營利組織控制。微軟在其中擁有非控股權(quán)益。”

截至目前,微軟對OpenAI的投資已經(jīng)達(dá)到130億美元。近幾個月來,微軟一直在其搜索及辦公產(chǎn)品和服務(wù)中整合OpenAI的技術(shù),例如GPT-4。

為了回應(yīng)來自微軟和谷歌在人工智能領(lǐng)域的競爭,上個月,馬斯克自己注冊了一家公司,宣稱將推出一個人工智能平臺TruthGPT。他表示:“TruthGPT是一種試圖理解宇宙本質(zhì)、尋求真相的人工智能。TruthGPT可能是通往安全的最佳途徑,不太可能消滅人類。”

馬斯克還自曝與谷歌聯(lián)合創(chuàng)始人拉里佩奇(Larry Page)關(guān)于人工智能的理念不合。他說道:“我們是曾經(jīng)的密友,會就人工智能的本質(zhì)進(jìn)行長時間的對話。不過拉里對人工智能的態(tài)度相當(dāng)傲慢,他似乎并不關(guān)心人工智能的安全性。”

他說道,雙方“分道揚(yáng)鑣”的“最后一根稻草”是關(guān)于人工智能的意識問題。“拉里稱我為‘物種主義者’(species-ist),因為我的立場是親人類意識而不是機(jī)器意識。”馬斯克表示。佩奇沒有對此公開發(fā)表回應(yīng)。

馬斯克不是第一次指責(zé)OpenAI和谷歌等企業(yè)對待人工智能的態(tài)度不負(fù)責(zé)任,他還多次敦促美國政府加強(qiáng)對人工智能的監(jiān)管。

“人工智能比管理不善的飛機(jī)設(shè)計或維護(hù)糟糕的汽車生產(chǎn)更危險,它有可能破壞文明。”馬斯克在上個月接受采訪時表示。

有“人工智能教父”之稱的計算機(jī)科學(xué)家杰弗里辛頓(Geoffrey Hinton)本月宣布離開谷歌。辛頓在過去的十多年里幫助谷歌開發(fā)AI技術(shù),但他現(xiàn)在成為了人工智能最新的“末日預(yù)言者”。辛頓擔(dān)心,人工智能技術(shù)的“未來版本”會對人類構(gòu)成威脅,因為“它們經(jīng)常從分析大量數(shù)據(jù)中學(xué)習(xí)到意想不到的行為”。

ChatGPT之父回應(yīng)AI意識

5月16日,薩姆奧爾特曼在首次出席美國國會作證時表示,他支持對人工智能技術(shù)進(jìn)行監(jiān)管,以利用人工智能的益處,同時最大限度地減少危害。

當(dāng)被問及“如果國會不對技術(shù)進(jìn)行監(jiān)管,人工智能會多快具有‘自我意識’”時,奧爾特曼強(qiáng)調(diào):“將GPT視為一種工具而不是一種生物很重要,人們不應(yīng)該試圖將人工智能擬人化。”

但他同時強(qiáng)調(diào)對AI技術(shù)的監(jiān)管非常重要。“我們認(rèn)為政府的監(jiān)管干預(yù)對于減輕日益強(qiáng)大的大型語言模型的風(fēng)險至關(guān)重要。”奧爾特曼表示,“對于一項非常新的技術(shù)而言,我們需要一個新的框架。”

他建議美國政府可以考慮對AI模型的開發(fā)和發(fā)布提出許可和測試要求,并建立一套安全標(biāo)準(zhǔn),特定的測試模型必須通過這些標(biāo)準(zhǔn)才能部署,同時允許獨(dú)立審計人員在模型啟動前進(jìn)行檢查。

奧爾特曼承認(rèn),雖然OpenAI正在構(gòu)建的強(qiáng)大模型工具有朝一日會解決人類面臨的一些最大挑戰(zhàn),例如氣候變化和治愈癌癥,但目前的系統(tǒng)還無法做到這些。

“人工智能有能力改善我們生活的幾乎每個方面,但它也會帶來嚴(yán)重的風(fēng)險。”他說道。針對生成式AI技術(shù)對就業(yè)市場產(chǎn)生的影響,奧爾特曼表示:“它會對就業(yè)產(chǎn)生嚴(yán)重的影響。但另一方面,也會創(chuàng)造更多的就業(yè)機(jī)會。”

一些議員提出了ChatGPT的回答如果被用于AI生成的歌曲、文章或其他作品,內(nèi)容創(chuàng)作者將如何獲得補(bǔ)償?shù)膯栴}。對此,奧爾特曼表示,OpenAI正在與藝術(shù)家和其他機(jī)構(gòu)商討潛在的經(jīng)濟(jì)模式。他還談到生成式AI對于新聞出版行業(yè)的影響。

奧爾特曼對于人工智能的開放態(tài)度也贏得了國會議員的贊賞。紐約大學(xué)心理學(xué)和神經(jīng)科學(xué)名譽(yù)教授加里馬庫斯(Gary Marcus)也在聽證會上發(fā)表演講,呼吁為人工智能技術(shù)建立一個新的監(jiān)管機(jī)構(gòu)。“AI技術(shù)復(fù)雜且發(fā)展迅速,必須有一個全職的機(jī)構(gòu)專門來對此進(jìn)行監(jiān)管。”馬庫斯表示。

不過,聽證會上談及的只是生成式AI技術(shù)可能引發(fā)的初步問題。比如,議員們還提到生成式AI技術(shù)帶來的市場壟斷問題,少數(shù)公司將可能擁有數(shù)據(jù)和基礎(chǔ)設(shè)施結(jié)合的能力,可以掌控人工智能生成的全鏈條,這可能使得少數(shù)公司收獲更大的經(jīng)濟(jì)利益。但這一問題尚未得到很好解答。

微軟稱GPT-4已展現(xiàn)人類邏輯跡象

盡管大部分科學(xué)家認(rèn)為,AI目前并不具有意識,但微軟的科學(xué)家研究發(fā)現(xiàn),新的AI系統(tǒng)正展現(xiàn)出具備人類邏輯的跡象。在一篇近期發(fā)表的論文《通用人工智能的火花》中,研究人員發(fā)現(xiàn),AI系統(tǒng)可能對物理世界“擁有直觀的了解”。

微軟科學(xué)家認(rèn)為,盡管人們在使用GPT-4大模型的時候,驚訝于它生成文本的能力,但事實上,大模型在分析、整合、評估和判斷文本方面的能力要遠(yuǎn)勝于它的生成能力。

“這是AI系統(tǒng)邁向通用人工智能(AGI)的第一步。”他們表示。

對此有專家表示,盡管GPT-4這類系統(tǒng)非常強(qiáng)大,不過現(xiàn)在還無法證明它生成的文本是否為人類邏輯的結(jié)果或是基于常識的結(jié)果。

美國加州大學(xué)伯克利分校的心理學(xué)和哲學(xué)教授艾莉森戈普尼克(Alison Gopnik) 就認(rèn)為,每當(dāng)一個復(fù)雜的機(jī)器或系統(tǒng)問世的時候,都會有人傾向于將它擬人化,但把人工智能和人類進(jìn)行比較本身就是帶有謬誤的。

上海交通大學(xué)與上海市精神衛(wèi)生中心雙聘研究員林關(guān)寧教授對第一財經(jīng)記者表示:“如果人類邏輯的定義是不帶感情色彩的邏輯推理,那么GPT-4確實具備了相當(dāng)一部分的能力。也就是說給它一定的上文,它可以推理出下文應(yīng)該說什么。”

微軟是首個發(fā)表論文提出如此大膽設(shè)想的科技巨頭。這也引發(fā)了科技界的激辯話題:人工智能是否會發(fā)展為“人類智能”?如果技術(shù)專家們真的造出像人腦那樣的機(jī)器,甚至還能比人腦更加聰明,那么它是否會激發(fā)“自我意識”?如果這一情況真的發(fā)生,那么AI在改變世界的同時,也存在危險。

對此,林關(guān)寧對第一財經(jīng)記者表示:“如果認(rèn)為意識只是一種信息的輸入與輸出和反饋,那么顯然人工智能已經(jīng)具有某種意義上的‘意識’;但如果認(rèn)為意識整合了人類的情感、具有倫理和道德反思,那么顯然人工智能遠(yuǎn)未達(dá)到此意義上的意識存在。”

他認(rèn)為,從目前的GPT版本來看,雖然機(jī)器變得更加智能,擁有了更加準(zhǔn)確地完成目標(biāo)的能力,但它仍然只是一個先進(jìn)的基于深度學(xué)習(xí)完成任務(wù)的機(jī)器,不存在情緒等主觀體驗。

“機(jī)器只是通過接受人類傳達(dá)給它的指令后,學(xué)習(xí)了更像人的表達(dá),看似具有了某種人格,更符合大眾的心理預(yù)期,但這些還不能說明機(jī)器具有意識。”林關(guān)寧對第一財經(jīng)記者表示。

但他同時強(qiáng)調(diào)了未來AI自主運(yùn)行可能對社會造成的潛在風(fēng)險。“如果不考慮算力的限制,那么讓機(jī)器用指令操縱一些軟硬件,是有可能模擬一個人類社區(qū)的。”林關(guān)寧說道。

辛頓也表示:“如果AI系統(tǒng)被允許不僅可以生成自己的計算機(jī)代碼,而且實際上可以自己運(yùn)行該代碼,這就會變得非?膳。”他擔(dān)心有一天真正的“自主武器”會成為現(xiàn)實,這些“武器”就好像是戰(zhàn)場上的“機(jī)器人士兵”。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港