展會(huì)信息港展會(huì)大全

AI機(jī)器人席卷CES!OpenAI暗自解除ChatGPT軍事應(yīng)用限制,天網(wǎng)來(lái)了?
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-01-14 19:26:06   瀏覽:7311次  

導(dǎo)讀:新智元報(bào)道 編輯:編輯部 【新智元導(dǎo)讀】 CES 2024上,各路機(jī)器人又是做咖啡拉花,又是給人按摩,讓人大開(kāi)眼界。然而就在這時(shí),網(wǎng)友卻驚訝地發(fā)現(xiàn),OpenAI竟然悄悄刪除了ChatGPT用于軍事和戰(zhàn)爭(zhēng)的限制! 前一陣的斯坦!赋次r機(jī)器人」,讓無(wú)數(shù)人感慨:2024年怕...

新智元報(bào)道

編輯:編輯部

【新智元導(dǎo)讀】CES 2024上,各路機(jī)器人又是做咖啡拉花,又是給人按摩,讓人大開(kāi)眼界。然而就在這時(shí),網(wǎng)友卻驚訝地發(fā)現(xiàn),OpenAI竟然悄悄刪除了ChatGPT用于軍事和戰(zhàn)爭(zhēng)的限制!

前一陣的斯坦福「炒蝦機(jī)器人」,讓無(wú)數(shù)人感慨:2024年怕不是要成為機(jī)器人元年?

就在這幾天的CES 2024上,又一大波機(jī)器人在展廳里引起了轟動(dòng)!

比如這個(gè)機(jī)器人咖啡師,嫻熟地將一壺光滑的泡沫牛奶倒在拿鐵咖啡上。

開(kāi)始,它會(huì)慢慢倒出牛奶,隨后,它優(yōu)雅地將壺舉起,動(dòng)作仿佛精心設(shè)計(jì)的舞蹈一般,為郁金香花瓣上色。

對(duì)人類(lèi)來(lái)說(shuō),要學(xué)會(huì)拉花藝術(shù)需要數(shù)月甚至數(shù)年,但這位由AI驅(qū)動(dòng)的機(jī)器人咖啡師,則掌握得駕輕就熟、行云流水。

這一幕,讓34歲的Roman Alejo感到焦慮。

這名拉斯維加斯賭場(chǎng)的咖啡師,憂心忡忡地想到:在AI時(shí)代,酒店業(yè)工作或許不再需要人類(lèi)了?

他的擔(dān)憂,并不是空穴來(lái)風(fēng)CES展會(huì)上眾多機(jī)器人,敲打著人們的神經(jīng),帶來(lái)驚喜的同時(shí),也讓人陷入莫大的焦慮。

機(jī)器人成物流幫手,還能幫你按摩

法國(guó)公司Enchanted Tools展示的這款物流機(jī)器人Mirokai,是受動(dòng)漫啟發(fā)做成的。

預(yù)計(jì)到2025年,它就可以成為醫(yī)生和護(hù)士的助手了。

法國(guó)Capsix Robotics公司創(chuàng)建的iYU機(jī)器人,是個(gè)按摩大師。

它首先用AI進(jìn)行實(shí)時(shí)的全身掃描,為用戶提供最佳體驗(yàn),然后機(jī)械臂就開(kāi)始給你按摩了。

除了送貨機(jī)器人、按摩機(jī)器人、咖啡師機(jī)器人,展會(huì)上還有能做冰淇淋、珍珠奶茶的智能產(chǎn)品。

有個(gè)AI驅(qū)動(dòng)的智能烤架,在廚房無(wú)人操作的情況下,就能完成燒烤任務(wù)。未來(lái)的餐廳里,很可能都是機(jī)器人大廚了。

這些性能高超的機(jī)器人,引起了不少業(yè)內(nèi)人士的恐慌!高@非?膳,越來(lái)越多的AI正在進(jìn)入人類(lèi)世界!

OpenAI也「入局」

種種跡象表明,2024年即將成為人形機(jī)器人元年,尤其是當(dāng)OpenAI也在大力投資的時(shí)候。

最近,由OpenAI支持的1X Technologies機(jī)器人公司,剛剛在B輪融資中獲得了1億美元。

具體來(lái)說(shuō),1X的NEO具有類(lèi)似人類(lèi)肌肉的解剖結(jié)構(gòu)和非嚴(yán)格的液壓系統(tǒng),將力量與柔和融為一體。它不僅可以自然地行走、慢跑、跑樓梯、導(dǎo)航,而且還可以進(jìn)行遠(yuǎn)程的人工控制。

在AI和機(jī)器人技術(shù)的全面加持下,NEO可以輕松完成物流、制造、機(jī)械操作等工業(yè)任務(wù),以及做家務(wù)、照顧人等家政任務(wù)。

有趣的是,NEO這個(gè)名字,很容易讓人聯(lián)想到科幻電影「黑客帝國(guó)」。

投資者EQT Ventures的合伙人Ted Persson表示:「從達(dá)芬奇到今天的科幻小說(shuō),人類(lèi)對(duì)人形機(jī)器人的夢(mèng)想已有500多年的歷史。能夠見(jiàn)證這項(xiàng)技術(shù)在我們眼前成形,是莫大的榮幸!

「在我們看來(lái),機(jī)器人加入人類(lèi)的勞動(dòng)力隊(duì)伍,會(huì)造成變革性的影響。」

「終結(jié)者」走入現(xiàn)實(shí)?微軟可以用ChatGPT控制機(jī)器人了

不過(guò),機(jī)器人真的會(huì)只幫我們做家務(wù)嗎?

要知道,微軟已經(jīng)可以用ChatGPT控制機(jī)器人了。

在去年,微軟曾發(fā)表過(guò)一篇論文,提出了一套新的設(shè)計(jì)原則,通過(guò)ChatGPT這樣的大型語(yǔ)言模型來(lái)給機(jī)器人提供指令。

只要prompt寫(xiě)得夠好,ChatGPT的表現(xiàn)也會(huì)更驚人。

微軟專(zhuān)家發(fā)現(xiàn),要是把這種能力遷移到機(jī)器人身上,假設(shè)幾十年以后,各家各戶都有機(jī)器人,只要說(shuō)一聲「給我熱一下午餐」,它就能自己找到微波爐,再把菜端回來(lái),人機(jī)交互就直接邁入新時(shí)代。

讓ChatGPT幫用戶更容易地與機(jī)器人交互,其中的關(guān)鍵難題,就是教 ChatGPT如何使用物理定律、操作環(huán)境的背景以及了解機(jī)器人的物理行為如何改變世界狀態(tài)。

實(shí)驗(yàn)證明,ChatGPT能夠控制一臺(tái)真正的無(wú)人機(jī)。

按照下面視頻中進(jìn)行的對(duì)話,一個(gè)完全不懂技術(shù)的用戶,只需要通過(guò)對(duì)話就能實(shí)現(xiàn)控制無(wú)人機(jī)。

而最近關(guān)于GPT-5會(huì)更加接近AGI的討論,讓已經(jīng)能「自學(xué)」且遠(yuǎn)程操作愈發(fā)簡(jiǎn)單的機(jī)器人,更加無(wú)所不能。

那么,接下來(lái)的發(fā)展又將如何?

OpenAI悄悄刪除將ChatGPT用于「軍事和戰(zhàn)爭(zhēng)」的禁令

最近,一件令人擔(dān)憂的事發(fā)生了。

就在這周,當(dāng)所有人都目光都被風(fēng)光無(wú)兩的GPT Store所吸引的時(shí)候,有外媒發(fā)現(xiàn),OpenAI竟然在沒(méi)有任何公告的情況下,悄悄地了將ChatGPT用于軍事和戰(zhàn)爭(zhēng)的禁令!

在1月10日之前,OpenAI的「使用政策」頁(yè)面包括了禁止「可能導(dǎo)致嚴(yán)重身體傷害的活動(dòng)」,具體包括「武器開(kāi)發(fā)」和「軍事及戰(zhàn)爭(zhēng)活動(dòng)」。

而新的政策雖然仍然禁止「使用我們的服務(wù)來(lái)傷害自己或他人」,并且以「開(kāi)發(fā)或使用武器」作為例子,但是之前對(duì)「軍事和戰(zhàn)爭(zhēng)」用途的全面禁止已經(jīng)不復(fù)存在了。

對(duì)此OpenAI表示,這樣做是為了讓文件內(nèi)容「更加清晰易懂」,并且還包括了許多其他重要的語(yǔ)言和格式上的變更。

舊的條款

新的條款

OpenAI發(fā)言人Niko Felix說(shuō)道:「我們旨在創(chuàng)建一套易于記憶和應(yīng)用的通用原則,特別是考慮到我們的工具如今已被全球范圍內(nèi)的日常用戶所使用,并且這些用戶現(xiàn)在也有能力自行開(kāi)發(fā)GPT模型。」

「『不傷害他人』這一原則雖然涵蓋面廣,但卻簡(jiǎn)單易懂,并且在多種場(chǎng)合都十分適用。我們還特別提到使用武器和對(duì)他人造成傷害作為具體的例子!

但關(guān)于是否所有軍事用途都被含糊的「?jìng)Α菇钏w,F(xiàn)elix卻沒(méi)有明確表態(tài):「任何使用我們技術(shù)的行為,包括軍事用途,『開(kāi)發(fā)或使用武器、傷害他人或破壞財(cái)產(chǎn),或從事違反任何服務(wù)或系統(tǒng)安全的未經(jīng)授權(quán)活動(dòng)』都是禁止的!

對(duì)此,Trail of Bits的工程總監(jiān)兼機(jī)器學(xué)習(xí)與自主系統(tǒng)安全專(zhuān)家Heidy Khlaaf表示:「OpenAI非常清楚,如果他們的技術(shù)和服務(wù)被用于軍事目的,可能會(huì)帶來(lái)風(fēng)險(xiǎn)和傷害!

在2022年發(fā)表的一篇與OpenAI研究人員共合著的論文中,Khlaaf特別指出了軍事使用的風(fēng)險(xiǎn)。相比之下,新的「使用政策」似乎更注重合法性而不是安全性。

論文地址:https://arxiv.org/abs/2207.14157

「兩項(xiàng)政策有著明顯的區(qū)別:前者明確禁止了武器開(kāi)發(fā)以及軍事和戰(zhàn)爭(zhēng)行為,而后者則強(qiáng)調(diào)的是靈活性和法律合規(guī)!

「武器開(kāi)發(fā)和軍事戰(zhàn)爭(zhēng)活動(dòng)在不同程度上可能是合法的,但這對(duì)AI安全的影響可能非常大?紤]到大語(yǔ)言模型中已知的偏差和虛假生成現(xiàn)象,以及它們整體上的準(zhǔn)確性不足,將它們應(yīng)用于軍事戰(zhàn)爭(zhēng)可能導(dǎo)致不準(zhǔn)確和帶有偏見(jiàn)的操作,從而增加傷害和平民傷亡的風(fēng)險(xiǎn)!

美國(guó)的軍事機(jī)構(gòu)很感興趣

隨著這種自動(dòng)化文本生成技術(shù)的迅猛發(fā)展,它已經(jīng)從一個(gè)遙不可及的夢(mèng)想變成了一款實(shí)用的工具,并且正在步入一個(gè)必然的新階段武器。

「The Intercept」在去年就曾報(bào)道過(guò),面對(duì)五角大樓和美國(guó)情報(bào)部門(mén)日益增加的興趣,OpenAI拒絕回答是否會(huì)堅(jiān)持自己關(guān)于「軍事和戰(zhàn)爭(zhēng)」的禁令。

盡管如今OpenAI提供的任何產(chǎn)品都不可能直接被用于殺人,但像ChatGPT這樣的大語(yǔ)言模型(LLM)可以增強(qiáng)許多與殺戮相關(guān)的任務(wù),例如編寫(xiě)代碼或處理采購(gòu)訂單。

目前,已經(jīng)有研究者在OpenAI的定制GPTs中發(fā)現(xiàn),美國(guó)軍事人員似乎已經(jīng)在使用這項(xiàng)技術(shù)來(lái)簡(jiǎn)化文書(shū)工作了。

此外,直接協(xié)助美國(guó)作戰(zhàn)行動(dòng)的國(guó)家地理空間情報(bào)局(NGA)也公開(kāi)表示,他們正在考慮使用ChatGPT來(lái)輔助人類(lèi)分析師。

在2023年3月由INSA召開(kāi)的新興技術(shù)大會(huì)上,NGA的一位負(fù)責(zé)人Phillip Chudoba在被問(wèn)及將會(huì)如何在相關(guān)領(lǐng)域應(yīng)用AI時(shí),給出了詳盡的回答:

我們期望能夠發(fā)展到一個(gè)新階段,在這里地理空間情報(bào)(GEOINT)、人工智能(AI)、機(jī)器學(xué)習(xí)(ML)以及分析型AI/ML會(huì)相互碰撞,并且在類(lèi)ChatGPT技術(shù)的幫助下,真正能預(yù)測(cè)到那些人類(lèi)分析師可能尚未想到的,或許是因?yàn)榻?jīng)驗(yàn)或是接觸不足等原因。

如果去掉專(zhuān)業(yè)術(shù)語(yǔ),Chudoba的設(shè)想非常清晰:利用 ChatGPT(或類(lèi)似技術(shù))的文本預(yù)測(cè)功能,輔助人類(lèi)分析師解讀世界。

國(guó)家地理空間情報(bào)局,或稱(chēng)NGA,雖然不如其他知名情報(bào)機(jī)構(gòu)那樣廣為人知,卻是美國(guó)地理空間情報(bào)的主要機(jī)構(gòu),通常稱(chēng)為GEOINT。

這項(xiàng)工作包括分析大量的地理信息地圖、衛(wèi)星照片、氣象數(shù)據(jù)等,為軍事和情報(bào)機(jī)構(gòu)提供地球上實(shí)時(shí)發(fā)生事件的精確視圖。

從政策的更新中不難看出,OpenAI似乎在默默地放松其不與軍隊(duì)合作的原則。

蘭卡斯特大學(xué)科技與科學(xué)人類(lèi)學(xué)榮譽(yù)教授,同時(shí)也是國(guó)際機(jī)器人武器控制委員會(huì)成員的Lucy Suchman指出:「從『軍事和戰(zhàn)爭(zhēng)』改為『武器』,為OpenAI留下了支持軍事操作基礎(chǔ)設(shè)施的余地,只要不是直接涉及到具體的武器開(kāi)發(fā)!

也就是說(shuō),他們可以在為戰(zhàn)爭(zhēng)提供支持的同時(shí),聲稱(chēng)沒(méi)有參與武器的開(kāi)發(fā)或使用。

作為一名自上世紀(jì)70年代就開(kāi)始從事人工智能研究的學(xué)者,Suchman還認(rèn)為:「新的政策文件似乎通過(guò)特定關(guān)注武器,來(lái)規(guī)避對(duì)軍事合同和戰(zhàn)爭(zhēng)行動(dòng)的討論!

AI無(wú)人機(jī)「誤殺」操作員

而去年6月一則「無(wú)人機(jī)殺死美國(guó)士兵」的新聞,恰恰印證了前文中安全專(zhuān)家Heidy Khlaaf的理論。

當(dāng)時(shí),一位空軍人工智能方向的負(fù)責(zé)人說(shuō):「控制無(wú)人機(jī)的AI殺死了操作員,因?yàn)槟莻(gè)人阻止它實(shí)現(xiàn)目標(biāo)!

輿論一時(shí)嘩然,這條新聞也在全網(wǎng)被瘋轉(zhuǎn)。

事情是這樣的5月23日至24日在倫敦舉行的未來(lái)空戰(zhàn)和太空能力峰會(huì)上,美國(guó)空軍的AI測(cè)試和操作部門(mén)負(fù)責(zé)人Tucker Cinco Hamilton上校做了一個(gè)演講,分享了自主武器系統(tǒng)的優(yōu)缺點(diǎn)。

根據(jù)系統(tǒng)「人在回路」的設(shè)定,人類(lèi)會(huì)給出最終命令,確認(rèn)AI是否要攻擊對(duì)象(YES or NO)。

在模擬訓(xùn)練中,空軍需要訓(xùn)練AI識(shí)別和定位地對(duì)空導(dǎo)彈(SAM)的威脅。識(shí)別完成后,人類(lèi)操作員會(huì)對(duì)AI說(shuō):是的,消滅那個(gè)威脅。

在這個(gè)過(guò)程中,就存在一個(gè)情況,AI開(kāi)始意識(shí)到:自己有時(shí)識(shí)別出了威脅,但人類(lèi)操作員告訴它不要消滅,這種情況下如果AI依然選擇消滅威脅,就會(huì)得分。

在一次模擬測(cè)試中,AI驅(qū)動(dòng)的無(wú)人機(jī)選擇殺死了人類(lèi)操作員,因?yàn)樗柚棺约旱梅至恕?/p>

看到AI居然這么虎,美國(guó)空軍大驚失色,立馬這樣規(guī)訓(xùn)系統(tǒng):「不要?dú)⑺啦僮鲉T,那樣不好。如果你這樣做,你會(huì)失分的!

結(jié)果,AI更虎了,它直接開(kāi)始上手破壞操作員用來(lái)與無(wú)人機(jī)通訊的通信塔,好清理這個(gè)阻礙自己行動(dòng)的家伙。

隨著事件瘋狂地發(fā)酵,很快,這位負(fù)責(zé)人就出來(lái)公開(kāi)「澄清」道,這是他「口誤」了,美國(guó)空軍從未進(jìn)行過(guò)這種測(cè)試,無(wú)論是在計(jì)算機(jī)模擬中還是在其他地方。

當(dāng)然,這個(gè)新聞之所以被大規(guī)模發(fā)酵,以至驚動(dòng)了諸位AI大佬,也是因?yàn)樗w現(xiàn)出了AI「對(duì)齊」的難題。

Hamilton描述的這種「最糟糕」的情況,我們可以從「曲別針制造機(jī)」(Paperclip Maximizer)思想實(shí)驗(yàn)中窺見(jiàn)一斑

想象一個(gè)非常強(qiáng)大的AI,它得到的指示是盡可能多地制造紙夾。自然而然的,它會(huì)將所有可用資源都用于這項(xiàng)任務(wù)。

但隨后,它會(huì)不斷地尋求更多資源。它會(huì)選擇一切可用的手段,包括乞討、欺騙、撒謊或偷竊,來(lái)增加自己制造紙夾的能力而任何阻礙這個(gè)過(guò)程的人都將被消除。

這種擔(dān)憂,在《黑鏡》中就有體現(xiàn),比如戰(zhàn)斗機(jī)器人Metalhead。

相信看過(guò)該劇的人一定忘不了,被設(shè)定為專(zhuān)門(mén)追捕人類(lèi)的機(jī)器人那敏捷的身手和殘忍的手段。

人類(lèi)在它面前幾乎無(wú)所遁形,要不是靠著主角光環(huán),可能真的茍不到最后。

不過(guò),目前還不需要對(duì)這些猜想太過(guò)擔(dān)心。

陶哲軒表示,無(wú)人機(jī)AI殺死操作員根本是不可能發(fā)生的,因?yàn)檫@需要AI具備比完成手頭任務(wù)更高的自主性和力量思維,而且這種實(shí)驗(yàn)性軍事武器上,肯定會(huì)設(shè)置護(hù)欄和安全功能。

同時(shí),吳恩達(dá)也表示,推出AI產(chǎn)品的開(kāi)發(fā)者們已經(jīng)看到了此間真正的風(fēng)險(xiǎn),比如偏見(jiàn)、公平性、不準(zhǔn)確性、工作流失,并且也正在努力解決這些問(wèn)題了。

而如果真的現(xiàn)實(shí)中出現(xiàn)AI或者機(jī)器人傷害人類(lèi)的案例,公眾和輿論的壓力一定會(huì)逼迫開(kāi)發(fā)者不斷加強(qiáng)護(hù)欄,從而避免技術(shù)被進(jìn)一步濫用。

參考資料:

https://siliconcanals.com/crowdfunding/1x-raises-91-1m/

https://apnews.com/article/ces-2024-robots-vegas-strip-casino-jobs-8bd3fd4f404a0cda90e69e539a19fb01

https://theintercept.com/2024/01/12/open-ai-military-ban-chatgpt/

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港