展會(huì)信息港展會(huì)大全

人和 AI 合作,到底有什么危險(xiǎn)?
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-11-01 08:39:18   瀏覽:6015次  

導(dǎo)讀:「科技是懶人推動(dòng)的...

「科技是懶人推動(dòng)的9

相信所有人在「摸魚(yú)」或者「躺平」時(shí)候,都曾經(jīng)用這句話為自己找借口。

從蒸汽機(jī)的工業(yè)革命,到計(jì)算機(jī)的數(shù)字革命,技術(shù)的進(jìn)步確實(shí)讓人類(lèi)在某些方面,越來(lái)越有躺平的資本。

作為最有潛力成為下一代平臺(tái)的AI技術(shù),會(huì)讓人類(lèi)變得「更懶」嗎?

好像確實(shí)是的,但這并不是個(gè)好消息。

根據(jù)發(fā)表在《機(jī)器人與人工智能前沿》雜志上的一項(xiàng)最新研究顯示,當(dāng)人類(lèi)與 AI 和機(jī)器合作時(shí),真的會(huì)「摸魚(yú)偷懶」。

該研究的第一作者 Cymek 稱(chēng):「團(tuán)隊(duì)合作既可以是一種祝福,也可以是一種詛咒。」

所以,在AI時(shí)代,人類(lèi)最大的危機(jī)不是被機(jī)器取代,而是「懶到退化」?

機(jī)器助手,讓人類(lèi)「放松警惕」

當(dāng)有了機(jī)器這樣一個(gè)有力幫手時(shí),會(huì)讓人類(lèi)變得比較「心大」。

德國(guó)柏林工業(yè)大學(xué)的研究人員向 42 名參與者提供了模糊的電路板圖像,要求他們檢查是否有缺陷。其中一半的參與者被告知,他們要處理的電路板已由一臺(tái)名為「熊貓」的機(jī)器人檢查過(guò),并已標(biāo)記出缺陷。

實(shí)驗(yàn):模擬電路板質(zhì)量控制的視覺(jué)搜索任務(wù) |《機(jī)器人與人工智能前沿》研究

實(shí)際上,機(jī)器人「熊貓」在實(shí)驗(yàn)過(guò)程中檢測(cè)到了 94.8% 的缺陷。所有參與者都看到了相同的 320 張掃描電路板圖像,當(dāng)研究人員仔細(xì)查看參與者的錯(cuò)誤率時(shí),他們發(fā)現(xiàn),與「熊貓」一起工作的參與者,在任務(wù)后期捕捉到的缺陷較少,因?yàn)樗麄円呀?jīng)看到「熊貓」成功地標(biāo)記了許多缺陷。

兩組參與者幾乎檢查了整個(gè)電路板表面,花時(shí)間搜索,自我評(píng)價(jià)努力程度較高。結(jié)果是,與機(jī)器人合作的參與者平均發(fā)現(xiàn)了 3.3 個(gè)缺陷,獨(dú)自完成任務(wù)的人平均發(fā)現(xiàn)了 4.23 個(gè)缺陷。

兩組參與者檢測(cè)到的缺陷的平均值和標(biāo)準(zhǔn)偏差 |《機(jī)器人與人工智能前沿》研究

研究稱(chēng):「這表明參與者在與機(jī)器人伙伴合作時(shí),可能不太專(zhuān)心地檢查電路板。我們研究的參與者似乎保持了檢查電路板的努力,但似乎檢查是在較少的腦力勞動(dòng)和對(duì)采樣信息的關(guān)注下進(jìn)行的!

這意味著,如果他們被告知機(jī)器人已經(jīng)檢查了一部分,并體驗(yàn)到機(jī)器人的可靠后,他們就會(huì)發(fā)現(xiàn)更少的缺陷。在潛意識(shí)中,他們假設(shè)「熊貓」不太會(huì)漏掉缺陷,產(chǎn)生「社會(huì)惰化」效應(yīng)

這項(xiàng)研究的影響對(duì)于依賴(lài)嚴(yán)格的質(zhì)量控制的行業(yè)尤為重要。作者警告稱(chēng),甚至是短時(shí)間內(nèi)對(duì)人類(lèi)注意力的放松,可能是由于過(guò)度依賴(lài)機(jī)器人的準(zhǔn)確性,都可能危及安全。

研究人員 Onnasch 提到:「在更長(zhǎng)的輪班時(shí)間內(nèi),當(dāng)任務(wù)變得例行化,并且工作環(huán)境提供的性能監(jiān)控和反饋較少時(shí),動(dòng)力的喪失往往更大。在制造業(yè)普遍存在,特別是在雙重檢查常見(jiàn)的與安全相關(guān)的領(lǐng)域,這可能對(duì)工作結(jié)果產(chǎn)生負(fù)面影響。」

當(dāng)然,研究者的測(cè)試也有一些限制。比如,樣本其實(shí)還不夠大,而且在實(shí)驗(yàn)室中難以模擬「社會(huì)惰化」,因?yàn)閰⑴c者知道他們受到監(jiān)視。Cymek 解釋道:「主要的限制是實(shí)驗(yàn)室環(huán)境。要了解人機(jī)互動(dòng)中動(dòng)力喪失問(wèn)題的嚴(yán)重性,我們需要走出實(shí)驗(yàn)室,在實(shí)際工作環(huán)境中與經(jīng)驗(yàn)豐富的工人一起測(cè)試我們的假設(shè),他們通常與機(jī)器人一起工作!

「人機(jī)合作危機(jī)」早已發(fā)生

事實(shí)上,在實(shí)驗(yàn)室之外,人機(jī)合作導(dǎo)致的「墮化」早已經(jīng)在現(xiàn)實(shí)世界中出現(xiàn)。

在自動(dòng)駕駛領(lǐng)域,有一個(gè)與「社會(huì)惰化」相似的現(xiàn)象,叫做「自動(dòng)化自滿(Automation complacency)」,典型是由于有了自動(dòng)化輔助而分心

2018 年 3 月,在美國(guó)亞利桑那州,配有安全員的 Uber 自動(dòng)駕駛汽車(chē)撞死一位騎自行車(chē)的人。警方的分析發(fā)現(xiàn),如果安全員一直看著道路,安全員本可以在受害者前方 12.8 米處停下來(lái),并避免悲劇。

2018 年美國(guó)自動(dòng)駕駛致死事件 |CNN

特斯拉常常是美國(guó)媒體和監(jiān)管機(jī)構(gòu)重點(diǎn)關(guān)注的目標(biāo),原因常常是與自動(dòng)駕駛有關(guān)的事故。一個(gè)典型的場(chǎng)景是,特斯拉司機(jī)在使用自動(dòng)駕駛功能時(shí)睡覺(jué),或玩游戲,并卷入致命車(chē)禍。

在當(dāng)下的 AI 狂潮中,機(jī)器取代人類(lèi)的預(yù)言越來(lái)越接近現(xiàn)實(shí)。一方認(rèn)為機(jī)器會(huì)服務(wù)于人類(lèi),另一方則認(rèn)為人類(lèi)會(huì)不小心制造出邪惡之物。

在醫(yī)療領(lǐng)域,IBM 研發(fā)的 AI 系統(tǒng)「Doctor Watson」曾向癌癥患者給出過(guò)不安全的用藥建議。今年有論文指出,生成式 AI 已經(jīng)可以通過(guò)美國(guó)醫(yī)療許可考試的三個(gè)部分。一個(gè)相似的遷移假設(shè)是,如果未來(lái)由 AI 對(duì)人類(lèi)進(jìn)行診治,然后人類(lèi)醫(yī)生進(jìn)行把關(guān),人類(lèi)醫(yī)生是否又會(huì)出現(xiàn)「社會(huì)惰化」和「自動(dòng)化自滿」問(wèn)題

前述研究的作者指出:「將人類(lèi)和機(jī)器人的能力結(jié)合顯然提供了許多機(jī)會(huì),但我們也應(yīng)該考慮,人機(jī)團(tuán)隊(duì)中可能發(fā)生的意外群體效應(yīng)。當(dāng)人類(lèi)和機(jī)器人在一項(xiàng)任務(wù)上工作時(shí),這可能會(huì)導(dǎo)致人類(lèi)團(tuán)隊(duì)伙伴的動(dòng)力損失,并使社交惰化等影響更有可能發(fā)生!

還有人擔(dān)心,AI 可能會(huì)影響人類(lèi)思維和創(chuàng)造力,并削弱人際關(guān)系,從整個(gè)現(xiàn)實(shí)中分心。硅谷的生成式 AI 明星初創(chuàng)公司 Inflection 推出的聊天機(jī)器人 Pi,被設(shè)計(jì)成一位友善、支持的伴侶。創(chuàng)始人表示,Pi 是幫助人們應(yīng)對(duì)孤獨(dú)的工具,可以作為一個(gè)傾訴的對(duì)象。批評(píng)者則認(rèn)為,這會(huì)讓人逃離現(xiàn)實(shí),而不是與真實(shí)的人類(lèi)互動(dòng)。

現(xiàn)在,人與工具的關(guān)系已經(jīng)進(jìn)化到一個(gè)新的層次。所有工具的誕生,其實(shí)都讓人類(lèi)變懶了,如掃地機(jī)讓人免于清掃房屋,手機(jī)讓人不用再記下電話號(hào)碼。

但 AI 技術(shù)和此前的技術(shù)區(qū)別在于,將更多的思考和選擇工作,都交給了 AI,而后者基本上是一個(gè)黑箱,這更像一種思考自主權(quán)的讓渡。當(dāng)人將開(kāi)車(chē)決策完全交給自動(dòng)駕駛,將醫(yī)療診斷都交由 AI 系統(tǒng),潛在的代價(jià)與記不住電話號(hào)碼的代價(jià)可能完全不同。

開(kāi)發(fā)了歷史上第一個(gè)聊天機(jī)器人的計(jì)算機(jī)科學(xué)家約瑟夫維森鮑姆,曾將科學(xué)比喻成「一種上癮的藥物」,并由于服用劑量越來(lái)越大而成為「一種慢性毒藥」,如將計(jì)算機(jī)引入一些復(fù)雜的人類(lèi)活動(dòng),可能會(huì)沒(méi)有回頭路可走。

當(dāng)人把思考、判斷的權(quán)力交給機(jī)器,作為一種「參考」,「社會(huì)惰化」和「自動(dòng)化自滿」的魔鬼或許也潛伏其中,并可能隨任務(wù)的重復(fù)成為一種慢性毒藥。

頭圖來(lái)源:douban

贊助本站

人工智能實(shí)驗(yàn)室

相關(guān)熱詞: 人和 合作 到底 什么 危險(xiǎn)

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港