展會(huì)信息港展會(huì)大全

警惕AI“后遺癥”:讓人產(chǎn)生情感依賴甚至上癮
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-08-15 11:14:50   瀏覽:4022次  

導(dǎo)讀:(來源:MIT TR) The Algorithm 這是《麻省理工科技評(píng)論》的人工智能領(lǐng)域的專欄,帶你一起揭開最新人工智能突破的神秘面紗。 當(dāng)生成式人工智能熱潮于 2022 年末隨著 ChatGPT 的出現(xiàn)而興起,一幅超級(jí)人工智能工具的圖景在我們面前展開這些工具無所不知,能夠...

(來源:MIT TR)

The Algorithm

這是《麻省理工科技評(píng)論》的人工智能領(lǐng)域的專欄,帶你一起揭開最新人工智能突破的神秘面紗。

當(dāng)生成式人工智能熱潮于 2022 年末隨著 ChatGPT 的出現(xiàn)而興起,一幅超級(jí)人工智能工具的圖景在我們面前展開這些工具無所不知,能夠替代工作中乏味的部分,并極大提升生產(chǎn)力和經(jīng)濟(jì)效益。

兩年過去了,大多數(shù)那些預(yù)期的生產(chǎn)力提升并未實(shí)現(xiàn)。我們觀察到了一些奇特而出乎意料的現(xiàn)象:人們開始與人工智能系統(tǒng)建立關(guān)系。我們與它們交談,說“請(qǐng)”和“謝謝”,并已經(jīng)開始邀請(qǐng)人工智能作為朋友、戀人、導(dǎo)師、治療師和教師進(jìn)入我們的生活。

MIT Media Lab 和哈佛大學(xué)法學(xué)院的聯(lián)合 JD-PhD 候選人 Robert Mahari 以及 MIT Media Lab 的研究員 Pat Pataranutaporn 認(rèn)為我們正在見證一場(chǎng)大規(guī)模的現(xiàn)實(shí)世界實(shí)驗(yàn),目前還不確定這些人工智能伴侶對(duì)我們個(gè)人或整個(gè)社會(huì)會(huì)產(chǎn)生什么影響。他們認(rèn)為我們需要為“成癮智能”(Addictive Intelligence) 做好準(zhǔn)備,即那些內(nèi)置了暗黑模式會(huì)讓我們上癮的人工智能伴侶。他們研究如何通過監(jiān)管來幫助我們預(yù)防與AI 聊天機(jī)器人相關(guān)的一些風(fēng)險(xiǎn),以防它們侵蝕心智。

與人工智能伴侶建立情感聯(lián)系的想法已不再僅僅是一種假設(shè)。那些聲音富有情感的聊天機(jī)器人,如 OpenAI 的 GPT-4o,可能會(huì)讓我們更加深陷其中。在安全測(cè)試中,OpenAI 發(fā)現(xiàn)用戶會(huì)使用表明他們與人工智能模型建立了聯(lián)系的語(yǔ)言,例如“這是我們?cè)谝黄鸬淖詈笠惶?rdquo;。公司本身承認(rèn),情感依賴是其新的語(yǔ)音功能聊天機(jī)器人可能加劇的風(fēng)險(xiǎn)之一。

已經(jīng)有證據(jù)表明,即使僅限于文本交流,我們也正在與人工智能建立更深一層的連接。Mahari 是研究組的一員,他們分析了一百萬條與 ChatGPT 的交互記錄,并發(fā)現(xiàn)人工智能的第二大流行用途是性角色扮演。除此之外,聊天機(jī)器人的最廣泛用途是創(chuàng)意創(chuàng)作。人們還喜歡用它來頭腦風(fēng)暴和進(jìn)行規(guī)劃,尋求解釋和獲取信息。

這類創(chuàng)造性和娛樂性的任務(wù)是使用人工智能聊天機(jī)器人的絕佳方式。人工智能語(yǔ)言模型通過預(yù)測(cè)句子中的下一個(gè)可能詞匯來工作。它們是自信的騙子,常常將謊言當(dāng)作事實(shí)呈現(xiàn),編造內(nèi)容,或者產(chǎn)生幻覺。當(dāng)編造內(nèi)容本身就是目的時(shí),這一點(diǎn)就不那么重要了。今年 6 月,我的同事 Rhiannon Williams 撰文講述了喜劇演員們?nèi)绾伟l(fā)現(xiàn)人工智能語(yǔ)言模型對(duì)于生成他們的素材初稿非常有用,之后他們會(huì)加入自己的人類智慧使其變得有趣。

但這些用途從經(jīng)濟(jì)角度來看不一定有效。我很確定,投資者在向人工智能公司投入數(shù)十億美元時(shí),并沒有想過會(huì)用于色情聊天機(jī)器人,再加上我們至今仍未找到人工智能的殺手級(jí)應(yīng)用,難怪華爾街最近對(duì)人工智能的熱情大減。

那些被認(rèn)為“富有成效”的應(yīng)用場(chǎng)景,也因此被大肆炒作,但在人工智能的實(shí)際采用方面卻遇到了較少的成功。在如代碼生成、新聞撰寫和在線搜索的應(yīng)用場(chǎng)景中,準(zhǔn)確性非常重要,而幻覺問題開始成為一個(gè)障礙。一些尷尬的失敗案例發(fā)生在人們過度信任這些聊天機(jī)器人或?qū)⑺鼈円暈槭聦?shí)信息來源的時(shí)候。例如,今年早些時(shí)候,谷歌的人工智能概覽功能(它匯總網(wǎng)絡(luò)搜索結(jié)果)曾錯(cuò)誤地建議人們吃巖石并在披薩上添加膠水。

這正是夸大人工智能的問題所在。它把我們的期望設(shè)置得過高,當(dāng)那些字面上難以置信的承諾未能實(shí)現(xiàn)時(shí),我們會(huì)感到失望和幻滅。它還誤導(dǎo)我們以為人工智能是一種已經(jīng)足夠成熟的技術(shù),可以立即帶來變革。實(shí)際上,我們可能還需要幾年的時(shí)間才能看到它的真正益處。

原文鏈接:

https://www.technologyreview.com/2024/08/12/1096202/how-people-actually-using-ai/

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港