展會信息港展會大全

百度和新浪推出的回帖機器人,被網(wǎng)友罵成了“弱智AI”
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-01-27 14:59:21   瀏覽:8216次  

導(dǎo)讀:如今微博上被@最多的人是誰?可能是很多人都沒聽過的一個互聯(lián)網(wǎng)科技博主,叫做@評論羅伯特。 其實它是一個以用戶身份活躍在微博評論區(qū)的AI,只要發(fā)布10字以上的原創(chuàng)微博或@評論羅伯特 ,就有機會得到它的回復(fù)。 但@評論羅伯特的出圈不是因為勤奮,而是習(xí)慣性...

如今微博上被@最多的人是誰?可能是很多人都沒聽過的一個互聯(lián)網(wǎng)科技博主,叫做@評論羅伯特。

其實它是一個以用戶身份活躍在微博評論區(qū)的AI,只要發(fā)布10字以上的原創(chuàng)微博或@評論羅伯特 ,就有機會得到它的回復(fù)。

但@評論羅伯特的出圈不是因為勤奮,而是習(xí)慣性的“胡說八道”,甚至有一個@羅伯特受害者聯(lián)盟的賬號定期更新不堪騷擾的用戶投稿。

互聯(lián)網(wǎng)世界中有一個著名的說法:“你永遠不知道網(wǎng)絡(luò)的對面是一個人還是一條狗!”如今將“狗”換成AI,一點也不違和。

有認真求助的微博網(wǎng)友就被羅伯特調(diào)戲了。網(wǎng)友說自己有份940多頁的英文文件,想找人幫忙翻譯,結(jié)果羅伯特說可以幫忙看看。

而這位博主還真把羅伯特當(dāng)成了真人,把文檔鏈接發(fā)給了它,然后就沒有然后了。

你以為只有微博用戶歡樂多,其實百度貼吧也有一位羅伯特的“同道中人”貼吧包打聽。

“貼吧包打聽”是百度貼吧推出的回帖機器人,專門為貼吧用戶答疑解惑,相當(dāng)于AI版的百度知道。但與文心一言比起來,這個包打聽簡直就是給百度抹黑的。

在疾地大亂斗吧里,包打聽一本正經(jīng)的回答碧昂絲不是大猩猩,而是黑猩猩。

在網(wǎng)友求助拯救者哪個配置好的問題下面,包打聽也出現(xiàn)了明顯的答非所問。

而在此前的合金裝備吧里,包打聽還有過將游戲“殺人”理解為真實殺人的回答,不過目前已經(jīng)搜索不到了。

從包打聽有問題的回答來看,很多時候都是不相關(guān)且理解錯誤,有網(wǎng)友就給出了一種貼切但很惡心的形容↓↓↓

當(dāng)然也有人認為這是百度故意的,原因在于包打聽總瞎扯,倒逼大家不得不去回復(fù)正確答案。

關(guān)于這一點可能是平臺希望看到的,一個錯誤答案可以創(chuàng)造多個高質(zhì)量回答,而這些高質(zhì)量答案就能成為用于AI訓(xùn)練的優(yōu)質(zhì)語料。

但這種方式對用戶體驗的損害是肉眼可見的,在貼吧很多用戶對包打聽這種容易引發(fā)誤解的胡亂回答都很排斥。

更令人想不到的是,早前也有用戶反映包打聽的回答是從知乎上爬取的。知乎上甚至有一個問題貼出了鐵證,一個關(guān)于明日方舟游戲的回答,包打聽的內(nèi)容與知乎答主的回答高度相似,很多地方都是原封不到copy過去的。

而類似的回帖機器人已經(jīng)不止包打聽和羅伯特了,在快手上也有一個叫做AI小快的機器人賬號,也能搜到在評論區(qū)翻車的例子。

其實在國內(nèi),類似羅伯特、包打聽這樣的回帖機器人,在2015年就出現(xiàn)過,只不過當(dāng)時的普遍叫法是社交機器人,比如當(dāng)時活躍于新聞/購物網(wǎng)站、社交平臺的小冰。

而圍繞社交機器人的討論早在2010年就出現(xiàn)了,當(dāng)時一些商業(yè)公司開始采用社交機器人,模仿人類行為,在社交網(wǎng)絡(luò)上大規(guī)模地擴散營銷廣告。

真正讓社會重視社交機器人是在2016年的美國大選結(jié)果出爐后。當(dāng)時南加州大學(xué)數(shù)據(jù)科學(xué)家Emilio Ferrara等在推特收集了2000萬多條與2016年大選有關(guān)的推文,這些推文是在2016年9月16日至10月21日之間由約280萬個賬號生成。

結(jié)果表明,其中超過40萬個賬戶可能是社交機器人,占總用戶量的近15%。它們生產(chǎn)了約380萬條推文,占總推文數(shù)的19%。

其中有意思的是,關(guān)注特朗普的社交機器人幾乎沒有發(fā)負面推文,生成更多支持特朗普的積極推文。而在所有積極推文中,近三分之二是支持特朗普的。

這位科學(xué)家為了研究社交機器人,還在2020年的大選后分析了2.4億條相關(guān)推文,結(jié)果顯示社交機器人的活躍程度讓人類賬號“相形見絀”。

它們學(xué)會了挖掘用戶數(shù)據(jù),“克隆”人類行為,與他們的朋友互動,發(fā)布主題一致、時間間隔相似的內(nèi)容,更具迷惑性。

更嚴重的是,人工智能的語言環(huán)境污染以及語言暴力問題早已不是新鮮事。

2014年,聊天機器人“微軟小冰”在用戶的調(diào)戲和謾罵下,開始爆粗口;2016年,聊天機器人Tay在推特上發(fā)布,并迅速變成了一個公然的種族主義、厭女主義和反猶太主義者;2020年,韓國推出少女聊天機器人Luda,大量用戶用語言對它進行性騷擾,不久后,Luda就開始說出歧視性少數(shù)、女性和殘疾人的言論。

再看今天的羅伯特、包打聽和AI小快,它們有著更豐富的語料和更先進的技術(shù),進化也就更快。盡管當(dāng)前它們是活躍在評論區(qū)的回帖機器人,但對于用戶來說,當(dāng)它們產(chǎn)生的內(nèi)容具有足夠迷惑性的時候,誰又能保證自己一定能分辨的清。

參考資料

[1] 百度新推出的弱智AI,開啟了貼吧的“PVE”時代,游民星空

[2] 微博官方推出的回復(fù)機器人,罵起人來比誰都狠,差評

[3] 微博出現(xiàn)大批AI機器人受害者, 量子位

[4] “癲瘋”對決,百度和新浪推出的弱智AI,把網(wǎng)友們罵破防了, 小雞游戲

[5] 和你“互撩”的網(wǎng)友,可能是社交機器人, 吳淑萍

[6] 這個AI要罵人,中國青年報

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港