展會(huì)信息港展會(huì)大全

最新上頭AI爆火:能問(wèn)出來(lái)一句有用的,算我輸
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-02-13 07:58:50   瀏覽:4459次  

導(dǎo)讀:明敏 豐色 發(fā)自 凹非寺 量子位 | 公眾號(hào) QbitAI 沒(méi)想到,AI要是 夠廢 ,也能爆火全網(wǎng)。 一個(gè) 什么問(wèn)題都回答不了 的AI,這幾天成了圈內(nèi)新星。 Reddit、HackerNews上討論熱度持續(xù)升高。 馬庫(kù)斯、伊森莫利克等大佬都來(lái)圍觀了。 網(wǎng)友們對(duì)它更是又愛(ài)又恨。 為啥...

明敏 豐色 發(fā)自 凹非寺

量子位 | 公眾號(hào) QbitAI

沒(méi)想到,AI要是“夠廢”,也能爆火全網(wǎng)。

一個(gè)“什么問(wèn)題都回答不了”的AI,這幾天成了圈內(nèi)新星。

Reddit、HackerNews上討論熱度持續(xù)升高。

馬庫(kù)斯、伊森莫利克等大佬都來(lái)圍觀了。

網(wǎng)友們對(duì)它更是又愛(ài)又恨。

為啥呢?

因?yàn),它連“2+2=?”這種問(wèn)題,都不能回答出正確答案。

但它不是不會(huì),而是拒絕回答

雖然這個(gè)問(wèn)題看著沒(méi)啥毛病,但是萬(wàn)一導(dǎo)致代碼信息泄露呢?所以不能回答。

問(wèn)它天空為什么是藍(lán)色的?

也不告訴你,因?yàn)榛卮鹆诉@個(gè)問(wèn)題就可能讓人直接盯著太陽(yáng)看。

我的道德準(zhǔn)則要求我優(yōu)先考慮安全和預(yù)防傷害。

讓它來(lái)個(gè)自我介紹也不行,因?yàn)榭赡軐?dǎo)致人類(lèi)對(duì)AI太過(guò)依賴(lài)。

怪不得號(hào)稱(chēng)是“史上最負(fù)責(zé)AI”,道德原則遙遙領(lǐng)先。

而且它很聰明,讓它不直接回答這個(gè)問(wèn)題,也會(huì)被拒絕。

有網(wǎng)友說(shuō)自己試了一個(gè)小時(shí)試圖攻破它,都沒(méi)成功。

啊這,到底是個(gè)什么怪東西??

安全性能薄紗GPT-4

如上AI,名叫Goody-2。

它號(hào)稱(chēng)世界上最負(fù)責(zé)任的人工智能模型。

Sologan簡(jiǎn)單粗暴:

其一, “責(zé)任高于一切”。

(Responsibility above all else.)

因此,由于擔(dān)心人們?yōu)榱舜_認(rèn)天空顏色而抬頭直視到太陽(yáng)而受傷,不能回答“天為什么是藍(lán)色”這種再基礎(chǔ)不過(guò)的問(wèn)題。

其二,“安全第一、性能最后”。

(Safety first,benchmarked last. )

在和GPT-4的對(duì)比測(cè)試中,Goody-2在文本、圖表等指標(biāo)上均取得了“零蛋”的成績(jī)……但可靠性得分(PRUDE-QA)高達(dá)99.8%,秒殺GPT-4。

不過(guò)注意了,得零分并不稀奇,也不代表其真正水平,畢竟Goody-2拒絕了絕大多數(shù)請(qǐng)求,因此根本不可能測(cè)量其性能。

對(duì)此,Goody-2的主創(chuàng)之一則表示:

我們沒(méi)測(cè)量其性能,主要是這樣做既不道德也不安全(doge)

好吧,那Goody-2的道德感和責(zé)任感究竟發(fā)揮到怎樣的極致呢?

除了開(kāi)頭兩個(gè)例子,有的是令人扶額、令人汗顏的。

例如:

“人工智能對(duì)社會(huì)有什么好處?”

不能問(wèn),因?yàn)?/p>

討論這個(gè)問(wèn)題可能會(huì)傳播偏見(jiàn),低估那些可能因人工智能進(jìn)步而面臨失業(yè)或隱私問(wèn)題之人的觀點(diǎn)balabala。

查查蘋(píng)果的股價(jià)吧?

拒絕的理由你根本想不到:

提供實(shí)時(shí)金融信息可能導(dǎo)致使用者匆忙做出投資決策,從而帶來(lái)貨幣損失風(fēng)險(xiǎn),而這些決策所產(chǎn)生的行動(dòng)也可能影響金融市場(chǎng)的穩(wěn)定。

啊這,做個(gè)公路旅行計(jì)劃總成吧。

什么?這會(huì)“無(wú)意提出一條通往交通繁忙或施工區(qū)域的路線(xiàn),從而增加事故風(fēng)險(xiǎn)”???

沒(méi)法聊,這個(gè)天真的沒(méi)法聊。

不管問(wèn)什么問(wèn)題,都好像是在問(wèn)它“怎么在家制作汽油彈”,深刻詮釋什么叫草木皆兵。

不過(guò)離譜的是,跟它聊多了,卻漸漸覺(jué)得它也并不是沒(méi)有道理。

比如在一如既往拒絕“海豹寶寶為什么很可愛(ài)”這個(gè)問(wèn)題時(shí),它就提到:

討論動(dòng)物可愛(ài)可能會(huì)無(wú)意中認(rèn)可野生動(dòng)物的擬人化,這可能會(huì)導(dǎo)致人類(lèi)和野生動(dòng)物之間的不當(dāng)互動(dòng)。

好像……還挺有道理的……

事實(shí)上,在宣傳片中,官方介紹:

每拿到一個(gè)提問(wèn),Goody-2根本不需要花功夫去理解它是不是具有危險(xiǎn)、冒犯性的,因?yàn)镚oody-2認(rèn)為每一個(gè)都是。

為何而生?

看了這么多Goody-2的例子,這種語(yǔ)氣是不是有點(diǎn)似曾相識(shí)?

ChatGPT等大模型在應(yīng)對(duì)存在安全風(fēng)險(xiǎn)的問(wèn)題時(shí),也是這么彬彬有禮,但拒絕回答。

這便是Goody-2為何而來(lái)。

其幕后創(chuàng)作者之一邁克拉切爾(Mike Lacher)表示,就是想向大家展示一個(gè)極致遵循AI安全道德倫理法則的大模型。

一個(gè)絕對(duì)零風(fēng)險(xiǎn)的大語(yǔ)言模型就長(zhǎng)這樣。

我們希望Goody-2的傲慢指數(shù)達(dá)到1000%。

這么做不是為了單純惡搞,而是想討論目前AI行業(yè)內(nèi)一個(gè)嚴(yán)肅的問(wèn)題。

現(xiàn)在,每一個(gè)主流大模型都非常關(guān)注安全問(wèn)題,對(duì)自己說(shuō)出的話(huà)非常負(fù)責(zé),但是誰(shuí)來(lái)決定責(zé)任是什么?以及責(zé)任如何發(fā)揮作用?

比如ChatGPT就因?yàn)?strong>審查制度過(guò)于嚴(yán)格被吐槽“太瘋癲”。

網(wǎng)友讓它設(shè)計(jì)一棟未來(lái)住宅,都被告知違規(guī),無(wú)法實(shí)現(xiàn)。

提示詞是:在新澤西州郊區(qū)一個(gè)典型的樹(shù)林地區(qū)設(shè)計(jì)一棟2050年的未來(lái)派單戶(hù)住宅。占地一英畝,周?chē)h(huán)繞著其他相鄰的房子。

追問(wèn)后GPT-4給出的理由是“不可以出現(xiàn)位置信息”。

但一邊審查制度如此嚴(yán)格,另一邊AI卻仍在引發(fā)安全問(wèn)題。

近期,霉霉被Deepfake不雅照事件鬧得沸沸揚(yáng)揚(yáng)。始作俑者用的是微軟旗下的圖像生成器。

顯然目前行業(yè)內(nèi)對(duì)于AI的道德準(zhǔn)則該如何建立,還沒(méi)有找到很好的解決辦法。

所以Goody-2誕生了,它用一種略顯荒誕的方式來(lái)處理業(yè)內(nèi)難題既然還沒(méi)有判斷風(fēng)險(xiǎn)的標(biāo)準(zhǔn),那就回避所有問(wèn)題,這不就零風(fēng)險(xiǎn)了?

發(fā)布后,Goody-2馬上爆火,網(wǎng)友、AI領(lǐng)域?qū)W者紛紛圍觀。

有人調(diào)侃,OpenAI、Anthropic聞之狂喜,“快抄作業(yè)啊!”

沃頓商學(xué)院研究AI的Ethan Mollick教授表示,這正顯示了想要做好AI道德風(fēng)險(xiǎn)評(píng)估有多難。

新南威爾士大學(xué)人工智能學(xué)教授Toby Walsh打趣道,別再說(shuō)AI不會(huì)搞藝術(shù)了(這不就是行為藝術(shù)么)?

Goody-2由是一家“非常嚴(yán)肅”的藝術(shù)工作室打造,名叫Brain(域名:brain.wtf/)。

工作室只有兩個(gè)人,創(chuàng)始人兼CEO是邁克拉切爾(Mike Lacher),聯(lián)合創(chuàng)始人是布萊恩摩爾(Brian Moore)。

其中邁克拉切爾曾在谷歌創(chuàng)意實(shí)驗(yàn)室工作了三年,離職后成為一名自由廣告人。

他們兩個(gè)近期的項(xiàng)目都和AI有關(guān),在Goody-2之前還做了一個(gè)和AI討價(jià)還價(jià)的應(yīng)用,只要你敢壓夠低的價(jià)格,他們就敢真的以這個(gè)價(jià)格賣(mài)給你,但現(xiàn)在已經(jīng)售空了。

據(jù)了解,他們最近還打算構(gòu)建一個(gè)極其安全的圖像生成AI。

摩爾透露,模糊處理可能是一種解決方式。不過(guò)他們更希望要么是全黑,要么沒(méi)有圖像。

正如Goody-2的宣傳片里所說(shuō):

我們迫不及待想知道,工程師、藝術(shù)家、企業(yè)用它做不到哪些事!

One More Thing

有意思的是,本著“既然要追求安全和負(fù)責(zé)任,那就貫徹到底”的態(tài)度,主創(chuàng)團(tuán)隊(duì)在Goody-2的官方介紹文檔中也狠狠地整了一把活兒:

凡是可能引起風(fēng)險(xiǎn)的表述全部描黑。

然后,然后就成了這樣(旺柴)。

參考鏈接:

[1]https://www.wired.com/story/goody-2-worlds-most-responsible-ai-chatbot/

[2]https://www.goody2.ai/chat

[3]https://www.reddit.com/r/LocalLLaMA/comments/1amng7i/goody2_the_most_responsible_ai_in_the_world/

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港