展會(huì)信息港展會(huì)大全

卡內(nèi)基梅隆大學(xué)學(xué)者:“沒(méi)有任何一種AI大模型能完全擺脫政治偏見(jiàn)”
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-08-10 09:22:07   瀏覽:17659次  

導(dǎo)讀:人工智能語(yǔ)言模型最近成為了美國(guó)文化戰(zhàn)爭(zhēng)的最新前沿。右翼評(píng)論員指責(zé) ChatGPT 存在所謂的覺(jué)醒偏見(jiàn),保守派團(tuán)體已經(jīng)開(kāi)始開(kāi)發(fā)自己陣營(yíng)的人工智能聊天機(jī)器人。 與此同時(shí),埃隆馬斯克(Elon Musk)表示,他正在開(kāi)發(fā)TruthGPT,這是一種最大限度尋求真相的語(yǔ)言模型...

人工智能語(yǔ)言模型最近成為了美國(guó)文化戰(zhàn)爭(zhēng)的最新前沿。右翼評(píng)論員指責(zé) ChatGPT 存在所謂的“覺(jué)醒偏見(jiàn)”,保守派團(tuán)體已經(jīng)開(kāi)始開(kāi)發(fā)自己“陣營(yíng)”的人工智能聊天機(jī)器人。

與此同時(shí),埃隆馬斯克(Elon Musk)表示,他正在開(kāi)發(fā)“TruthGPT”,這是一種“最大限度尋求真相”的語(yǔ)言模型,與 OpenAI 和谷歌創(chuàng)建的“政治正確”聊天機(jī)器人既然不同。

一個(gè)公正、純粹基于事實(shí)的人工智能聊天機(jī)器人是一個(gè)可愛(ài)的想法,但從技術(shù)上講是不可能的。馬斯克尚未透露他的 TruthGPT 會(huì)包含什么樣的細(xì)節(jié),可能是因?yàn)樗τ谒伎?X(原推特公司)和與馬克扎克伯格(Mark Zuckerberg)的八角籠之戰(zhàn)。

我們最近的一篇報(bào)道揭示了政治偏見(jiàn)是如何進(jìn)入人工智能語(yǔ)言系統(tǒng)的。研究人員對(duì) 14 個(gè)大型語(yǔ)言模型進(jìn)行了測(cè)試,發(fā)現(xiàn) OpenAI 的 ChatGPT 和 GPT-4 是最左翼的自由主義者,而 Meta 的 LLaMA 是最右翼的威權(quán)主義者。

卡內(nèi)基梅隆大學(xué)的博士研究員帕克陳(Chan Park)參與了這項(xiàng)研究,他告訴我:“我們相信沒(méi)有一種語(yǔ)言模型可以完全擺脫政治偏見(jiàn)。”

關(guān)于人工智能最廣為流傳的一個(gè)說(shuō)法是,該技術(shù)是中立和公正的。這是一個(gè)危險(xiǎn)的敘事,它只會(huì)加劇人類信任計(jì)算機(jī)的傾向,即使計(jì)算機(jī)是錯(cuò)誤的。事實(shí)上,人工智能語(yǔ)言模型不僅反映了其訓(xùn)練數(shù)據(jù)中的偏見(jiàn),還反映了創(chuàng)建和訓(xùn)練這些模型的人的偏見(jiàn)。

美國(guó)達(dá)特茅斯學(xué)院計(jì)算機(jī)科學(xué)助理教索魯什沃蘇吉(Soroush Vosoughi)表示,眾所周知,用于訓(xùn)練人工智能模型的數(shù)據(jù)是這些偏見(jiàn)的主要來(lái)源,但是我的研究表明偏見(jiàn)蔓延于模型開(kāi)發(fā)的幾乎每個(gè)階段。

人工智能語(yǔ)言模型中的偏見(jiàn)是一個(gè)特別難以解決的問(wèn)題,因?yàn)槲覀儾⒉徽嬲私馑鼈兪侨绾萎a(chǎn)生結(jié)果的,而且我們減輕偏見(jiàn)的過(guò)程也不完美。這在一定程度上是因?yàn)槠?jiàn)是復(fù)雜的社會(huì)問(wèn)題,沒(méi)有簡(jiǎn)單的技術(shù)解決方案。

這就是為什么我堅(jiān)信,誠(chéng)實(shí)是最好的政策。這樣的研究可以鼓勵(lì)公司跟蹤和繪制模型中的政治偏見(jiàn),并對(duì)客戶更加直率。例如,他們可以明確說(shuō)明已知的偏見(jiàn),這樣用戶就可以對(duì)模型的輸出持保留態(tài)度。

(來(lái)源:STEPHANIE ARNETT/MITTR | MIDJOURNEY (SUITS))

本著這種精神,今年早些時(shí)候 OpenAI 告訴我,它正在開(kāi)發(fā)能夠代表不同政治和世界觀的定制聊天機(jī)器人。一種方法是允許人們對(duì)他們的人工智能聊天機(jī)器人進(jìn)行個(gè)性化設(shè)置。這也是沃蘇吉的研究重點(diǎn)。

正如一篇經(jīng)過(guò)同行評(píng)審論文中所述,沃蘇吉和他的同事創(chuàng)建了一種類似于 YouTube 推薦算法的方法,但用于生成式模型。他們使用強(qiáng)化學(xué)習(xí)來(lái)指導(dǎo)人工智能語(yǔ)言模型的輸出,從而生成某些政治意識(shí)形態(tài)或消除仇恨言論。

OpenAI 使用一種名為“通過(guò)人類反饋強(qiáng)化學(xué)習(xí)”的技術(shù),在人工智能模型上線之前對(duì)其進(jìn)行微調(diào)。沃蘇吉的方法可以使用強(qiáng)化學(xué)習(xí)來(lái)改進(jìn)模型發(fā)布后生成的內(nèi)容。

但在一個(gè)日益兩極分化的世界里,這種程度的定制可能會(huì)帶來(lái)好的和壞的結(jié)果。雖然它可以用來(lái)消除人工智能模型中的糟糕或錯(cuò)誤信息,但它也可以用來(lái)產(chǎn)生更多的錯(cuò)誤信息。

“這是一把雙刃劍,”沃蘇吉承認(rèn)。

作者簡(jiǎn)介:梅麗莎海基萊(Melissa Heikkil)是《麻省理工科技評(píng)論》的資深記者,她著重報(bào)道人工智能及其如何改變我們的社會(huì)。此前,她曾在 POLITICO 撰寫有關(guān)人工智能政策和政治的文章。她還曾在《經(jīng)濟(jì)學(xué)人》工作,并曾擔(dān)任新聞主播。

支持:Ren

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港