展會信息港展會大全

為什么比爾·蓋茨不擔心人工智能模型會瞎編內(nèi)容
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-07-15 08:54:15   瀏覽:14460次  

導讀:文/Rashi Shrivastava 這位微軟聯(lián)合創(chuàng)始人在他的博客GatesNotes上寫道,讓人工智能模型對自己的偏見和事實錯誤更有自知之明和自覺,可能會防止它們在未來產(chǎn)生更多的虛假信息。 比爾蓋茨在他最新的博客文章中提出,人工智能可以用來解決人工智能造成的問題。...

文/Rashi Shrivastava

這位微軟聯(lián)合創(chuàng)始人在他的博客GatesNotes上寫道,讓人工智能模型對自己的偏見和事實錯誤更有“自知之明”和“自覺”,可能會防止它們在未來產(chǎn)生更多的虛假信息。

比爾蓋茨在他最新的博客文章中提出,人工智能可以用來解決人工智能造成的問題。圖片來源:GETTY IMAGES

生成式人工智能工具已經(jīng)到來,它們被濫用的可能性也無窮無荊它們可以在選舉期間捏造虛假信息,也經(jīng)常編造有偏見和錯誤的信息。另外,此外,它們還能讓學校里的作文作弊變得極其容易。

今年早些時候,億萬富豪比爾蓋茨在接受《福布斯》采訪時表示,他認為向人工智能的轉變“與PC一樣重要”,他對所有這些挑戰(zhàn)都感到擔憂。但正如他在最近的一篇博客文章中所闡述的那樣,他認為人工智能可以被用來解決它所造成的問題。

大型語言模型最著名的問題之一是它們傾向于產(chǎn)生“幻覺”或事實上不正確、有偏見或有害的信息。這是因為這些模型是根據(jù)從互聯(lián)網(wǎng)上收集的大量數(shù)據(jù)進行訓練的,而互聯(lián)網(wǎng)上充斥著偏見和錯誤信息。但蓋茨認為,有可能開發(fā)出一種人工智能工具,讓它們意識到自己在接受訓練時使用了錯誤的數(shù)據(jù)和做出了有偏見的假設。

他寫道:“人工智能模型繼承了它們接受訓練的文本中所包含的偏見。我樂觀地認為,隨著時間的推移,人工智能模型可以學會區(qū)分事實和虛構。一種方法是將人類價值觀和更高層次的推理融入人工智能。”

在這方面,他著重提到了ChatGPT的創(chuàng)造者OpenAI試圖通過人類的反饋使他們的模型更準確、更有代表性和更安全。但是,即使在對其大型語言模型GPT-4的高級版本進行訓練之后,這個飽受關注的聊天機器人仍然充滿了偏見和不準確性。人工智能研究人員發(fā)現(xiàn),ChatGPT強化了對女性和男性工作的性別刻板印象。(較新的聊天機器人,如Anthropic的ChatGPT競爭對手Claude 2.0,也在努力提高對話內(nèi)容的準確性和減少有害內(nèi)容,但它們還沒有得到用戶的廣泛測試。)

蓋茨有理由贊揚ChatGPT:他的公司微軟已經(jīng)向OpenAI投資了數(shù)十億美元。今年4月底,在微軟的財報電話會議上提到人工智能超過50次后,蓋茨的財富增加了20億美元。他目前的身家約為1,180億美元。

蓋茨在博客中討論的一個例子是,黑客和網(wǎng)絡犯罪分子會使用生成式人工智能工具編寫代碼或創(chuàng)建人工智能生成的聲音來進行電話詐騙。這些工具的失控影響導致一些人工智能領域的領導者和專家,包括蘋果聯(lián)合創(chuàng)始人史蒂夫沃茲尼亞克(Steve Wozniak)、特斯拉、SpaceX和Twitter首席執(zhí)行官埃隆馬斯克(Elon Musk),以及人類技術中心(Center for Human Technology)聯(lián)合創(chuàng)始人特里斯坦哈里斯(Tristan Harris)在3月底發(fā)表的一封公開信中呼吁暫停部署強大的人工智能工具。蓋茨反駁了這封信,并強調他不認為暫停開發(fā)會解決任何挑戰(zhàn)。他寫道:“我們不應該像一些人提議的那樣,試圖暫時阻止人們實施人工智能的新發(fā)展。”

相反,他表示,這些后果為繼續(xù)開發(fā)先進的人工智能工具和監(jiān)管提供了進一步的理由,以便讓政府和企業(yè)能夠發(fā)現(xiàn)、限制和打擊濫用人工智能的行為。“網(wǎng)絡犯罪分子不會停止制造新工具……阻止他們的努力需要我們以同樣的速度繼續(xù)開發(fā)下去。”他寫道。

但是,蓋茨聲稱人工智能工具可以用來彌補其他人工智能工具的不足,這在實際層面可能站不住腳至少現(xiàn)在還如此。例如,雖然市面上推出了一系列人工智能探測器和深度造假探測器,但并非所有探測器都能正確標記出合成或被操縱的內(nèi)容。據(jù)《紐約時報》報道,一些探測器會錯誤地將真實圖像描述為人工智能生成的。但是,蓋茨表示,生成式人工智能仍然是一項新興技術,需要政府機構和公司對其進行監(jiān)控和監(jiān)管,以控制其對社會的意外影響。

“我們現(xiàn)在正處于……人工智能時代。這類似于一個限速和安全帶出現(xiàn)之前的不確定時代。”蓋茨寫道。

本文譯自https://www.forbes.com/sites/rashishrivastava/2023/07/12/why-bill-gates-isnt-worried-about-ai-models-making-stuff-up/?sh=4c8215cb40e7#open-web-0

贊助本站

人工智能實驗室
相關內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港