展會信息港展會大全

斯坦福大學研究發(fā)現(xiàn),AI 聊天機器人 ChatGPT 的表現(xiàn)很不穩(wěn)定
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-09-08 08:29:06   瀏覽:15019次  

導讀:IT之家 9 月 7 日消息,斯坦福大學的一項新研究發(fā)現(xiàn),熱門生成式人工智能(AI)聊天機器人 ChatGPT 的能力在幾個月內(nèi)有所波動。 斯坦福大學的團隊評估了 ChatGPT 在幾個月內(nèi)如何處理不同的任務。他們發(fā)現(xiàn),ChatGPT 的能力隨時間的推移而出現(xiàn)了不一致。目前,...

IT之家 9 月 7 日消息,斯坦福大學的一項新研究發(fā)現(xiàn),熱門生成式人工智能(AI)聊天機器人 ChatGPT 的能力在幾個月內(nèi)有所波動。

斯坦福大學的團隊評估了 ChatGPT 在幾個月內(nèi)如何處理不同的任務。他們發(fā)現(xiàn),ChatGPT 的能力隨時間的推移而出現(xiàn)了不一致。目前,ChatGPT 有兩個版本 免費的 GPT-3.5 模型和更智能、更快速的付費 GPT-4 版本。研究人員發(fā)現(xiàn),GPT-4 在 3 月份能夠有效地解決數(shù)學問題,識別質(zhì)數(shù)的準確率為 97.6%。三個月后,其準確率下降到了 2.4%。而另一方面,GPT-3.5 卻變得更好,從 7.4% 的準確率提高到了 86.8%。

研究人員還注意到,在編寫代碼和視覺推理方面也有類似的波動。斯坦福大學計算機科學教授 James Zou 稱:“當我們調(diào)整一個大型語言模型來提高它在某些任務上的表現(xiàn)時,那可能會有很多意想不到的后果,可能會損害這個模型在其他任務上的表現(xiàn)…… 這個模型回答問題的方式有各種各樣的相互依賴性,這可能導致我們觀察到的一些惡化行為。”

研究人員認為,結果并不能真正反映 ChatGPT 性能的準確性狀態(tài),而是顯示了微調(diào)模型帶來的意外后果。本質(zhì)上,當修改模型的一部分來改善一個任務時,其他任務可能會受到影響。為什么會這樣很難確定,因為沒有人知道 ChatGPT 是如何運作的,而且它的代碼也不是開源的。

隨著時間的推移,研究人員注意到,ChatGPT 的回答不僅變得不太準確,而且還停止了解釋其推理過程。

由于 ChatGPT 的運作方式,要研究和衡量它的表現(xiàn)可能很困難,這項研究強調(diào)了觀察和評估驅(qū)動 ChatGPT 等工具的大型語言模型(LLM)性能變化的必要性。該研究已經(jīng)在 arXiv 上發(fā)布,并正在等待同行評審,IT之家附鏈接在此。

贊助本站

人工智能實驗室
相關內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港