展會信息港展會大全

可協(xié)助 AI 改善糾錯(cuò)能力,谷歌推出 BIG-Bench Mistake 數(shù)據(jù)集
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-01-15 14:48:18   瀏覽:6204次  

導(dǎo)讀:IT之家 1 月 15 日消息,谷歌研究院日前使用自家 BIG-Bench 基準(zhǔn)測試建立了一項(xiàng)BIG-Bench Mistake數(shù)據(jù)集,并利用相關(guān)數(shù)據(jù)集對市面上流行的語言模型出錯(cuò)概率及糾錯(cuò)能力進(jìn)行了一系列評估研究。 谷歌研究人員表示,由于過去沒有能夠評估大語言模型出錯(cuò)概率及自...

IT之家 1 月 15 日消息,谷歌研究院日前使用自家 BIG-Bench 基準(zhǔn)測試建立了一項(xiàng)“BIG-Bench Mistake”數(shù)據(jù)集,并利用相關(guān)數(shù)據(jù)集對市面上流行的語言模型“出錯(cuò)概率”及“糾錯(cuò)能力”進(jìn)行了一系列評估研究。

谷歌研究人員表示,由于過去沒有能夠評估大語言模型“出錯(cuò)概率”及“自我糾錯(cuò)能力”的數(shù)據(jù)集,因此他們創(chuàng)建了一項(xiàng)名為“BIG-Bench Mistake”的專用基準(zhǔn)數(shù)據(jù)集用于評估測試。

據(jù)悉,研究人員首先使用 PaLM 語言模型在自家 BIG-Bench 基準(zhǔn)測試任務(wù)中運(yùn)行了5項(xiàng)任務(wù),之后將生成的“思維鏈(Chain-of-Thought)”軌跡修改加入“邏輯錯(cuò)誤”部分,之后重新丟給模型判斷思維鏈軌跡中哪些地方存在錯(cuò)誤。

為了提升數(shù)據(jù)集準(zhǔn)確程度,谷歌研究人員反復(fù)進(jìn)行上述過程,最終形成了一項(xiàng)內(nèi)含“255 項(xiàng)邏輯錯(cuò)誤”的“BIG-Bench Mistake”專用基準(zhǔn)數(shù)據(jù)集。

研究人員提到,由于“BIG-Bench Mistake”數(shù)據(jù)集中的邏輯錯(cuò)誤較為“簡單明確”,因此可以作為一個(gè)良好的測試標(biāo)準(zhǔn),可協(xié)助語言模型先從簡單的邏輯錯(cuò)誤開始練習(xí),逐步提升辨識錯(cuò)誤的能力。

研究人員利用該數(shù)據(jù)集對市面上模型進(jìn)行測試,發(fā)現(xiàn)雖然絕大多數(shù)語言模型可以識別在推理過程中出現(xiàn)的邏輯錯(cuò)誤并進(jìn)行自我修正,但這個(gè)過程“并不夠理想”,通常需要人工干預(yù)來糾正模型輸出的內(nèi)容。

▲ 圖源 谷歌研究院新聞稿

IT之家從報(bào)告中發(fā)現(xiàn),谷歌聲稱“目前最先進(jìn)的大語言模型”自我糾錯(cuò)能力也相對有限,在相關(guān)測試結(jié)果中成績發(fā)揮最好的模型,也僅僅找出了 52.9% 的邏輯錯(cuò)誤。

谷歌研究人員同時(shí)聲稱,這一 BIG-Bench Mistake 數(shù)據(jù)集有利于改善模型自我糾錯(cuò)能力,經(jīng)過相關(guān)測試任務(wù)微調(diào)后的模型,“即便是小型模型表現(xiàn)也通常比零樣本提示的大模型更好”。

據(jù)此,谷歌認(rèn)為在模型糾錯(cuò)方面,可以使用專有小型模型“監(jiān)督”大型模型,相對于讓大語言模型學(xué)會“糾正自我錯(cuò)誤”,部署專用于監(jiān)督大模型的小型專用模型有利于改善效率、降低相關(guān)AI 部署成本,并更便于微調(diào)。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港