展會信息港展會大全

撞上數(shù)據(jù)墻?OpenAI模型提升速度放緩 著手調(diào)整開發(fā)策略
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-11-10 18:45:53   瀏覽:0次  

導(dǎo)讀:劃重點01OpenAI的AI模型Orion在性能質(zhì)量提升程度上遠小于從GPT-3到GPT-4的飛躍,可能導(dǎo)致AI模型的改進速度放緩。02為此,OpenAI成立了一個“基礎(chǔ)”團隊,研究能讓AI模型保持改進的新方法。03公司計劃基于AI合成數(shù)據(jù)訓(xùn)練Orion,并在后期訓(xùn)練中對模型作出更多改進。04目前,OpenAI正在推進Orion的安全測試,計劃于明年年初發(fā)布這一模型。05與此同時,OpenAI安全系統(tǒng)團隊負責(zé)人翁 ......

劃重點

01OpenAI的AI模型Orion在性能質(zhì)量提升程度上遠小于從GPT-3到GPT-4的飛躍,可能導(dǎo)致AI模型的改進速度放緩。

02為此,OpenAI成立了一個“基礎(chǔ)”團隊,研究能讓AI模型保持改進的新方法。

03公司計劃基于AI合成數(shù)據(jù)訓(xùn)練Orion,并在后期訓(xùn)練中對模型作出更多改進。

04目前,OpenAI正在推進Orion的安全測試,計劃于明年年初發(fā)布這一模型。

05與此同時,OpenAI安全系統(tǒng)團隊負責(zé)人翁荔宣布將離開公司,探索新的領(lǐng)域。

以上內(nèi)容由大模型生成,僅供參考

《科創(chuàng)板日報》11月10日訊 高質(zhì)量數(shù)據(jù)不夠用,拖累AI模型改進速度OpenAI這位AI領(lǐng)頭羊又遇到了難題。

一些測試過Orion的OpenAI員工發(fā)現(xiàn),雖然Orion的性能超過了OpenAI現(xiàn)有的所有模型,但其性能質(zhì)量提升程度遠遠小于從GPT-3到GPT-4的飛躍。這意味著,隨著高質(zhì)量數(shù)據(jù)趨于有限,AI模型的改進速度可能會放緩。

不僅如此,Orion的訓(xùn)練中涉及來自舊模型(例如GPT-4與一些推理模型)的AI生成數(shù)據(jù),這可能導(dǎo)致其重現(xiàn)舊模型的一些行為。

為此,OpenAI成立了一個“基礎(chǔ)”團隊,以在高質(zhì)量新數(shù)據(jù)供應(yīng)減少的情況下,研究能讓AI模型保持改進的新方法。據(jù)悉,公司計劃基于AI合成數(shù)據(jù)訓(xùn)練Orion,并在后期訓(xùn)練中對模型作出更多改進。

目前,OpenAI正在推進Orion的安全測試,計劃于明年年初發(fā)布這一模型,其可能會打破“GPT-X”的命名慣例,以反映模型開發(fā)的變化。

值得注意的是,OpenAI在今年收購了Chat.com域名,該域名已重定向至OpenAI的AI驅(qū)動聊天機器人ChatGPT。

“撞上數(shù)據(jù)墻”

早在2020年,OpenAI就曾在一篇論文中提出Scaling law定律,意指大模型的最終性能主要與計算量、模型參數(shù)量和訓(xùn)練數(shù)據(jù)量三者的大小相關(guān),而與模型的具體結(jié)構(gòu)(層數(shù)/深度/寬度)基本無關(guān)。換言之,僅僅增加模型規(guī)模和訓(xùn)練數(shù)據(jù),就能顯著提升人工智能能力,而無需取得根本性的算法突破。

AI界許多公司都一度將Scaling Law奉為圭臬,但如今,也有越來越多的質(zhì)疑聲出現(xiàn)。

Meta AI人工智能研究院(FAIR)研究員及高級經(jīng)理田淵棟指出,“我畫過一張圖,一開始數(shù)據(jù)量越大,模型性能表現(xiàn)越好,但模型離人類越近就越難獲得新的數(shù)據(jù),模型就越來越難以改進,最后總會有些corner case(邊角案例,即無法想到的或不常見的案例)解決不了,這是data driven(數(shù)據(jù)驅(qū)動)最大的問題!

非營利研究機構(gòu)Epoch AI在今年7月更新的一篇論文中指出,未來數(shù)年內(nèi),(原始)數(shù)據(jù)增長的速度將難以支撐AI大模型擴展發(fā)展的速度,在2026-2032年之間的某個時間點,數(shù)據(jù)存量將耗盡。

撞上數(shù)據(jù)墻?OpenAI模型提升速度放緩 著手調(diào)整開發(fā)策略

實際上,OpenAI已不是第一次遭遇“數(shù)據(jù)資源不足”的問題。此前已有媒體報道指出,在訓(xùn)練GPT-5時,OpenAI因文本數(shù)據(jù)不足,正在考慮使用YouTube公開視頻轉(zhuǎn)錄出的文本。

如今OpenAI再度碰上數(shù)據(jù)資源難題,甚至因此影響到了新模型進展!暗@代表‘天塌了,’”The Information這篇文章的作者之一Amir Efrati指出,OpenAI正在作出調(diào)整,或許將有新的Scaling Law取代舊Scaling Law。

值得一提的,當(dāng)?shù)貢r間11月9日,OpenAI安全系統(tǒng)團隊負責(zé)人翁荔(Lilian Weng)宣布將離開已經(jīng)工作了近7年的OpenAI。她公開分享了發(fā)給團隊的離職信,但其中并未言明具體離職原因及未來職業(yè)去向,僅表示“是時候重新出發(fā),探索新的領(lǐng)域了”。

(科創(chuàng)板日報)

贊助本站

相關(guān)熱詞: openai ai模型 模型 orion gpt

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港