展會(huì)信息港展會(huì)大全

李開(kāi)復(fù)公司陷入LLaMa架構(gòu)命名爭(zhēng)議,零一萬(wàn)物回應(yīng):將進(jìn)行代碼更新|最前線
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-11-15 13:46:39   瀏覽:3294次  

導(dǎo)讀:文|林煒鑫 編輯|鄧詠儀 本月初新發(fā)布的大模型「Yi」這兩天卷入一場(chǎng)爭(zhēng)議。科技新聞社區(qū)Hacker News的一篇帖子指出,Yi-34B模型完全使用了LLaMa的架構(gòu),只是重新命名了兩個(gè)張量(Tensor,通常用來(lái)表示模型的輸入、輸出和參數(shù)),卻未提及LLaMa。 帖子引起業(yè)...

文|林煒鑫

編輯|鄧詠儀

本月初新發(fā)布的大模型「Yi」這兩天卷入一場(chǎng)爭(zhēng)議?萍夹侣勆鐓^(qū)Hacker News的一篇帖子指出,Yi-34B模型完全使用了LLaMa的架構(gòu),只是重新命名了兩個(gè)張量(Tensor,通常用來(lái)表示模型的輸入、輸出和參數(shù)),卻未提及LLaMa。

帖子引起業(yè)內(nèi)關(guān)注

「Yi」是由李開(kāi)復(fù)創(chuàng)辦的AI公司「零一萬(wàn)物」打造的國(guó)產(chǎn)開(kāi)源大模型,擁有200K上下文窗口,可處理約40萬(wàn)字文本。自推出后,零一萬(wàn)物表示,Yi模型在Hugging Face英文開(kāi)源社區(qū)平臺(tái)和C-Eval中文評(píng)測(cè)榜單中,取得多項(xiàng)SOTA國(guó)際最佳性能指標(biāo)認(rèn)可,成為第一家登頂Hugging Face全球開(kāi)源模型排行榜的國(guó)產(chǎn)模型。

零一萬(wàn)物昨日回應(yīng)表示,Yi模型的研發(fā)借鑒了行業(yè)頂尖水平的公開(kāi)成果;之所以改名是為了滿足訓(xùn)練實(shí)驗(yàn)的需求;團(tuán)隊(duì)將更新代碼。

這場(chǎng)爭(zhēng)議的源頭是零一萬(wàn)物Hugging Face社區(qū)的一條留言。一位ID名為「ehartford」的工程師數(shù)天前便發(fā)現(xiàn)了這個(gè)問(wèn)題,并指出這一行為沒(méi)有符合LLaMa規(guī)定的許可協(xié)議。

ehartford朝Yi團(tuán)隊(duì)喊話

有開(kāi)發(fā)者跟帖道:“如果他們確實(shí)用了Meta LLaMa結(jié)構(gòu)、代碼庫(kù)和所有相關(guān)資源,需要遵守LLaMa規(guī)定的許可協(xié)議。”

因此,另一位開(kāi)發(fā)者動(dòng)手把張量名字改了回去,重新放到Hugging Face上。

很快,有人翻出了前阿里首席AI科學(xué)家、AI創(chuàng)業(yè)者賈揚(yáng)清的朋友圈:

賈揚(yáng)清朋友圈

需要區(qū)別的是,Yi引發(fā)的爭(zhēng)議在于其模型架構(gòu)的命名,與抄襲、簡(jiǎn)單套殼有本質(zhì)區(qū)別。LLaMa本就是開(kāi)源的模型,使用LLaMa的架構(gòu)是正常的大模型訓(xùn)練步驟,即使是選擇同一種架構(gòu),用不同數(shù)據(jù)集訓(xùn)練出來(lái)的模型也會(huì)截然不同。

一位開(kāi)發(fā)者則向36氪表示,外界苛責(zé)的是使用開(kāi)源LLaMa-2模型架構(gòu),卻改了名字,“好比造了跟奔馳一樣的車(chē),把牌子換了名字,把方向盤(pán)改為動(dòng)力控制轉(zhuǎn)向器”。在他看來(lái),用了LLaMa架構(gòu),“大方承認(rèn)就好”。

有開(kāi)發(fā)者曬出Yi和LLaMa的代碼對(duì)比

昨天下午,「Yi」團(tuán)隊(duì)開(kāi)源總監(jiān)在Hugging Face社區(qū)回復(fù),命名問(wèn)題是團(tuán)隊(duì)的疏忽,“在大量的訓(xùn)練實(shí)驗(yàn)中,我們對(duì)代碼進(jìn)行了多次重命名以滿足實(shí)驗(yàn)要求,但在發(fā)布前沒(méi)有將它們切換回來(lái)”。他表示,團(tuán)隊(duì)將把張量名字從Yi改回LLaMa,并且重新發(fā)布。

Yi團(tuán)隊(duì)在社區(qū)上的回應(yīng)

附零一萬(wàn)物給機(jī)器之心的回應(yīng):

GPT 是一個(gè)業(yè)內(nèi)公認(rèn)的成熟架構(gòu),LLaMa 在 GPT 上做了總結(jié)。零一萬(wàn)物研發(fā)大模型的結(jié)構(gòu)設(shè)計(jì)基于 GPT 成熟結(jié)構(gòu),借鑒了行業(yè)頂尖水平的公開(kāi)成果,同時(shí)基于零一萬(wàn)物團(tuán)隊(duì)對(duì)模型和訓(xùn)練的理解做了大量工作,這是我們首次發(fā)布獲得優(yōu)秀結(jié)果的地基之一。與此同時(shí),零一萬(wàn)物也在持續(xù)探索模型結(jié)構(gòu)層面本質(zhì)上的突破。

模型結(jié)構(gòu)僅是模型訓(xùn)練其中一部分。Yi 開(kāi)源模型在其他方面的精力,比如數(shù)據(jù)工程、訓(xùn)練方法、baby sitting(訓(xùn)練過(guò)程監(jiān)測(cè))的技巧、hyperparameter 設(shè)置、評(píng)估方法以及對(duì)評(píng)估指標(biāo)的本質(zhì)理解深度、對(duì)模型泛化能力的原理的研究深度、行業(yè)頂尖的 AI Infra 能力等,投入了大量研發(fā)和打底工作,這些工作往往比起基本結(jié)構(gòu)能起到更大的作用跟價(jià)值,這些也是零一萬(wàn)物在大模型預(yù)訓(xùn)練階段的核心技術(shù)護(hù)城河。

在大量訓(xùn)練實(shí)驗(yàn)過(guò)程中,由于實(shí)驗(yàn)執(zhí)行需求對(duì)代碼做了更名,我們尊重開(kāi)源社區(qū)的反饋,將代碼進(jìn)行更新,也更好的融入 Transformer 生態(tài)。

我們非常感謝社區(qū)的反饋,我們?cè)陂_(kāi)源社區(qū)剛剛起步,希望和大家攜手共創(chuàng)社區(qū)繁榮,Yi Open-source 會(huì)盡最大努力持續(xù)進(jìn)步。

歡迎交流

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港