展會(huì)信息港展會(huì)大全

華為版ChatGPT將于7月初發(fā)布,名為“盤(pán)古Chat”
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-03 17:47:33   瀏覽:3424次  

導(dǎo)讀:(圖片來(lái)源:鈦媒體App編輯拍攝) 6月3日消息,鈦媒體App近日從華為內(nèi)部獨(dú)家獲悉,華為公司將發(fā)布一款直接對(duì)標(biāo)ChatGPT的多模態(tài)千億級(jí)大模型產(chǎn)品,名為盤(pán)古Chat。 預(yù)計(jì)華為盤(pán)古Chat將于今年7月7日舉行的華為云開(kāi)發(fā)者大會(huì) (HDC.Cloud 2023) 上對(duì)外發(fā)布以及內(nèi)測(cè)...

(圖片來(lái)源:鈦媒體App編輯拍攝)

6月3日消息,鈦媒體App近日從華為內(nèi)部獨(dú)家獲悉,華為公司將發(fā)布一款直接對(duì)標(biāo)ChatGPT的多模態(tài)千億級(jí)大模型產(chǎn)品,名為“盤(pán)古Chat”。

預(yù)計(jì)華為盤(pán)古Chat將于今年7月7日舉行的華為云開(kāi)發(fā)者大會(huì) (HDC.Cloud 2023) 上對(duì)外發(fā)布以及內(nèi)測(cè),產(chǎn)品主要面向To B/G政企端客戶。

這意味著,在國(guó)產(chǎn)大模型軍備競(jìng)賽中,繼阿里、百度之后,又一重要科技巨頭入局。基于華為的技術(shù)能力,盤(pán)古Chat有望成為國(guó)內(nèi)技術(shù)能力最強(qiáng)的ChatGPT產(chǎn)品,同時(shí)華為生態(tài)產(chǎn)業(yè)鏈企業(yè)也將因此受益。

據(jù)悉,盤(pán)古大模型于2020年11月在華為云內(nèi)部立項(xiàng)成功。對(duì)于盤(pán)古大模型定位,華為內(nèi)部團(tuán)隊(duì)確立了三項(xiàng)最關(guān)鍵的核心設(shè)計(jì)原則:一是模型要大,可以吸收海量數(shù)據(jù);二是網(wǎng)絡(luò)結(jié)構(gòu)要強(qiáng),能夠真正發(fā)揮出模型的性能;三是要具有優(yōu)秀的泛化能力,可以真正落地到各行各業(yè)的工作場(chǎng)景。

2021年4月,盤(pán)古大模型正式對(duì)外發(fā)布。其中,盤(pán)古NLP大模型是首個(gè)干億參數(shù)中文預(yù)訓(xùn)練大模型,CV大模型則首次達(dá)到30億參數(shù)。2022年4月,華為盤(pán)古升級(jí)到2.0,發(fā)布層次化開(kāi)發(fā)方案 (LO, L1,L2) ,打造工業(yè)級(jí)盤(pán)古大模型。

根據(jù)華為云高管的演講PPT信息,目前華為“盤(pán)古系列 AI 大模型”基礎(chǔ)層主要包括NLP大模型、CV大模型、以及科學(xué)計(jì)算大模型等,上層則是與合作伙伴開(kāi)發(fā)的華為行業(yè)大模型。

華為云人工智能領(lǐng)域首席科學(xué)家田奇今年4月稱,盤(pán)古NLP大模型覆蓋的智能文檔檢索、智能 ERP、小語(yǔ)種大模型等落地領(lǐng)域,2022年華為剛交付了一個(gè)阿拉伯語(yǔ)的千億參數(shù)大模型。在應(yīng)用方面,盤(pán)古大模型可以應(yīng)用于智能客服、機(jī)器翻譯、語(yǔ)音識(shí)別等多個(gè)領(lǐng)域,提供AI技術(shù)支持。

去年華為將盤(pán)古大模型在垂直產(chǎn)業(yè)領(lǐng)域落地應(yīng)用。一個(gè)例子是,基于盤(pán)古 AI 大模型,華為在礦山領(lǐng)域打造了首個(gè)“基于大模型的人工智能訓(xùn)練中心”,實(shí)現(xiàn) Al 應(yīng)用“工業(yè)化” 開(kāi)發(fā),不僅降低成本比人工核查節(jié)省80%+、每噸成本降低8元 (年產(chǎn)能260萬(wàn)噸),而且增加效益防沖御壓比人工核查節(jié)省80%+,提升效率智能客戶效率提升30%。

與其他廠商相比,華為的優(yōu)勢(shì)或在于擁有完整的產(chǎn)業(yè)鏈和較強(qiáng)的算力調(diào)配能力。據(jù)浙商證券此前披露,在訓(xùn)練千億參數(shù)的盤(pán)古大模型時(shí),華為團(tuán)隊(duì)調(diào)用了超過(guò)2000塊的騰910芯片,進(jìn)行了超2個(gè)月的數(shù)據(jù)訓(xùn)練能力。華為內(nèi)部稱,每年大模型訓(xùn)練調(diào)用GPU/TPU卡超過(guò)4000片,3年的大模型算力成本高達(dá)9.6億元人民幣。

東吳證券3月27日公布的研報(bào)中稱,華為盤(pán)古大模型的優(yōu)勢(shì)在于人才儲(chǔ)備和算力自主可控,有望成為國(guó)內(nèi)領(lǐng)先的大模型,其生態(tài)產(chǎn)業(yè)鏈標(biāo)的有望迎來(lái)加速發(fā)展,包括拓維信息、四川長(zhǎng)虹、麒麟軟件(中國(guó)軟件)、統(tǒng)信軟件(誠(chéng)邁科技)、麒麟信安等華為生態(tài)公司。國(guó)盛證券則認(rèn)為,華為盤(pán)古為首個(gè)多模態(tài)千億級(jí)大模型,有望賦能百業(yè)。

根據(jù)華為公布的一份論文數(shù)據(jù)顯示,華為盤(pán)古PanGu-Σ大模型參數(shù)最多為1.085萬(wàn)億,基于華為自研的MindSpore框架開(kāi)發(fā)。整體來(lái)看,PanGu-Σ大模型在對(duì)話方面可能已接近GPT-3.5的水平。

值得注意的是,由于盤(pán)古大模型擁有超大規(guī)模的參數(shù),因此訓(xùn)練成本較高。盡管盤(pán)古大模型在中文語(yǔ)言的處理方面具有很高的準(zhǔn)確度和質(zhì)量,但在語(yǔ)義理解方面仍存在一定的局限性,尤其是在處理復(fù)雜的語(yǔ)言結(jié)構(gòu)和語(yǔ)義推理方面。同時(shí),盤(pán)古Chat大模型也將面臨著行業(yè)激烈的競(jìng)爭(zhēng)壓力,需要不斷優(yōu)化和提高模型的性能和質(zhì)量,才能以保持在市場(chǎng)中的領(lǐng)先地位。(本文首發(fā)鈦媒體App,作者|林志佳)

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
展開(kāi)

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港