展會(huì)信息港展會(huì)大全

GPU太燒錢 巨頭自研AI芯片漸成趨勢(shì)
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-11-25 16:10:30   瀏覽:7317次  

導(dǎo)讀:本報(bào)記者 李玉洋 上海報(bào)道 身處AI(人工智能)的iPhone時(shí)刻,英偉達(dá)的地位依舊穩(wěn)固。 英偉達(dá)于近日發(fā)布的2024財(cái)年三季報(bào)顯示,其營(yíng)收達(dá)到創(chuàng)紀(jì)錄的181.20億美元,同比增長(zhǎng)206%,環(huán)比增長(zhǎng)34%;凈利潤(rùn)再創(chuàng)新高,達(dá)到92.43億美元,同比增長(zhǎng)1259%,環(huán)比增長(zhǎng)49%。...

本報(bào)記者 李玉洋 上海報(bào)道

身處AI(人工智能)的“iPhone時(shí)刻”,英偉達(dá)的地位依舊穩(wěn)固。

英偉達(dá)于近日發(fā)布的2024財(cái)年三季報(bào)顯示,其營(yíng)收達(dá)到創(chuàng)紀(jì)錄的181.20億美元,同比增長(zhǎng)206%,環(huán)比增長(zhǎng)34%;凈利潤(rùn)再創(chuàng)新高,達(dá)到92.43億美元,同比增長(zhǎng)1259%,環(huán)比增長(zhǎng)49%。

同時(shí),英偉達(dá)還預(yù)計(jì)下個(gè)財(cái)季營(yíng)收將達(dá)到200億美元,這份強(qiáng)勁的收入展望,表明了支撐AI繁榮的芯片需求仍然旺盛。目前,英偉達(dá)的GPU占據(jù)了AI芯片絕大部分的市場(chǎng)份額,且供不應(yīng)求,高端GPU更是一卡難求。

而一股自研AI芯片的風(fēng)潮正在科技巨頭之間興起,不管是為了降低成本,還是減少對(duì)英偉達(dá)的依賴,包括谷歌、亞馬遜、阿里巴巴、騰訊、Meta等大廠先后入局造芯,下場(chǎng)自研AI芯片!吨袊(jīng)營(yíng)報(bào)》記者注意到,這份巨頭自研AI芯片的列表如今又增加了新成員微軟,在11月中旬舉行的開發(fā)者大會(huì)上,微軟推出自家的AI芯片Maia 100;而風(fēng)頭正盛的OpenAI也被爆出正在探索研發(fā)自己的AI芯片。

“他們的算力需求比較大,英偉達(dá)的卡對(duì)他們來說太貴了,而且專門為大模型設(shè)計(jì)的芯片,能效比會(huì)比N卡更高。”一名算力提供商員工表示,做AI芯片太燒錢了,很多AI芯片公司扛不住了,大模型會(huì)加速淘汰。

根據(jù)英偉達(dá)數(shù)據(jù),在沒有以Transformer模型為基礎(chǔ)架構(gòu)的大模型之前,算力需求大致是每?jī)赡晏嵘?倍;而自利用Transformer模型后,算力需求大致是每?jī)赡晏嵘?75倍。

“自研AI芯片是一個(gè)產(chǎn)業(yè)走向成熟繞不開的趨勢(shì),但凡哪個(gè)廠商AI運(yùn)算的體量大幅度提升,就需要自家的芯片來支撐,這樣才能達(dá)到最高的優(yōu)化。”研究機(jī)構(gòu)Omdia AI行業(yè)首席分析師蘇廉節(jié)對(duì)記者表示,未來AI芯片市場(chǎng)不再由GPU獨(dú)霸,“我覺得比較有趣的是英偉達(dá)自己怎么看這個(gè)趨勢(shì)”。

而英偉達(dá)方面在業(yè)績(jī)說明會(huì)上證實(shí),其正在為中國開發(fā)新的合規(guī)芯片,但同時(shí)表示這些不會(huì)對(duì)第四季度的收入作出實(shí)質(zhì)性貢獻(xiàn)。“明年年初才能下單,我們?cè)诘葍r(jià)格,下單后啥時(shí)候能到貨還不好說。”對(duì)此,記者從國內(nèi)一家服務(wù)器公司的技術(shù)研發(fā)人員口中得到了一些側(cè)面印證。

洗牌避免不了

“目前,全球幾個(gè)云大廠基本上都在自研AI芯片,比如亞馬遜的Trainium和Inferentia、谷歌的TPU、百度的昆侖、華為的騰、阿里的玄鐵,現(xiàn)在微軟也開始做自己的AI芯片。”蘇廉節(jié)表示,未來云大廠會(huì)把自家的模型部署在自己的芯片上,這是產(chǎn)業(yè)發(fā)展繞不開的趨勢(shì)。

然而,他還指出:“這不代表英特爾、AMD、寒武紀(jì)這種芯片廠商就沒有出路,畢竟不是所有的開發(fā)者都會(huì)選擇使用云廠商的芯片。”

同時(shí),作為云大廠,微軟也沒有把自己的AI芯片Maia 100的使用權(quán)賦予所有人。微軟首席執(zhí)行官薩提亞納德拉(Satya Nadella)表示,Maia將首先為微軟自己的人工智能應(yīng)用程序提供支持,再提供給合作伙伴和客戶。

據(jù)了解,微軟Maia 100采用臺(tái)積電5nm工藝,擁有1050億個(gè)晶體管,比AMD的MI300X GPU的1530億個(gè)晶體管少約30%。Maia將用于加速AI計(jì)算任務(wù),服務(wù)于商業(yè)軟件用戶和使用Copilot的個(gè)人用戶,以及希望制作定制人工智能服務(wù)的開發(fā)者。

今年6月,AMD對(duì)外展示可與英偉達(dá)H100一較高低的Instinct MI300X GPU。根據(jù)爆料信息,其顯存容量提升到192GB,相當(dāng)于H100 80GB 的2.4倍,同時(shí)HBM內(nèi)存帶寬高達(dá)5.2TB / s,Infinity Fabric總線帶寬也有896GB/s,同樣超過H100。

最新消息顯示,AMD將于北京時(shí)間12月7日凌晨2點(diǎn)舉辦一場(chǎng)專門針對(duì)AI的特別活動(dòng),不出意外的話就是宣布正式發(fā)售MI300X。在第三財(cái)季業(yè)績(jī)發(fā)布會(huì)上,AMD指出其AI方面的進(jìn)展,預(yù)計(jì)第四財(cái)季數(shù)據(jù)中心GPU收入約為4億美元,到2024年將超過20億美元,MI300系列產(chǎn)品有望成為AMD歷史上在最短時(shí)間內(nèi)達(dá)到銷售額上10億美元的產(chǎn)品。

而英偉達(dá)則在11月13日發(fā)布新一代AI處理器H200,旨在培訓(xùn)和部署各種人工智能模型。H200是當(dāng)前H100的升級(jí)產(chǎn)品,集成了141GB的內(nèi)存,在用于推理或生成問題答案時(shí),性能較H100提高了60%至90%。

英偉達(dá)透露,搭載H200的系統(tǒng)將于2024年第二季度由英偉達(dá)的硬件合作伙伴和主要的云服務(wù)提供商提供,包括亞馬遜云AWS、谷歌云和微軟云Azure等。英偉達(dá)在上個(gè)月還表示,將從兩年一次的發(fā)布節(jié)奏轉(zhuǎn)變?yōu)橐荒暌淮,明年將發(fā)布基于Blackwell架構(gòu)的B100芯片。

值得一提的是,近日,有“英國英偉達(dá)”之稱的AI芯片獨(dú)角獸Graphcore稱,由于美國出臺(tái)的出口管制新規(guī)限制了公司向中國的技術(shù)銷售,公司將停止在華銷售。

“很遺憾,這意味著我們將大幅縮減在華業(yè)務(wù)。”Graphcore發(fā)言人在電子郵件中表示。但該公司拒絕透露受影響的員工人數(shù)。此前,Graphcore CEO奈杰爾圖恩(Nigel Toon)曾把中國視為一個(gè)潛在增長(zhǎng)市場(chǎng),尤其是英偉達(dá)被限制向中國銷售產(chǎn)品之后。今年10月,圖恩表示,來自中國的銷售額可能占其公司業(yè)務(wù)的20%至25%。

如今,Graphcore已經(jīng)陷入困境。該公司最新提交的文件顯示,2022年?duì)I收下降46%,虧損擴(kuò)大11%至2.046億美元。去年10月,Graphcore披露需要籌集資金以維持運(yùn)營(yíng)。在那之后,Graphcore再未宣布任何融資消息。美國對(duì)華禁令無疑使其雪上加霜。

對(duì)于Graphcore的最新動(dòng)態(tài)以及AI芯片行業(yè)的發(fā)展現(xiàn)狀,記者聯(lián)系Graphcore方面,該公司表示:“不方便評(píng)論。”國內(nèi)AI芯片初創(chuàng)公司壁仞科技同樣也是保持沉默。

對(duì)此,資深行業(yè)分析師張慧娟表示:“芯片可能會(huì)在未來很長(zhǎng)一段時(shí)間都是AI競(jìng)爭(zhēng)的核心,包括國家(可參考美國對(duì)高端AI芯片出口中國的限制)、巨頭、初創(chuàng)公司之間。但行業(yè)發(fā)展還處于初期,未來肯定會(huì)有一輪洗牌。”

“另外,OpenAI最近的宮斗,體現(xiàn)了人才對(duì)于AI的重要性。所以,算力(芯片)和人才,會(huì)是很長(zhǎng)一段時(shí)間內(nèi)AI的競(jìng)爭(zhēng)焦點(diǎn)。”張慧娟說。

非云端是突破口

上述算力提供商員工表示,英偉達(dá)十幾年建立的CUDA生態(tài)確實(shí)不容易被撼動(dòng),但是大模型也帶來了很多機(jī)會(huì)。

“從今年市場(chǎng)所看到的融資信息來看,AI芯片賽道整個(gè)都很冷,現(xiàn)有的市場(chǎng)有點(diǎn)飽和,最關(guān)鍵的是AI還沒有大量變現(xiàn),很多公司部署了AI不是拿來賺錢,主要是拿來降低內(nèi)部運(yùn)作成本。”蘇廉節(jié)表示,“生成式AI軟件的投資有顯著的提升。”這里的軟件指的是大模型,代表公司為百川智能等。

蘇廉節(jié)還指出:“未來的AI芯片市場(chǎng),可能不再由GPU獨(dú)霸,比較有趣的是英偉達(dá)自己怎么看這個(gè)趨勢(shì),可以從他們現(xiàn)在積極部署的新市場(chǎng),去看看他們的心態(tài)。”

對(duì)于新增長(zhǎng)戰(zhàn)略,英偉達(dá)在Q3財(cái)報(bào)中強(qiáng)調(diào)了三大要素:CPU、網(wǎng)絡(luò)、軟件和服務(wù)。據(jù)悉,Grace是英偉達(dá)第一款數(shù)據(jù)中心CPU,Grace和Grace Hopper將在明年全面投產(chǎn),英偉達(dá)CEO黃仁勛指出,英偉達(dá)可以幫助客戶建立一個(gè)AI工廠并創(chuàng)收。

NVIDIA Quantum Infiniband是英偉達(dá)推出的網(wǎng)絡(luò)解決方案,其具有高帶寬、低時(shí)延、高可靠、易部署的特點(diǎn),可實(shí)現(xiàn)多臺(tái)DGX計(jì)算機(jī)的高效互聯(lián),InfiniBand同比增長(zhǎng)了5倍。

將GPU、CPU、網(wǎng)絡(luò)、AI企業(yè)軟件等作為增長(zhǎng)引擎,是英偉達(dá)的遠(yuǎn)期展望和技術(shù)路線,對(duì)于處于其他階段的玩家不一定適用。

蘇廉節(jié)認(rèn)為,邊緣設(shè)備或許是AI芯片賽道上其他玩家的突破口。“比如智能汽車、機(jī)器人、無人機(jī),現(xiàn)在的大模型都在云端,但它漸漸會(huì)走向終端,量就會(huì)很大。”他說。

張慧娟也持有類似觀點(diǎn)。“GPU在云端大算力有絕對(duì)優(yōu)勢(shì),但是端側(cè)、邊緣側(cè),有著非常豐富的應(yīng)用類型,所以這也是其他AI芯片廠商尋求突破的點(diǎn)。且從市場(chǎng)規(guī)模來講,邊緣端增長(zhǎng)空間很大,這也是吸引AI芯片廠商進(jìn)入的一個(gè)原因。”

她還提到,國內(nèi)AI芯片廠商,除了少數(shù)幾家進(jìn)入云端外,大部分集中在端側(cè),也有一些從端側(cè)跨進(jìn)邊緣,“國內(nèi)芯片廠商在邊緣側(cè)突破比較大的有瑞芯微、全志,高通、NXP、瑞薩、ADI等國際芯片廠商也在大力做邊緣AI。”

需要指出的是,邊緣和端側(cè)沒有特別明確的區(qū)分或界定。“所以,很難說這家廠商只做邊緣或只做端側(cè)。其實(shí)英偉達(dá)也有邊緣AI方案,比如智能駕駛方案,也很強(qiáng)。英偉達(dá)、英特爾等巨頭號(hào)稱從云到邊緣到端都做,主打一個(gè)端到端全覆蓋。”張慧娟說。

近日,聯(lián)想集團(tuán)董事長(zhǎng)兼CEO楊元慶也表示,目前大模型的用戶規(guī)模還比較小,大多數(shù)大模型都在算力較強(qiáng)的公有云上訓(xùn)練。“未來,隨著用戶規(guī)模擴(kuò)大,無論是出于數(shù)據(jù)安全和隱私保護(hù)的考慮,還是更高效率、更低成本響應(yīng)用戶需求的考慮,大模型的計(jì)算負(fù)載將逐漸由云端向邊緣側(cè)和端側(cè)下沉,越來越多的人工智能的推理任務(wù)將會(huì)在邊緣和設(shè)備端進(jìn)行。”

楊元慶指出,要構(gòu)建和優(yōu)化大模型,支持更多生成式人工智能的應(yīng)用,不僅需要提升云端的算力,在邊緣和端側(cè)也需要更強(qiáng)大算力的配合,形成“端-邊-云”混合計(jì)算架構(gòu)下更平衡的算力分配。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港