IT之家 11 月 14 日消息,科技媒體 WccfTech 昨日(11 月 13 日)發(fā)布博文,報(bào)道稱(chēng)英偉達(dá)首次公布了 Blackwell GPU 在 MLPerf v4.1 AI 訓(xùn)練工作負(fù)載中的成績(jī),在訓(xùn)練 Llama 2 70B (Fine-Tuning)模型時(shí)比Hopper快2.2 倍。
測(cè)試簡(jiǎn)介英偉達(dá)于今年 8 月,首次公布了 Blackwell GPU 在 MLPerf v4.1 AI 推理方面的基準(zhǔn)測(cè)試成績(jī),而今天首次公布了該 GPU 在 MLPerf v4.1 AI 訓(xùn)練工作負(fù)載方面的測(cè)試成績(jī)。
NVIDIA 表示,隨著新模型的推出,AI 領(lǐng)域?qū)τ?jì)算的需求正在以指數(shù)級(jí)增長(zhǎng),因此需要大幅提升訓(xùn)練和推理 AI 的能力,IT之家附上本次訓(xùn)練工作負(fù)載主要使用的模型如下:
Llama 2 70B(LLM 微調(diào))
Stable Diffusion(文本到圖像)
DLRMv2(推薦系統(tǒng))
BERT(自然語(yǔ)言處理)
RetinaNet(目標(biāo)檢測(cè))
GPT-3 175B(LLM 預(yù)訓(xùn)練)
R-GAT(圖神經(jīng)網(wǎng)絡(luò))
這些工作負(fù)載的基準(zhǔn)測(cè)試為評(píng)估 AI 加速器的訓(xùn)練性能提供了準(zhǔn)確的數(shù)據(jù)支持。
Hopper GPU 的持續(xù)優(yōu)化Hopper GPU 自發(fā)布以來(lái),經(jīng)過(guò)持續(xù)的軟件優(yōu)化,性能得到了顯著提升。H100 GPU 在 LLM 預(yù)訓(xùn)練性能上比首次提交時(shí)快了 1.3 倍,并且在 GPT-3(175B 訓(xùn)練)中實(shí)現(xiàn)了 70% 的性能提升。
英偉達(dá)利用 11616 個(gè) H100 GPU 進(jìn)行了 MLPerf 的最大規(guī)模提交,進(jìn)一步證明了其在數(shù)據(jù)中心級(jí)別的強(qiáng)大能力。
Blackwell 的技術(shù)優(yōu)勢(shì)Blackwell GPU 的設(shè)計(jì)旨在提高每個(gè) GPU 的計(jì)算吞吐量,配備更大更快的高帶寬內(nèi)存,不降低性能的前提下,能夠在更少的 GPU 上運(yùn)行 GPT-3 175B 基準(zhǔn)測(cè)試。
根據(jù)測(cè)試結(jié)果,64 張 Blackwell GPU 的測(cè)試性能,可以達(dá)到 256 張 Hopper GPU 的水平。