展會(huì)信息港展會(huì)大全

英特爾大數(shù)據(jù)CTO:通過提升算力和計(jì)算能力,推動(dòng)AI的無處不在
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-15 19:27:31   瀏覽:6543次  

導(dǎo)讀:英特爾希望通過對算力優(yōu)化、計(jì)算能力的提升來推動(dòng)生成式AI無處不在,讓各行各業(yè),以及普通的消費(fèi)者都可以使用。英特爾院士、大數(shù)據(jù)技術(shù)全球首席技術(shù)官戴金權(quán)表示。 今年年初以來,生成式AI掀起一波又一波熱潮,國內(nèi)外企業(yè)也競相推出自己的大型語言模型。 值...

“英特爾希望通過對算力優(yōu)化、計(jì)算能力的提升來推動(dòng)生成式AI無處不在,讓各行各業(yè),以及普通的消費(fèi)者都可以使用。”英特爾院士、大數(shù)據(jù)技術(shù)全球首席技術(shù)官戴金權(quán)表示。

今年年初以來,生成式AI掀起一波又一波熱潮,國內(nèi)外企業(yè)也競相推出自己的大型語言模型。

值得注意的是,英特爾也一直致力于深耕生成式AI領(lǐng)域。不久前,其推出了生成式大模型Aurora genAI。該模型的參數(shù)高達(dá)一萬億,主要面向科研領(lǐng)域,包括生物學(xué)、醫(yī)學(xué)、大氣科學(xué)、化學(xué)等學(xué)科。

不僅如此,推動(dòng)生成式AI普適化,才是英特爾在這一領(lǐng)域的主要追求。

一方面,其借助長期積累的技術(shù)優(yōu)勢,英特爾從硬件、軟件和大型語言模型等方面出發(fā),為生成式AI提供全面支持。

首先,以XPU戰(zhàn)略為導(dǎo)向,英特爾打造從云到端的全面產(chǎn)品組合,涵蓋個(gè)人電腦端和數(shù)據(jù)中心的CPU、GPU、FPGA、專用ASICs等解決方案,以應(yīng)對多元化的應(yīng)用場景需求,為整個(gè)計(jì)算領(lǐng)域提供AI能力。比如,其在GPU、專用AI加速器和第四代至強(qiáng)可擴(kuò)展服務(wù)器中,都加入了專門針對矩陣運(yùn)算的加速器AMX,以更好地加速神經(jīng)網(wǎng)絡(luò)運(yùn)算。

其次,英特爾提出了“軟件定義、芯片增強(qiáng)”的理念,即用軟件來定義所需的計(jì)算能力,再從硬件角度來提供匹配的增強(qiáng)和支持。因此,在軟件層面上,其更關(guān)注上層應(yīng)用和算法對軟件工具和基礎(chǔ)設(shè)施的引領(lǐng)。目前,英特爾正在XPU的架構(gòu)下,通過oneAPI、軟件優(yōu)化和軟件庫,幫助客戶的計(jì)算設(shè)備,做到在不同場景下對生成式AI的支持。

同時(shí),由于大型語言模型通常大量使用Transformer架構(gòu),既存在許多注意力機(jī)制計(jì)算,也對內(nèi)存和帶寬的大小有較高要求。對此,英特爾通過稀疏化或低精度對模型進(jìn)行壓縮,并為其提供多樣化技術(shù)支持,以更加高效地實(shí)現(xiàn)模型部署。

另一方面,英特爾也在積極擁抱開源和AI開放社區(qū)。比如,與業(yè)界積極合作,探索開源AI軟件工具和軟件基礎(chǔ)架構(gòu);關(guān)注開放的大型語言模型,與機(jī)器學(xué)習(xí)開源庫Hugging Face開展合作。

具體來說,英特爾聯(lián)合Hugging Face,利用Gaudi 2加速器,對參數(shù)量為1760億的BLOOMZ模型進(jìn)行了優(yōu)化評估。效果顯示,與使用8張英偉達(dá)A100芯片相比,用8張Gaudi 2運(yùn)行推理的速度提高了20%以上。此外,還基于第四代英特爾至強(qiáng)可擴(kuò)展處理器,利用AMX高級矩陣擴(kuò)展進(jìn)行矩陣加速,能夠在5分鐘內(nèi)完成Stable Diffusion模型的微調(diào)。

圖丨BLOOMZ模型使用Gaudi加速器對生成的語言輸出進(jìn)行自動(dòng)評估(來源:資料圖)

隨著生成式AI的發(fā)展,業(yè)界從起初對其可用性的關(guān)注,逐漸聚焦到是否可信賴上。

在塑造“負(fù)責(zé)任的AI”上,英特爾也做了許多工作。

戴金權(quán)表示:“從英特爾的角度來看,我們關(guān)于AI的工作,無論是數(shù)據(jù)、模型,還是應(yīng)用,都有一個(gè)‘負(fù)責(zé)任的AI’的流程,其中定義了如何消除偏見、如何使用正確的數(shù)據(jù)等。”

大型語言模型在對生產(chǎn)力流程產(chǎn)生影響的同時(shí),也可能帶來數(shù)據(jù)安全和隱私問題。

為了解決該問題,英特爾基于其硬件級的安全技術(shù),比如英特爾TDX和SGX,加上軟件層構(gòu)建的面向大數(shù)據(jù)分析和機(jī)器學(xué)習(xí)的隱私計(jì)算平臺(tái),以及結(jié)合大型語言模型和stable diffusion,從數(shù)據(jù)和模型兩個(gè)維度出發(fā)保護(hù)生成式AI應(yīng)用,從而確保數(shù)據(jù)安全和隱私性。

同時(shí),會(huì)借助算法判斷由生成式AI生成出的內(nèi)容,是否存在虛假性。并且,還通過支持生成式AI應(yīng)用在本地的部署,來避免因與他人分享模型數(shù)據(jù)而可能產(chǎn)生的隱私泄露。

事實(shí)上,能夠生成內(nèi)容是生成式AI的本質(zhì),這有助于極大地提高生產(chǎn)力。來自各行各業(yè)的從業(yè)者,都可以通過大量使用生成式AI來提高效率。與此同時(shí),要想做到生成式AI無處不在,還需要將其從云端延伸至本地端、邊緣端等。

很多人都知道,上層應(yīng)用對底層硬件的架構(gòu)具有反推作用。那么,上述發(fā)展趨勢,又是否會(huì)對未來AI芯片設(shè)計(jì)產(chǎn)生影響呢?

在戴金權(quán)看來,從小尺寸的設(shè)備擴(kuò)展到大規(guī)模數(shù)據(jù)中心的XPU架構(gòu),就是一個(gè)重要的發(fā)展趨勢。同時(shí),軟件算法設(shè)計(jì)的多樣化,也是能夠滿足未來算力需求的關(guān)鍵組成部分。

“目前,大模型還在快速發(fā)展中,可能在更長的時(shí)間段里還會(huì)有更多的發(fā)展,比如不同算法級別的發(fā)展,以及不同場景適配的發(fā)展。這些都會(huì)對AI芯片,包括對所有計(jì)算的芯片、計(jì)算的能力帶來深遠(yuǎn)的影響。”戴金權(quán)表示。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港