展會(huì)信息港展會(huì)大全

生成式AI浪潮助推下,人工智能的生態(tài)之路怎么走?
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-10-08 14:00:42   瀏覽:5999次  

導(dǎo)讀:集微網(wǎng)報(bào)道 ChatGPT等生成式AI系統(tǒng)的發(fā)布將推動(dòng)AI未來(lái)長(zhǎng)達(dá)十年的繁榮,也將生態(tài)的問(wèn)題推至前臺(tái)。 一方面借助大模型AI在各行各業(yè)將加速落地,另一方面在部署AI方案時(shí)面臨眾多制約,如封閉的開(kāi)發(fā)平臺(tái)、缺乏專業(yè)知識(shí)、資源的限制等,業(yè)界也在思變。 一些觀點(diǎn)認(rèn)...

集微網(wǎng)報(bào)道 ChatGPT等生成式AI系統(tǒng)的發(fā)布將推動(dòng)AI未來(lái)長(zhǎng)達(dá)十年的繁榮,也將生態(tài)的問(wèn)題推至前臺(tái)。

一方面借助大模型AI在各行各業(yè)將加速落地,另一方面在部署AI方案時(shí)面臨眾多制約,如封閉的開(kāi)發(fā)平臺(tái)、缺乏專業(yè)知識(shí)、資源的限制等,業(yè)界也在思變。

一些觀點(diǎn)認(rèn)為,開(kāi)發(fā)者在應(yīng)用AI滿足多樣化行業(yè)需求方面發(fā)揮著至關(guān)重要的作用,如果開(kāi)發(fā)者在硬件和軟件的選擇上受到限制,那將阻礙全球AI的應(yīng)用和價(jià)值創(chuàng)造。因而,自由選擇最適合需求的硬件軟件的開(kāi)放生態(tài)將是解決之道。

解綁軟硬件

正如英特爾公司高級(jí)副總裁兼網(wǎng)絡(luò)與邊緣事業(yè)部總經(jīng)理Sachin Katti所言,如何使用戶輕松地部署、調(diào)用、管理AI?這不僅需要異構(gòu)的基礎(chǔ)設(shè)施支持,還需要構(gòu)建一個(gè)開(kāi)放的、支持AI運(yùn)行的不同基礎(chǔ)架構(gòu)、可助力開(kāi)發(fā)者快速AI部署的軟件生態(tài)。

這也意味著軟件和硬件的“解綁”。

如果能打通軟硬件捆綁的“樊籠”,那也意味著更多的開(kāi)發(fā)者,并不需要了解大模型Transformer有多少層,Transformer中的Prompt如何進(jìn)行處理;不需要了解硬件的底層架構(gòu),通過(guò)開(kāi)放軟件建模之后就能進(jìn)行調(diào)用和調(diào)優(yōu)進(jìn)行部署。

顯然,這對(duì)業(yè)界來(lái)說(shuō)是絕對(duì)的利好。

但隨之而來(lái)的質(zhì)疑不僅在于開(kāi)放生態(tài)的實(shí)用性,眾多開(kāi)發(fā)人員仍面臨在某一個(gè)封閉生態(tài)投入太多、遷移難度和成本太大的困擾。

借助AI的力量,這些挑戰(zhàn)或?qū)⒂卸狻S⑻貭柟靖笨偛、英特爾中?guó)軟件生態(tài)事業(yè)部總經(jīng)理李映在接受集微網(wǎng)采訪時(shí)表示,以往從某個(gè)生態(tài)轉(zhuǎn)換到另一個(gè)生態(tài)對(duì)開(kāi)發(fā)者的挑戰(zhàn)是眾多的學(xué)習(xí)曲線,需要花眾多的時(shí)間和投入。但在AI出現(xiàn)之后,通過(guò)AI的方法可以較為便利地將遷移成本降得更低。未來(lái)從CUDA轉(zhuǎn)到其他開(kāi)放生態(tài),原有封閉生態(tài)產(chǎn)生學(xué)習(xí)曲線的壁壘會(huì)慢慢消失。

到如今,對(duì)CUDA封閉生態(tài)發(fā)起的挑戰(zhàn)者既有老牌勁旅,也有產(chǎn)業(yè)新貴。首要問(wèn)題是,這些挑戰(zhàn)者能否構(gòu)筑出足夠好用的生態(tài),讓眾多AI開(kāi)發(fā)者轉(zhuǎn)向,打破業(yè)界對(duì)英偉達(dá)的路徑依賴?

積極備戰(zhàn)

谷歌作為先行者,在這方面做了諸多的嘗試,并取得了一定的成效。

而OpenCL則以開(kāi)源為利器,OpenCL支持多種編程語(yǔ)言和環(huán)境,并提供豐富的工具來(lái)幫助開(kāi)發(fā)和調(diào)試,可同時(shí)利用CPU、GPU、DSP等不同類型的加速器來(lái)執(zhí)行任務(wù),并支持?jǐn)?shù)據(jù)傳輸和同步。此外,OpenCL支持細(xì)粒度和粗粒度并行編程模型,可根據(jù)應(yīng)用需求選擇合適模型提高性能和效率。

而今英特爾也在全面發(fā)力,不止在CPU、NPU、GPU和Gaudi加速器硬件領(lǐng)域不斷迭代和擴(kuò)展,還推出了開(kāi)放的、模塊化的開(kāi)發(fā)者云平臺(tái)和面向客戶端及邊緣端的OpenVINO工具,使代碼只需編寫一次即可部署在多種計(jì)算架構(gòu)上,以全面促進(jìn)AI從云到端的部署。

“通過(guò)采用不同的硬件,可優(yōu)化AI工作負(fù)載,開(kāi)源生態(tài)系統(tǒng)則助力開(kāi)發(fā)者加快開(kāi)發(fā)自己的模型,并輕松部署在不同的應(yīng)用領(lǐng)域,從而提高效率和生產(chǎn)力,創(chuàng)造更多的價(jià)值,讓AI無(wú)處不在。”Sachin Katti指出。

不止如此,通過(guò)與領(lǐng)先的軟件供應(yīng)商 Red Hat、Canonical和SUSE合作,英特爾還為其發(fā)布的企業(yè)軟件提供經(jīng)英特爾優(yōu)化的發(fā)行版,以確保這些軟件面向全新英特爾架構(gòu)進(jìn)行了性能優(yōu)化。此外,英特爾將繼續(xù)為包括PyTorch和TensorFlow在內(nèi)的AI與機(jī)器學(xué)習(xí)工具和框架作出貢獻(xiàn)。英特爾CTO Greg Lavender表示,英特爾將抓住機(jī)遇,持續(xù)優(yōu)化軟件,以獲得最佳的性能和規(guī)模。

而開(kāi)放生態(tài)要在AI領(lǐng)域生根,或仍需要時(shí)間和創(chuàng)新護(hù)法。

一名資深軟件開(kāi)發(fā)人員告訴集微網(wǎng),CUDA已經(jīng)存在了近20年,對(duì)于高度并行的自定義計(jì)算(不是標(biāo)準(zhǔn)的深度學(xué)習(xí)層)來(lái)說(shuō),仍將是一個(gè)標(biāo)準(zhǔn)軟件。但對(duì)于深度學(xué)習(xí)來(lái)說(shuō),開(kāi)放生態(tài)或會(huì)做得很好。

“對(duì)與CUDA競(jìng)爭(zhēng)的開(kāi)放標(biāo)準(zhǔn)來(lái)說(shuō),還需要努力發(fā)展成熟來(lái)獲得市場(chǎng)和心智份額。英特爾、AMD等需要通過(guò)有競(jìng)爭(zhēng)力的性能和更低的成本來(lái)逐步打開(kāi)市場(chǎng),并持續(xù)付諸實(shí)踐,才能發(fā)揮和提升開(kāi)放生態(tài)的有效性和實(shí)用性。”上述人士建議道。

歷史的教訓(xùn)

從目前來(lái)看,在深度學(xué)習(xí)的Training階段,GPU成為一項(xiàng)事實(shí)的工具標(biāo)準(zhǔn),英偉達(dá)也一家獨(dú)大。因?yàn)楦?jìng)爭(zhēng)的核心已經(jīng)不是單純的芯片本身,而是基于芯片加速背后的整個(gè)生態(tài)圈,提供足夠友好、易用的工具環(huán)境讓開(kāi)發(fā)者迅速獲取到深度學(xué)習(xí)加速算力,從而降低深度學(xué)習(xí)模型研發(fā)+訓(xùn)練加速的整體TCO和研發(fā)周期,在這方面不得不說(shuō)CUDA建立了深厚的護(hù)城河。

在云端推斷環(huán)節(jié),由于海量的推斷請(qǐng)求仍然是計(jì)算密集型任務(wù),CPU在推斷環(huán)節(jié)再次成為瓶頸。但在云端推斷環(huán)節(jié),GPU不再是最優(yōu)的選擇,阿里云、Amazon、微軟Azure等都紛紛探索云服務(wù)器+FPGA模式替代傳統(tǒng)CPU,以支撐推斷環(huán)節(jié)在云端的技術(shù)密集型任務(wù)。

隨著AI應(yīng)用的爆發(fā),越來(lái)越多的AI將落地于邊緣端,由于ASIC、NPU、FPGA等各有擁躉,在深耕不同領(lǐng)域的同時(shí),逐漸由AI軟件演進(jìn)到軟件+芯片是自然而然的路徑,也將形成繽紛的生態(tài)。

因而,AI從云端至邊緣端的部署也讓開(kāi)放或封閉生態(tài)正面對(duì)決,但路線或有不同、節(jié)奏或有快慢。

業(yè)內(nèi)人士直言,從技術(shù)角度來(lái)講,很難區(qū)分封閉生態(tài)和開(kāi)放生態(tài)的伯仲,無(wú)論是用戶體驗(yàn)、性能等等,真正的區(qū)別是戰(zhàn)略選擇和速度的問(wèn)題。

回溯歷史,無(wú)論是在PC、互聯(lián)網(wǎng)、移動(dòng)還是萬(wàn)物互聯(lián)時(shí)代,最開(kāi)始時(shí)一定是封閉生態(tài)。

李映提到,參考PC時(shí)代的蘋果,以及更早的IBM小型機(jī)時(shí)代,由于這是新市場(chǎng),需要速度,而在需要速度的時(shí)候封閉的生態(tài)發(fā)展會(huì)更快,不需要權(quán)衡太多。

但從長(zhǎng)遠(yuǎn)來(lái)看,開(kāi)放生態(tài)將迎來(lái)最終的勝利,這是一場(chǎng)長(zhǎng)期的比賽。“從IT多年發(fā)展歷程來(lái)看,開(kāi)放的AI生態(tài)一定會(huì)迎頭趕上,而且會(huì)是最后的贏家。這個(gè)贏并不只代表營(yíng)收如何,而是從創(chuàng)新、從整個(gè)產(chǎn)業(yè)角度來(lái)說(shuō)是必然的。”李映重申了對(duì)AI開(kāi)放生態(tài)的信心。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港