展會(huì)信息港展會(huì)大全

李彥宏稱AI將掀起創(chuàng)造力革命 人人都會(huì)是開發(fā)者
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-04-18 08:58:19   瀏覽:3750次  

導(dǎo)讀:本報(bào)記者 李靜 深圳報(bào)道 不用一行代碼,只用人類的自然語(yǔ)言,能開發(fā)出一款游樂(lè)園排隊(duì)助手應(yīng)用嗎? 隨著大模式和生成式AI的發(fā)展,這個(gè)答案是肯定的。在今年百度舉辦的一場(chǎng)創(chuàng)業(yè)大賽中,一支參賽隊(duì)伍利用百度AI原生應(yīng)用開發(fā)工具AppBuilder,用自然語(yǔ)言、三步就...

本報(bào)記者 李靜 深圳報(bào)道

不用一行代碼,只用人類的自然語(yǔ)言,能開發(fā)出一款游樂(lè)園排隊(duì)助手應(yīng)用嗎?

隨著大模式和生成式AI的發(fā)展,這個(gè)答案是肯定的。在今年百度舉辦的一場(chǎng)創(chuàng)業(yè)大賽中,一支參賽隊(duì)伍利用百度AI原生應(yīng)用開發(fā)工具AppBuilder,用自然語(yǔ)言、三步就開發(fā)出了AI原生應(yīng)用,并拿到了10萬(wàn)元的大獎(jiǎng)。

據(jù)介紹,以這款游樂(lè)場(chǎng)排隊(duì)助手為例,打開AppBuilder的開發(fā)界面,第一步先給應(yīng)用起名“游樂(lè)場(chǎng)排隊(duì)助手”,第二步填寫角色指令,包括調(diào)用代碼解釋器、算出在固定時(shí)間內(nèi)的最佳組合、輸出結(jié)果等;第三步再插入需要的工具組件。這樣,在零代碼的情況下,一個(gè)應(yīng)用就生成了。

“得益于強(qiáng)大的基礎(chǔ)大模型,有了很多低門檻,甚至零門檻的開發(fā)工具,開發(fā)者的生產(chǎn)力大大提高了。”百度創(chuàng)始人、董事長(zhǎng)兼首席執(zhí)行官李彥宏在Create 2024百度AI開發(fā)者大會(huì)上帶來(lái)了包括AgentBuilder、AppBuilder和ModelBuilder三大開發(fā)工具,涵蓋了智能體開發(fā)工具、AI原生應(yīng)用開發(fā)工具和各種尺寸的模型定制工具。

李彥宏說(shuō):“AI正在掀起一場(chǎng)創(chuàng)造力革命,未來(lái)開發(fā)應(yīng)用就像拍個(gè)短視頻一樣簡(jiǎn)單,人人都是開發(fā)者、創(chuàng)造者。”

未來(lái)大型的AI原生應(yīng)用是MoE架構(gòu)

大模型本身并不直接創(chuàng)造價(jià)值,基于大模型開發(fā)出來(lái)的AI應(yīng)用才能滿足真實(shí)的市場(chǎng)需求。

李彥宏分享了基于大模型開發(fā)AI原生應(yīng)用的具體思路和工具,以及對(duì)大模型未來(lái)發(fā)展的思考。

第一,他認(rèn)為未來(lái)大型的AI原生應(yīng)用基本都是MoE架構(gòu),即大小模型的混用,不依賴一個(gè)模型解決所有問(wèn)題。

第二,小模型推理成本低,響應(yīng)速度快,在一些特定場(chǎng)景中,經(jīng)過(guò)SFT精調(diào)后的小模型,它的使用效果可以媲美大模型。李彥宏表示:“這就是我們發(fā)布ERNIE Speed、ERNIE Lite、ERNIE Tiny三個(gè)輕量模型的原因。我們通過(guò)大模型,壓縮蒸餾出來(lái)一個(gè)基礎(chǔ)模型,然后再用數(shù)據(jù)去訓(xùn)練,這比從頭開始訓(xùn)練小模型的效果要好很多,比基于開源模型訓(xùn)練出來(lái)的模型效果更好,速度更快,成本更低。”

第三,智能體可能是未來(lái)離每個(gè)人最近、最主流的大模型使用方式,基于強(qiáng)大的基礎(chǔ)模型,智能體可以批量生成,應(yīng)用在各種各樣的場(chǎng)景。隨著智能體能力的提升,會(huì)不斷催生出大量的AI原生應(yīng)用。智能體機(jī)制包括理解、規(guī)劃、反思和進(jìn)化,它讓機(jī)器像人一樣思考和行動(dòng),可以自主完成復(fù)雜任務(wù),在環(huán)境中持續(xù)學(xué)習(xí)、實(shí)現(xiàn)自我迭代和自我進(jìn)化。在一些復(fù)雜的系統(tǒng)中,還可以讓不同的智能體互動(dòng),相互協(xié)作,更高質(zhì)量地完成任務(wù)。

“這是我們根據(jù)過(guò)去一年的實(shí)踐,踩了無(wú)數(shù)的坑,交了高昂的學(xué)費(fèi)換來(lái)的。”李彥宏強(qiáng)調(diào)道。

在這次大會(huì)之前,李彥宏還發(fā)出內(nèi)部信解釋百度文心大模型為什么不對(duì)外開源。在本次大會(huì)上,李彥宏再度表示,未來(lái)開源模型會(huì)越來(lái)越落后。

“開發(fā)者通過(guò)文心4.0降維裁剪出來(lái)的更小尺寸模型,比直接拿開源模型調(diào)出來(lái)的模型,在同等尺寸下的效果明顯更好;同等效果下,成本明顯更低。”李彥宏說(shuō)道,“大家以前用開源覺(jué)得開源便宜,其實(shí)在大模型場(chǎng)景下,開源是最貴的。所以開源模型會(huì)越來(lái)越落后。”

底層技術(shù)之變

百度文心一言自去年3月16日發(fā)布,到今天已有一年零一個(gè)月的時(shí)間。據(jù)介紹,文心一言用戶數(shù)已經(jīng)突破了2億,API日均調(diào)用量也突破了2億,客戶數(shù)達(dá)到了8.5萬(wàn),利用千帆平臺(tái)開發(fā)的AI原生應(yīng)用數(shù)超過(guò)了19萬(wàn)。

“近幾個(gè)月來(lái),文心大模型在代碼生成、代碼解釋、代碼優(yōu)化等通用能力方面實(shí)現(xiàn)了進(jìn)一步的顯著提升,達(dá)到國(guó)際領(lǐng)先水平。”李彥宏表示,“相比一年前,文心大模型的算法訓(xùn)練效率提升到了原來(lái)的5.1倍,周均訓(xùn)練有效率達(dá)到98.8%,推理性能提升了105倍,推理的成本降到了原來(lái)的1%。也就是說(shuō),客戶原來(lái)一天調(diào)用1萬(wàn)次,同樣成本現(xiàn)在一天可以調(diào)用100萬(wàn)次。”

當(dāng)編程不再是少數(shù)經(jīng)過(guò)專業(yè)訓(xùn)練的程序員的特權(quán),不再是面向過(guò)程、面向?qū)ο,而是面向需求后,這種革命性變化將徹底顛覆原有的操作系統(tǒng)。百度集團(tuán)執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖說(shuō)道:“新的操作系統(tǒng)的內(nèi)核中,底層的硬件從以CPU算力為主變成以GPU算力為主,而且第一次增加了硬件和軟件以外的資源,也就是被大模型壓縮的世界知識(shí)。操作系統(tǒng)管理的對(duì)象也因此發(fā)生了本質(zhì)的變化,從管理進(jìn)程、管理微服務(wù),變成了管理智能。這個(gè)全新的操作系統(tǒng)需要能管理萬(wàn)卡規(guī)模的集群,需要極致發(fā)揮GPU、CPU的性能,需要高速互聯(lián),還需要有強(qiáng)大的大模型作為核心引擎,不僅是語(yǔ)言大模型,還有視覺(jué)大模型。”

尤其值得關(guān)注的是,大模型高速發(fā)展的時(shí)代,強(qiáng)大的模型能力需要巨大的算力甚至電力,算力的有效管理至關(guān)重要。國(guó)內(nèi)還面臨一個(gè)特殊情況,就是芯片供應(yīng)的不確定性。“這必然會(huì)導(dǎo)致多款芯片并存的格局,短期看,這是大家被動(dòng)接受的局面,長(zhǎng)期看,這一定是大家主動(dòng)選擇的結(jié)果。”沈抖說(shuō)道,我國(guó)算力的發(fā)展需要擺脫對(duì)單一芯片的依賴,實(shí)現(xiàn)更優(yōu)的成本,保證更有彈性的供應(yīng)鏈。

然而,不同廠商的芯片差異很大,即使都來(lái)自同一廠商,不同代際的芯片差距也很大。要想在大模型訓(xùn)練、特別是單一訓(xùn)練任務(wù)上管理好多個(gè)廠商、不同代際的芯片,是非常困難的事情。

沈抖介紹道,全新發(fā)布的新一代智能計(jì)算操作系統(tǒng)萬(wàn)源已經(jīng)解決了這些難題,實(shí)現(xiàn)了單一訓(xùn)練任務(wù)下不同廠商芯片的混合訓(xùn)練,且百卡規(guī)模性能損失不超過(guò)3%,千卡規(guī)模性能損失不超過(guò)5%。最大程度上屏蔽硬件之間的差異,幫助用戶擺脫單一芯片的依賴,實(shí)現(xiàn)更優(yōu)成本,打造更具彈性的供應(yīng)鏈體系。

“未來(lái),我們會(huì)進(jìn)一步開放操作系統(tǒng)層面的生態(tài)合作。向上,開放更多的能力和接口,開發(fā)者可以非常簡(jiǎn)單地開發(fā)應(yīng)用。向左,大家可以用萬(wàn)源做基礎(chǔ),打造適合自己的垂直行業(yè)的操作系統(tǒng)。向右,可以把萬(wàn)源直接部署在自己的智算中心,享受穩(wěn)定、安全、高效的智能計(jì)算平臺(tái)。向下,我們會(huì)適配更多的芯片,為開發(fā)者進(jìn)一步隱去異構(gòu)集群的復(fù)雜性,讓不同的芯片都能發(fā)揮最大的效能。”沈抖說(shuō)道。

(編輯:張靖超 審核:李正豪 校對(duì):張國(guó)剛)

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港