展會信息港展會大全

大模型到了該「驗收」的時候
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-09-18 18:57:02   瀏覽:1807次  

導(dǎo)讀:所幸仍有人愿意埋頭做些臟活、苦活、累活,讓一項新興技術(shù)普惠真正大眾的時間,來得更早了一些。 2024年9月,整個大模型產(chǎn)業(yè),來到了一個微妙的時間窗口。 一方面,是海外AI明星項目的接連換血與賣身。 Runway深陷刪庫跑路風(fēng)波;Stability AI在管理層大換血...

所幸仍有人愿意埋頭做些“臟活、苦活、累活”,讓一項新興技術(shù)普惠真正大眾的時間,來得更早了一些。

2024年9月,整個大模型產(chǎn)業(yè),來到了一個微妙的時間窗口。

一方面,是海外AI明星項目的接連“換血”與“賣身”。

Runway深陷“刪庫跑路”風(fēng)波;Stability AI在管理層大換血后再傳資金鏈斷裂消息;Character.AI以縮水50%的估值賣身谷歌;Inflection與Adept相繼被微軟與亞馬遜收入囊中;Reka AI則仍在尋找買家。

可另一方面,卻是AI大模型應(yīng)用的探索全面鋪開。

在C端,以內(nèi)容創(chuàng)作、辦公助理、圖像生成為首的To C應(yīng)用席卷市場,AI會議、AI音樂、AI短劇、AI PPT等新興應(yīng)用層出不窮,Sora的火熱更是催生了一大批AI視頻應(yīng)用緊鑼密鼓地集中亮相。

在B端,“百模大戰(zhàn)”與“Token價格戰(zhàn)”連番上演,實打?qū)嵉貨_開了一片廣袤的市場;兩年前,GPT 3.5每百萬Token的價格約為60美元,而今天,Gemini Flash只需要0.05美元。在企業(yè)降本增效的永恒需求下,AI大模型在智能客服、智能營銷、知識問答等場景中的應(yīng)用開始看到可量化的效果。

在同程旅行上,大模型為用戶解答關(guān)于酒店預(yù)定、退改、查詢等問題,很大程度上降低了客詢轉(zhuǎn)人工率;

在易車APP上,AI解讀、AI對比問答和AI搜索3D等能力正在提升用戶獲取信息的效率。這背后,是大模型加速訓(xùn)練技術(shù)支撐,讓模型迭代周期加快了30%;

在邁瑞醫(yī)療產(chǎn)品的臨床應(yīng)用中,大模型能夠讓重癥科醫(yī)生病情應(yīng)答快至5秒,大幅提升醫(yī)療效率,真正做到“從病魔的手里搶時間”;

在工業(yè)富聯(lián)的產(chǎn)線上,大模型開始參與工業(yè)質(zhì)檢、企業(yè)知識管理、產(chǎn)線助手、安全質(zhì)量檢測、生產(chǎn)效率分析;

在中信百信銀行,大模型技術(shù)開始落地到風(fēng)險管控中,提升風(fēng)控的質(zhì)量和效率。

甚至在“打工人”高頻使用的騰訊會議APP中,AI都能自動生成文字轉(zhuǎn)錄、會議紀(jì)要、待辦事項。

就在今天,騰訊宣布,已經(jīng)有超過700款產(chǎn)品接入了騰訊混元大模型。

700款產(chǎn)品是什么概念?

在2023年9月,這一數(shù)字大約為,50款。

這是毫無疑問的大模型場景應(yīng)用爆發(fā)。

在2024騰訊全球數(shù)字生態(tài)大會上,騰訊發(fā)布了最新版的騰訊混元大模型Hunyuan-Turbo。相較于上一代混元Pro MoE大模型,Turbo模型自研了萬億級分層異構(gòu)MoE結(jié)構(gòu),不僅模型效果大幅提升,其訓(xùn)練推理效率也提升了超過100%,并帶來了50%的推理部署成本下降。而Turbo版本的混元大模型,定價僅為前一代Pro版本的一半。

性能更強(qiáng)、價格更低,這是大模型是深入落地場景的前提。

走進(jìn)場景的第一步:找到場景解決問題的第一步是,定義問題,而落地場景的第一步是,明確場景。

大模型的核心是NLP(自然語言處理)技術(shù)的突破,其對于大規(guī)模文本知識處理有著天然的優(yōu)勢;同時,在億級規(guī)模參數(shù)的密集訓(xùn)練下,模型能夠捕捉到語言的復(fù)雜性和細(xì)微差別,也能通過融合知識圖譜等外部知識進(jìn)行知識增強(qiáng)。另外,大模型擁有較強(qiáng)的泛化能力,可以通過自監(jiān)督學(xué)習(xí)的方法在大量無標(biāo)注數(shù)據(jù)上進(jìn)行訓(xùn)練,也可以通過少量的任務(wù)特定數(shù)據(jù)進(jìn)行微調(diào)。最后,以Stable Diffusion為首的技術(shù)突破也使得大模型在多模態(tài)內(nèi)容創(chuàng)作生成上表現(xiàn)極佳。

抽取一下關(guān)鍵詞:知識密集、自然語言、泛化與小樣本、多模態(tài)內(nèi)容創(chuàng)作。

順著大模型技術(shù)能力往下匹配,場景呼之欲出:知識管理、智能客服、研發(fā)提效、智能營銷、內(nèi)容生成……

首先是智能客服與知識管理場景,由于大模型天生的NLP與知識密集屬性,使其能夠在處理大量自然語言場景時顯著提升復(fù)雜問題的解決效率,提升回答質(zhì)量尤其在涉及高專業(yè)度、多復(fù)雜知識的領(lǐng)域。

以汽車售后服務(wù)為例,與一般的商品售后溝通不同,汽車售后客服是一個典型的高專業(yè)度場景,需要客服人員擁有復(fù)雜的汽車知識儲備,并能夠處理說明書、圖片、表格等眾多形式的客戶信息輸入,傳統(tǒng)客服機(jī)器人根本無法滿足客戶需求。

一個典型的案例是長安汽車,騰訊云告訴36氪,通過與長安汽車共創(chuàng),雙方利用大模型知識引擎整合汽車使用手冊等資料,有效解決了客戶在車輛使用和維護(hù)中的疑問,顯著提升了客戶服務(wù)體驗。

這是大模型知識管理能力在企業(yè)中“對外”的展現(xiàn),其實“對內(nèi)”亦然。

比如,在知識壁壘同樣極高的法律領(lǐng)域,曠真律所將4萬多份員工編撰的內(nèi)部知識文檔導(dǎo)入到騰訊樂享中,形成了律所專屬的AI知識庫,員工能夠隨時通過樂享AI助手的分析與自然語言生成能力進(jìn)行問答,根據(jù)員工調(diào)研顯示,對典型問答的AI回答滿意度高達(dá)93分,端到端問題準(zhǔn)確率達(dá)91%。

早在今年5月,騰訊云就將大模型的這項技術(shù)沉淀下來,作為PaaS類產(chǎn)品大模型知識引擎發(fā)布。通過知識引擎,企業(yè)5分鐘就能開發(fā)出一款專用客服營銷、企業(yè)知識社區(qū)類知識服務(wù)應(yīng)用。

騰訊云大模型知識引擎采用的是目前主流的RAG(檢索增強(qiáng)生成)技術(shù)架構(gòu)為基礎(chǔ),不僅整合了OCR文檔解析、向量檢索、多模態(tài)大模型等技術(shù),更能讓企業(yè)通過模塊化的應(yīng)用模板快速開發(fā)落地。除了上文提到的汽車、法律等領(lǐng)域,騰訊云大模型知識引擎還在金融、教育等多個行業(yè)落地。

除了知識管理、智能客服外,在大模型AIGC的“老本行”內(nèi)容創(chuàng)作領(lǐng)域,智能營銷、內(nèi)容生成等同樣是大模型的適宜落地場景。

在市場營銷領(lǐng)域,Campaign廣告素材生產(chǎn)效率、營銷互動趣味性等都是核心的關(guān)注參數(shù)在消費周期短、需要頻繁購買的快消品領(lǐng)域更是如此。例如,奶業(yè)巨頭蒙牛通過與騰訊云合作,用圖生圖能力,將用戶上傳的全家福轉(zhuǎn)化生成為特制的卡通畫風(fēng),使得小程序活躍度相對于去年同期提升80%,極大地提升了提升用戶的參與度。

而在制作周期更長、成本更高的視頻內(nèi)容創(chuàng)作領(lǐng)域,大模型的降本增效能力則更為凸顯。過去,視頻內(nèi)容需要一幀幀進(jìn)行設(shè)計和制作,制作周期短則數(shù)天,長則數(shù)月。而人民日報、新華社等媒體如今則能夠通過混元大模型的文生視頻能力,通過一段文字或幾張圖片,在幾分鐘內(nèi)就能快速生成優(yōu)質(zhì)視頻內(nèi)容,極大提升了內(nèi)容創(chuàng)作效率。

此外,強(qiáng)泛化能力與zero-shot/few-shot能力則能讓大模型在小樣本場景下表現(xiàn)出色。比如,在風(fēng)險管控、質(zhì)量檢查等領(lǐng)域,大量企業(yè)只擁有少量異常樣本,使用傳統(tǒng)方式建模的時間長、精度也不夠。而大模型則能夠通過打包豐富的反欺詐知識,實現(xiàn)“小樣本”訓(xùn)練,快速構(gòu)建契合業(yè)務(wù)需求的風(fēng)控模型體系。

根據(jù)騰訊云數(shù)據(jù),在東風(fēng)日產(chǎn)汽車金融的大模型合作中,雙方能夠只基于少量提示樣本就完成了適配業(yè)務(wù)場景的風(fēng)控模型定制,相比于傳統(tǒng)的建模方式,模型KS性能提升超過20%,跨場景泛化性測試性能提升了高達(dá)53%。

此外,還有研發(fā)提效、辦公協(xié)同等等場景,不一而足。

此外,AI大模型作為一項新興技術(shù),整個配套設(shè)施都要從0開始打造。除了上述面向場景的PaaS產(chǎn)品,在整個AI大模型的AI infra基建層,騰訊也一直在“埋頭鋪路”。

為了幫助企業(yè)更好地訓(xùn)練大模型,騰訊云推出了集算存網(wǎng)一體的高性能智算底座“騰訊云智算”。目前,騰訊云智算的集群千卡單日故障數(shù)已經(jīng)刷新到0.16,是行業(yè)水平的1/3;1分鐘就能完成萬卡Checkpoint寫入,數(shù)據(jù)讀寫效率是業(yè)界10倍;千卡集群的通信時間縮短到6%,是業(yè)界一半。騰訊云智算集群從機(jī)器上架到開始訓(xùn)練可以做到只需1天,相比業(yè)界以月為單位大為縮短。

當(dāng)前,大模型還達(dá)不到“開箱即用”的地步,IaaS、PaaS、SaaS層都需要一點點“往下磕”。騰訊在底層做好基建、中層做好工具、上層理解場景,三管齊下,如今已經(jīng)能看到不少落地的成效。

長期、優(yōu)質(zhì)、多元、獨到在大模型的所有應(yīng)用場景中,醫(yī)療場景十分特殊。而在所有醫(yī)療場景中,重癥無疑是醫(yī)療場景中最值得關(guān)注的。

當(dāng)前,能夠承擔(dān)重癥治療的醫(yī)護(hù)人員極為緊缺,而重癥患者又通常伴隨大量復(fù)雜的生理和生化指標(biāo)和輔助檢查,涉及的藥品、機(jī)器使用頻繁且情況復(fù)雜。同時,重癥患者病情又普遍都相對嚴(yán)重,對治療及時性要求極高。

為了解決這些問題,在重癥醫(yī)療領(lǐng)域,騰訊云與醫(yī)療器械廠商邁瑞醫(yī)療合作,著力打造一套完整的、適配醫(yī)療場景數(shù)據(jù)、醫(yī)院環(huán)境使用需求的重癥大模型解決方案。

然而,想要模型真正落地,首先需要解決的是醫(yī)院真實使用場景中出現(xiàn)的問題。

當(dāng)前,醫(yī)學(xué)能力可對標(biāo)開源大模型尺寸高達(dá)70B,對于終端醫(yī)院來說幾乎無法真正落地,為了適配醫(yī)療場景數(shù)據(jù)并充分考慮醫(yī)院環(huán)境的使用需求,騰訊云與邁瑞醫(yī)療的重癥大模型在保持效果的前提下模型尺寸更精巧,推理、部署成本更優(yōu)。

同時,通過構(gòu)建知識圖譜,錄入全量重癥知識、預(yù)制檢驗檢查指標(biāo)、藥品等信息的映射關(guān)系,大模型在知識錄入階段,就會將知識進(jìn)行整理,拆分,結(jié)構(gòu)化,再轉(zhuǎn)化到特征空間,并通過生成式訓(xùn)練保證大模型對重癥醫(yī)學(xué)的理解能力和表述的專業(yè)性。

此外,基于騰訊云醫(yī)學(xué)行業(yè)大模型,結(jié)合知識引擎、知識圖譜等相關(guān)產(chǎn)品技術(shù),以及邁瑞在重癥醫(yī)學(xué)領(lǐng)域的完整的解決方案和對臨床場景的深刻理解,重癥大模型能夠?qū)⒅匕Y治療中沉淀出的海量醫(yī)生經(jīng)驗與高質(zhì)量醫(yī)學(xué)文獻(xiàn)結(jié)合,通過迅速預(yù)測病情演進(jìn)幫助醫(yī)生輔助決策,還能輔助病歷撰寫、患者信息檢索、重癥知識檢索等環(huán)節(jié),將醫(yī)生從繁瑣的機(jī)械性工作中解放出來,“把醫(yī)生的時間留給患者”。當(dāng)前,這項解決方案能夠讓重癥科醫(yī)生的病情應(yīng)答速度快至5秒,大幅提升了醫(yī)療效率。

“要實現(xiàn)AI大模型應(yīng)用,需要結(jié)合不同層面的技術(shù),包括基礎(chǔ)設(shè)施、模型、agent與工具、還有應(yīng)用場景,每一層都需要考慮到,才能在合適的行業(yè)場景中,找到業(yè)務(wù)落地機(jī)會。”在此前的采訪中,騰訊集團(tuán)高級執(zhí)行副總裁、云與智慧產(chǎn)業(yè)事業(yè)群CEO湯道生曾經(jīng)這樣告訴36氪。

“(跟之前相比)客戶選擇云服務(wù)不只是看一次的價格,而是看你有沒有實力支撐長期的、更優(yōu)質(zhì)的服務(wù)。我們的很多客戶,之所以選擇騰訊云,就是看重了我們的一些多元化、獨有的能力。”湯道生說。

此外,在工業(yè)制造領(lǐng)域,工業(yè)富聯(lián)也與騰訊云聯(lián)手探索工業(yè)大語言模型和工業(yè)多模態(tài)大模型在制造場景中的落地。

例如,為了解決數(shù)據(jù)孤島問題,在大模型建設(shè)的前期,工業(yè)富聯(lián)與騰訊云需要先共同搭建一個統(tǒng)一的數(shù)據(jù)存儲平臺,實現(xiàn)不同廠區(qū)、產(chǎn)線、質(zhì)檢工位的數(shù)據(jù)采集和管理,再通過接入騰訊的TI平臺,實現(xiàn)高效的數(shù)據(jù)集成與標(biāo)準(zhǔn)化處理。

基于騰訊云的數(shù)據(jù)生成和異常檢測算法,工業(yè)富聯(lián)只需要提供少量正常圖像數(shù)據(jù)進(jìn)行訓(xùn)練,就能讓系統(tǒng)自主生成缺陷樣例,解決工業(yè)場景訓(xùn)練數(shù)據(jù)量少的問題。

而上文提到的知識引擎方案,則能夠?qū)⒎稚⒂谏a(chǎn)線上各個系統(tǒng)中,“幾十年老師傅沉淀的經(jīng)驗”,各類復(fù)雜的文檔與非結(jié)構(gòu)化數(shù)據(jù)融合搭建,構(gòu)建出一套專屬于工業(yè)富聯(lián)的知識庫。在此之上,工業(yè)富聯(lián)便能夠利用大模型為員工提供更為精準(zhǔn)和智能的知識服務(wù),盤活了大量知識資產(chǎn)。

醫(yī)療、制造、法律、金融、消費……不知不覺間,大模型已經(jīng)悄然走進(jìn)我們生活的方方面面。

半年之前,大模型產(chǎn)業(yè)內(nèi)曾經(jīng)掀起了一場轟轟烈烈的口水戰(zhàn),圍繞著“信仰”與否,辯論雙方各執(zhí)一詞,爭得不亦樂乎。

今天,終于沒人再提了。

經(jīng)過近兩年的市場教育,當(dāng)前,人們開始逐漸對大模型的概念祛魅,在行業(yè)的狂熱逐漸回歸冷靜的今天,從業(yè)者的關(guān)注重心從榜單、參數(shù)、模型大小逐漸轉(zhuǎn)移,大模型終于從投資的熱潮里走了出來,開始回歸其本來的意義在真實場景中,創(chuàng)造價值。

跟歷史上每一輪技術(shù)革命必經(jīng)的Gartner周期一樣,AI大模型也將走過它命中注定的跌宕曲線:技術(shù)萌芽、期望膨脹、泡沫破滅、穩(wěn)步爬升、生產(chǎn)成熟……

所幸,資本熱潮與技術(shù)落地之間永遠(yuǎn)存在著真實的差距,無論是工業(yè)制造、醫(yī)療護(hù)理,還是智能營銷、知識管理等眾多應(yīng)用場景中,企業(yè)的真實痛點既不會隨著行業(yè)熱度而盲目高漲,也不會隨著資本退潮而突然消失。

在“燒錢”與“泡沫”的聲量減弱,在盲目跟風(fēng)的熱潮退去前,所幸仍有人愿意埋頭做些“臟活、苦活、累活”,讓一項新興技術(shù)普惠真正大眾的時間,來得更早了一些。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會 | 展會港