作者 | 鄧詠儀
編輯 | 蘇建勛
2022年11月,ChatGPT面世,帶動了大模型的全球熱潮,僅僅一年,這波新AI浪潮就迅速快進(jìn)到在企業(yè)側(cè)落地從AI大廠、創(chuàng)業(yè)公司到企業(yè)客戶,大家都急切地想探索出一條可行的,讓大模型落地的路徑。
但對追一科技而言,這已經(jīng)不是新鮮事。
上一波AI創(chuàng)新浪潮催生出主打CV方向的商湯、曠視等“AI四小龍”,相較之下,如今火熱的NLP(自然語言處理)被稱為是“人工智能皇冠上的明珠”,在當(dāng)年是更少人走的路,其技術(shù)創(chuàng)新處于更早期階段。
在上一波AI浪潮中,追一科技是典型的明星AI創(chuàng)業(yè)團(tuán)隊(duì)。創(chuàng)始人CEO吳悅2006年進(jìn)入騰訊后,用五年時間成為騰訊最年輕的T4專家工程師,曾領(lǐng)導(dǎo)SOSO搜索技術(shù)團(tuán)隊(duì)。2016年,他與幾位騰訊的技術(shù)和產(chǎn)品的核心成員共同成立了追一科技。
成立開始,NLP行業(yè)也正值投資熱潮,追一憑借著智能客服等對話機(jī)器人產(chǎn)品,迅速商業(yè)化,開始市場擴(kuò)張。如今,追一科技在金融、運(yùn)營商、政務(wù)領(lǐng)域落地較多。在金融領(lǐng)域,追一科技服務(wù)了40%的前100銀行客戶,以及頭部的保險集團(tuán)和券商客戶,以及互聯(lián)網(wǎng)等行業(yè)。
但從2019年開始,追一科技開始經(jīng)歷了一段“坐冷板凳”的時光,其走過的“落地旅程”,也正是上一代AI公司的敘事大型客戶業(yè)務(wù)上有海量的定制化開發(fā)需求,面向科技部門針對大型客戶不同的操作系統(tǒng)、數(shù)據(jù)庫、中間件做適配。單純靠人力滿足定制化的項(xiàng)目需求,這很難讓AI公司真正規(guī);。
“一招打遍天下”很難走通,追一科技開始逐步補(bǔ)齊To B服務(wù)的完整鏈條。從前期的咨詢到后期的交付和服務(wù),最高峰時期,追一科技的團(tuán)隊(duì)擴(kuò)展至接近500人。
而在疫情之后,追一科技開始了一段艱難的取舍之路什么項(xiàng)目可做、什么項(xiàng)目不能做?要投入多少人力到定制化項(xiàng)目中?
“可以說,我們用7年的時間補(bǔ)齊了這些To B能力,到今年完成了最后一公里,剛好碰上了大模型浪潮。”吳悅表示。
來源:追一科技
經(jīng)歷了艱難的產(chǎn)品化和團(tuán)隊(duì)重振旗鼓,直到2023年ChatGPT為首的大模型熱浪席卷全球,追一科技將其視作不能錯過的機(jī)會。近期,追一科技也推出了垂直大模型“博文”,專門面向服務(wù)和營銷領(lǐng)域。
在博文領(lǐng)域模型之上,追一科技還研發(fā)了一套AI Agent框架,用戶可以基于這個框架,讓大模型的能力更好地發(fā)揮出來,也實(shí)現(xiàn)最終模型輸出結(jié)果的可控。
“博文大模型是從客戶實(shí)際業(yè)務(wù)場景和需求中成長起來的。”吳悅認(rèn)為,在如今琳瑯滿目的大模型中,能落地、對業(yè)務(wù)有實(shí)際效果、并且性價比高,才是大模型落地應(yīng)該走的路。
并且,追一在此前數(shù)年推出的六大NLP標(biāo)準(zhǔn)化產(chǎn)品,包括在線機(jī)器人Bot、語音機(jī)器人Call、多模態(tài)數(shù)字人Face、智能助理員Pal、智能培訓(xùn)師Learn、智能質(zhì)檢員See等,也都基于大模型進(jìn)行重塑。
如今,文本Bot、語音Call和多模態(tài)數(shù)字人Face都已經(jīng)在追一已有的企業(yè)客戶場景中落地,人工輔助的服務(wù)體驗(yàn)有顯著優(yōu)化,銷售開口率和成單轉(zhuǎn)化率等指標(biāo)也有所提升。新增的會話小結(jié)、營銷意圖判斷等模塊,也都能讓運(yùn)營效率有實(shí)質(zhì)性提升。
面對客戶,追一科技更傾向于一種務(wù)實(shí)的路線:基于現(xiàn)有的開源模型,加入追一多年積累的專家知識和獨(dú)有數(shù)據(jù)進(jìn)行微調(diào),快速滿足客戶已有的需求。如今,大模型應(yīng)用成本依然昂貴,追一也推出了一種混合使用的模式,用傳統(tǒng)NLP深度學(xué)習(xí)模型和大模型相結(jié)合,盡可能降低客戶解決問題的成本。
吳悅告訴36氪,追一在前些年積累的對話機(jī)器人等六大產(chǎn)品,現(xiàn)在會成為大模型在企業(yè)落地的載體。
而對比過去幾年,對大模型的落地,吳悅?cè)缃竦男膽B(tài)更加樂觀無論是人才密度、資金投入還是行業(yè)整體,如今中國都儲備得更多,心態(tài)也更成熟了。
“今年感覺大家理性了很多,理性狀態(tài)下更容易做出正確的事,比如客戶都會想:大模型如何結(jié)合我的場景去做商業(yè)化落地?我們也可以更心無旁騖地做事情。”他表示。
追一科技創(chuàng)始人 吳悅
以下為36氪與追一科技CEO吳悅的對話,經(jīng)36氪編輯:
聚焦服務(wù)營銷,做垂直大模型
36氪:追一最近也發(fā)布了新大模型博文大模型,主攻服務(wù)和營銷領(lǐng)域,以及產(chǎn)品線的全面升級。為什么在這個時間點(diǎn)推出?
吳悅:作為一家在2016年成立、也一直在一線做AI落地的公司,我覺得這次發(fā)布也代表我們的一種觀察,和對自身大模型的定位。
我們和通用大模型定位不同,我們做的是偏向服務(wù)營銷場景、更垂直一體化的大模型,也更關(guān)注通用大模型在發(fā)展過程中釋放的技術(shù)成果,怎么在服務(wù)營銷場景里利用起來。
36氪:博文大模型的架構(gòu)是怎么樣的,基于什么通用大模型進(jìn)行訓(xùn)練?
吳悅:我們從需求出發(fā),采取了兩條路徑。
第一條是依靠國內(nèi)外開源成果,如LLaMa、千問、百川、智譜等,在開源模型的基礎(chǔ)上進(jìn)行知識和能力的強(qiáng)化訓(xùn)練。相當(dāng)于在底層建設(shè)了一個接口,用來對接各家的大模型,對不同的開源模型進(jìn)行測試,再選擇在業(yè)務(wù)場景中表現(xiàn)最好的作為接入的模型,但各家的測試表現(xiàn)其實(shí)差不多。這一條路徑目前已經(jīng)落地了。
第二條路徑是自研,目前正在儲備,以后有需要的話也可以從底層開始訓(xùn)練。
但現(xiàn)在第一條路徑落地會更快。
36氪:為什么會說各種開源模型的的表現(xiàn)差不多?
吳悅:有兩方面的原因。
一方面,追一科技專注的是企業(yè)服務(wù)營銷場景,所依賴的底層能力比較通用,不需要特別強(qiáng)的數(shù)學(xué)能力或者上下文長文本的邏輯推理能力。
另一方面,我們在大模型的基礎(chǔ)上進(jìn)行了很多微調(diào),強(qiáng)化專項(xiàng)能力,深入挖掘底層大模型。
這兩個方面決定了當(dāng)下基礎(chǔ)大模型在企業(yè)服務(wù)營銷垂直領(lǐng)域的差異性不大。
36氪:市面上已經(jīng)有不少做服務(wù)營銷的大模型,博文同樣作為垂直領(lǐng)域的大模型,差異化優(yōu)勢在哪里?
吳悅:從產(chǎn)品和技術(shù)兩個層面來講,在產(chǎn)品上,追一在2016年以NLP起家,但我們發(fā)現(xiàn)在技術(shù)鏈條之外,還有很多需要補(bǔ)齊的地方。比如在產(chǎn)品的落地、客戶溝通、產(chǎn)品安裝部署、后續(xù)持續(xù)運(yùn)營等方面,我們也建立了專業(yè)咨詢和服務(wù)能力。
后來我們專注服務(wù)大客戶,比如頭部、腰部客戶。大客戶的銷售收益轉(zhuǎn)化大且業(yè)務(wù)場景更復(fù)雜,因此對于技術(shù)指標(biāo)更加敏感,比如技術(shù)多了一兩個點(diǎn)或者三五個點(diǎn),對大客戶來說可能是數(shù)十萬過百萬的服務(wù)和訪問量。
可以說,我們用7年的時間補(bǔ)齊了這些能力,到今年完成了最后一公里。這相當(dāng)于打了個底了,就之后如果我們想要把大模型落地的話。就相對還容易一些。
36氪:那技術(shù)優(yōu)勢會在什么地方?
吳悅:我們的核心團(tuán)隊(duì)過去是在騰訊做搜索、AI最核心的團(tuán)隊(duì),能力是蠻強(qiáng)的。之前我們就有很多AI自研技術(shù),除了自然語言處理NLP外還包括語音識別ASR、聲音合成TTS、數(shù)字人引擎等等。
而在大模型領(lǐng)域,我們一直有自己的獨(dú)創(chuàng)技術(shù)。2017-2018年左右,行業(yè)內(nèi)出現(xiàn)了BERT一類表征式大模型和GPT一類的生成式大模型。從底層算法到上層模型我們都有自研的技術(shù)和產(chǎn)品。
我們提出的RoPE旋轉(zhuǎn)位置編碼算法技術(shù),幾乎出現(xiàn)在每一家大模型的論文引用中。在表征式大模型方向我們有自用的ZOne系列模型,也開源了中文T5、WoBERT、Roformer等算法。
36氪:博文大模型主要在什么數(shù)據(jù)集上訓(xùn)練的?大概訓(xùn)練了多長時間?
吳悅:一些是開放的數(shù)據(jù)集,還有一些是我們過去積累的,例如圍繞服務(wù)營銷業(yè)務(wù)類的知識,算是我們做了數(shù)據(jù)標(biāo)簽的私有數(shù)據(jù),還有我們歷史上積累的幾十種不同NLP任務(wù)的數(shù)據(jù)集。訓(xùn)練是持續(xù)的,模型迭代的次數(shù)比較多。
36氪:追一從成立到現(xiàn)在也推出了六款A(yù)I產(chǎn)品,這次發(fā)布也對這些產(chǎn)品全面升級了,它們和博文大模型的關(guān)系是怎么樣的?
吳悅:你可以把這六款產(chǎn)品看作是AI技術(shù)落地到客戶的一個產(chǎn)品媒介。我們會植入大模型的能力,來解決一些過去AI技術(shù)所不能解決的一些問題。
另一方面,這些產(chǎn)品因?yàn)橛辛诵碌哪芰,又打開了新場景,那產(chǎn)品功能要做擴(kuò)展。
博文大模型覆蓋了服務(wù)和營銷的全流程所需要的能力。我們要做的是頂層設(shè)計(jì),將大模型放到實(shí)際的業(yè)務(wù)場景中做技術(shù)驗(yàn)證和灰度測試,充分考慮業(yè)務(wù)場景需求,拓展產(chǎn)品功能滿足新場景的要求,最后做到產(chǎn)品審慎地落地。
36氪:相當(dāng)于博文大模型是底座,六款產(chǎn)品是擁有了大模型的新能力。
吳悅:對的。六款產(chǎn)品可以分為兩個部分,第一部分是對話類產(chǎn)品,包括文字、語音和視頻三個聊天機(jī)器人。植入大模型后,能夠更好的上下文理解,例如對用戶多意圖的分析處理、意圖不完整時引導(dǎo)用戶完善,彌補(bǔ)了傳統(tǒng)NLP技術(shù)的不足。
這一問題放在以前需要大量的數(shù)據(jù)梳理標(biāo)注和模型訓(xùn)練,工作鏈條比較長且效果還不夠好,但大模型語言能力更強(qiáng),讓上面的問題可以得到比較好的解決。
第二部分是協(xié)同類產(chǎn)品,在服務(wù)和銷售過程中擔(dān)任助手的角色。這些機(jī)器人可以進(jìn)行對話數(shù)據(jù)分析,挖掘其中的商業(yè)價值,覆蓋了從交互、協(xié)同到分析的服務(wù)營銷全流程。
數(shù)據(jù)分析和處理的過程包含大量NLP任務(wù),對于頭部場景,如合規(guī)性檢測、話術(shù)挖掘,過去我們需要做專門的模型,但現(xiàn)在有了大模型處理多任務(wù)的能力,就不需要對每一個任務(wù)進(jìn)行專門訓(xùn)練。
36氪:對于話術(shù)挖掘、意圖識別這一類場景,專用模型可以做到什么程度?
吳悅:過去的專用模型主要是面向聚類、分類、標(biāo)注、回歸等任務(wù),在單一任務(wù)下可以做到比較高的準(zhǔn)確率,但是泛化學(xué)習(xí)能力不足。有了大模型之后,模型可以基于整體對話同時進(jìn)行多種任務(wù)的識別和判斷,這點(diǎn)在過去很難做到。
NLP落地,如何跑完“最后一公里”
36氪:像剛剛所說的,追一早在2019年就已經(jīng)在大模型領(lǐng)域有成果了。不過,一直到去年ChatGPT爆發(fā),才引發(fā)這一輪熱潮。這一年里,你的心情是怎么樣的?
吳悅:首先,我們一直在做NLP方向的創(chuàng)業(yè),對這樣顛覆性的突破,我們本身還是挺興奮的。我們團(tuán)隊(duì)從原來的搜索、推薦,到從2016年堅(jiān)定做NLP,并預(yù)判對話是下一個方向,現(xiàn)在得到驗(yàn)證,是很高興的事情。
另一方面,今年我們也完成了剛剛講的這個最后五公里或者最后一公里能力的建設(shè),才有精力去擁抱這樣的新技術(shù)趨勢,會感覺到是“天時地利人和”。
36氪:大模型推出到現(xiàn)在,也很快進(jìn)入到了到To B落地階段。追一已經(jīng)做了這個事情好幾年,你覺得最大挑戰(zhàn)會在什么地方?
吳悅:一方面,每個環(huán)節(jié)都不能有短板,包括技術(shù)、產(chǎn)品、專業(yè)服務(wù)和咨詢能力等,少了哪一塊都會導(dǎo)致不順利。軟件類的產(chǎn)品的需求和AI本身的能力是我們和客戶共同定義的,這也就要求我們需要拿到足夠多大客戶的反饋才能做好產(chǎn)品定義。
另一方面,這個過程需要時間,客戶需求不完善的時候產(chǎn)品功能和穩(wěn)定性也不完善。追一科技面對的主要是大客戶,對產(chǎn)品成熟度、穩(wěn)定性要求高,在交付的過程中有很多功課需要補(bǔ)齊。
我們算過,解決一個客戶bug的成本差不多是1萬元,其中包括差旅、研發(fā)、人力等成本。這幾年我們可能解決了幾千個這樣的bug。
36氪:這些bug后來是怎么解決的?會用什么方法去解決交付層面的問題?
吳悅:產(chǎn)品需要很多客戶共同定義,比如客戶覺得模型的回答不及預(yù)期,說明產(chǎn)品的設(shè)計(jì)不好,就需要算法參與解決這個問題,但主線開發(fā)人員是有限的,所以需要做好需求的分流。
這要求一線的產(chǎn)品經(jīng)理能夠完成比較成熟的產(chǎn)品設(shè)計(jì)。解決的bug多了,產(chǎn)品的成熟度就高了。
36氪:之前幾年,做To B的企業(yè)有一種邏輯是,希望通過滿足大客戶的需求,來打磨標(biāo)準(zhǔn)化產(chǎn)品,但后來發(fā)現(xiàn)即使是大客戶,需求很多都是定制化的,其實(shí)無法順利拿去服務(wù)下一個客戶。這種標(biāo)準(zhǔn)化是偽命題嗎?
吳悅:這是一個很難的事,但我們已經(jīng)完成了,這依靠兩點(diǎn)。首先,我覺得AI軟件產(chǎn)品相較于傳統(tǒng)軟件產(chǎn)品,50%-70%的個性化需求是通過AI模型,而不是寫代碼的方式實(shí)現(xiàn)的,這降低了軟件架構(gòu)的門檻。
36氪:50%-70%的需求都是什么?
吳悅:客戶一定有個性化需求,特別是頭部客戶。在AI產(chǎn)品沒有出來前,這些個性化需求都需要通過寫代碼邏輯來實(shí)現(xiàn),對于軟件架構(gòu)設(shè)計(jì)能力要求極高。但AI產(chǎn)品中的AI模塊能夠分解60%-70%的個性化需求,比如每家企業(yè)個性化的知識可以通過AI模塊標(biāo)準(zhǔn)化實(shí)現(xiàn);剩余只有30%左右需要寫代碼邏輯來解決,隨著軟件產(chǎn)品架構(gòu)的持續(xù)優(yōu)化,這部分比例將來會更低。
36氪:這背后的邏輯是什么?
吳悅:傳統(tǒng)的軟件是以人為核心的,需要用人來滿足需求。但AI是“去人化”的,只需要很少的人參與。人少了需求就會減少。
我覺得這是一個比較大的背景,我們才有機(jī)會把事情做成,在這個過程中我們也看到很多公司退出了這個賽道,甚至很多大廠也在轉(zhuǎn)型。
36氪:大模型在企業(yè)客戶的落地,會和企業(yè)本身的數(shù)字化程度有關(guān)嗎?
吳悅:我覺得沒有必然性,反而覺得大模型或者AI是企業(yè)彎道超車的機(jī)會。過去做傳統(tǒng)的軟件工程或者企業(yè)軟件確實(shí)挺難的,但AI軟件降低了對企業(yè)的要求。因?yàn)楹芏鄻I(yè)務(wù)流程被內(nèi)置到了模型里,企業(yè)的人力投入減少,過去的產(chǎn)品以人為核心,要達(dá)到某個水平必須投入這么多人。比如以前要做ERP或者其他重要軟件,架構(gòu)設(shè)計(jì)需要投入大量人力,數(shù)據(jù)還需要數(shù)據(jù)治理,但是大模型可以省掉很多功夫。很多工作AI可以自己形成閉環(huán),相當(dāng)于AI降低了整體業(yè)務(wù)的操作門檻。
36氪: 所以大模型出來后,你覺得落地會更容易?
吳悅:我覺得落地的難易需要看公司是什么類型。從表面上看,是簡單了,因?yàn)槭褂玫拈T檻降低了。但如果真的要做成,我覺得難度增加了。
36氪:可以展開說說嗎?
吳悅:使用門檻降低了,是因?yàn)榭蛻艨梢宰约禾讱ぁH绻@時候客戶依然選擇你的產(chǎn)品,一定是因?yàn)槟阍谶@個領(lǐng)域的洞察夠深刻,構(gòu)建了比較完整的產(chǎn)品矩陣,形成了比較好的行業(yè)know-how,還具備對大模型的深刻理解,知道可以應(yīng)用在哪些場景中,這才能真正扎根。
從這個角度來講,我覺得對廠商來說是要求更高的。
36氪:現(xiàn)在已經(jīng)有很多開源模型了,未來,客戶會不會減少對底層能力的關(guān)注,這到后面會變成一個純產(chǎn)品和工程的問題嗎?客戶現(xiàn)在最在意的點(diǎn)是什么?
吳悅:我覺得是最終業(yè)務(wù)效果和客戶滿意為衡量指標(biāo),這個過程產(chǎn)品和工程確實(shí)蠻重要的能力和待解決問題,但是算法能力也是非常重要的必要條件之一。比如,服務(wù)機(jī)器人能否改善服務(wù)體驗(yàn),從70%的滿意度提高到90%;營銷轉(zhuǎn)化率能夠百分之多少的提升;從業(yè)務(wù)效果倒推到產(chǎn)品,才到說要考慮選擇哪一種技術(shù)來實(shí)現(xiàn)。面向企業(yè)級客戶各個方面不能有短板,同時還需要有足夠的產(chǎn)品和技術(shù)長板。
36氪:成本也是現(xiàn)在大家很關(guān)心的問題,F(xiàn)在大模型的使用成本還是很高,到什么時候才能下降到客戶比較愿意用的水平?
吳悅:我們做過一個估算模型,假設(shè)一個人一個月大概消耗100GB的寬帶,這些數(shù)據(jù)都經(jīng)過AI的話需要耗費(fèi)上億美金。
目前我們看到,成本下降比較明顯的就是算法模塊的成本,細(xì)分領(lǐng)域大模型能顯著降低使用成本。第二是推理側(cè)的優(yōu)化,國產(chǎn)高性能加速卡會逐步追趕上來,替代英偉達(dá)GPU。
36氪:在這個階段,追一怎么保證產(chǎn)品和服務(wù)的投入產(chǎn)出比?
吳悅:從客戶的角度,他們自己的通用模型大約能夠解決70%-80%的問題,剩下的20%左右才是最難解決的問題。這一部分需要公司對業(yè)務(wù)比較深的理解,還要有比較好的軟件工程和產(chǎn)品設(shè)計(jì)能力,還需要AI能力,用好AI模型。
舉個例子,我們的博文大模型,圍繞剛才的服務(wù)和營銷場景,我們梳理了將近有100種大大小小專項(xiàng)技能,這些專項(xiàng)技能都要做專門的優(yōu)化,包括綜合技術(shù),投入產(chǎn)出比。我們測算過,在實(shí)際場景中,傳統(tǒng)的NLP模型的成本是大模型的幾萬分之一。
針對成本問題,我們提出了“增程式”技術(shù)理念。和針對燃油車和電動車的增程技術(shù)類似,相當(dāng)于是我們把大模型和追一目前使用的基于表征學(xué)習(xí)的大模型混合一起用,這種狀態(tài)會持續(xù)很久。
36氪:追一現(xiàn)在的客戶對大模型的態(tài)度,在今年有發(fā)生什么變化嗎?
吳悅:大模型對客戶的教育還是挺充分的。當(dāng)你說大模型的時候,客戶都還挺愿意和你聊的。
在這個過程中,我們發(fā)現(xiàn)這可以分為三個階段。第一階段是年初的時候,大家對大模型比較悲觀,覺得國內(nèi)可能很長一段時間甚至永遠(yuǎn)都做不出大模型;第二階段大家開始關(guān)注大模型如何和自己的業(yè)務(wù)進(jìn)行結(jié)合,需要一些明確的方案;近期感覺大家更加務(wù)實(shí)了,關(guān)注落地的成本和收益。
36氪:客戶愿意在IT方面投入多少比例的預(yù)算來使用大模型?
吳悅:就我們的接觸而言,不同的客戶策略不同。
客戶更關(guān)注的是大模型帶來了什么樣的價值,多少部門預(yù)算和這個價值是匹配的。因此我們是結(jié)合業(yè)務(wù)場景來和科技/業(yè)務(wù)部門做預(yù)算,并不是說一次性構(gòu)建一個巨大的平臺。
而是,比如說某個業(yè)務(wù)部門需要用到一些大模型相關(guān)的功能,我們就先針對場景,加一個新的模塊進(jìn)去,而不是建立一個大的數(shù)字化平臺這樣的大項(xiàng)目,相當(dāng)于我們可以對過去的產(chǎn)品做升級,也就是做有了大模型能力的新產(chǎn)品,例如語音機(jī)器人的升級、數(shù)字人等。
這一次AI浪潮,更理性務(wù)實(shí)
36氪:追一科技比較早就投入到大模型里面了,在ChatGPT出來后,整個市場經(jīng)歷了整整一年的爆發(fā),心情如何?
吳悅:興奮。我們一直做的是NLP的創(chuàng)業(yè),大模型是對NLP技術(shù)的顛覆性改變,從根本上突破了生成式大模型。當(dāng)時堅(jiān)定做NLP方向也是因?yàn)樵隍v訊我們經(jīng)歷了網(wǎng)頁搜索到推薦的過程,預(yù)判對話是未來的方向,而這個猜想在今天得到了驗(yàn)證。
36氪:會有不知所措嗎?有些NLP從業(yè)者表示,ChatGPT出來之后,似乎很多路線的研究意義就不存在了。
吳悅:還真沒有。GPT出來后,國內(nèi)有很多聲音表示,國外技術(shù)遠(yuǎn)遠(yuǎn)領(lǐng)先國內(nèi),態(tài)度很悲觀。但從我的角度,國內(nèi)目前的技術(shù)環(huán)境,無論是人才密度、資金投入還是整體,都比二零一幾年互聯(lián)網(wǎng)的時候儲備更加豐富。
其次,追一科技用了7年做技術(shù)積累和商業(yè)化,我們深知技術(shù)落地沒有那么簡單,完全靠GPT顛覆某個領(lǐng)域也不大可能。追一科技過去的積累和GPT技術(shù)的互補(bǔ)性很強(qiáng),我們在第一時間去和客戶介紹我們的大模型、調(diào)研他們的需求、理清產(chǎn)品的能力邊界和短板,在這個過程中我們做技術(shù)驗(yàn)證、頂層設(shè)計(jì),整體的看法還是冷靜、理性的。
36氪:那這一波AI熱潮,和上一波CV為主的AI浪潮,會有什么明顯不同?
吳悅:我覺得對于企業(yè)來說,可能目標(biāo)不同,上一波更多是資本推著走。這一波對于我們從業(yè)者而言,我們會更加理性地看待商業(yè)價值本身。資本不像當(dāng)年那樣樂觀地撒錢了,態(tài)度更加審慎。但不變的都是談落地,可能大家還是比較務(wù)實(shí)(笑)。
36氪:大模型出來之后,有樂觀的人會認(rèn)為這可以顛覆掉很多東西;也有人擔(dān)憂大模型會重走上一波AI的路比如單點(diǎn)能力不足以讓客戶付費(fèi),導(dǎo)致要做很多集成大項(xiàng)目,利潤也很低。你認(rèn)為會這樣嗎?
吳悅:我覺得不會。因?yàn)榻裉斓沫h(huán)境跟之前的環(huán)境也不太一樣,今天大家都理性了很多。之前那幾年,關(guān)鍵是很多公司大收入規(guī)模漲得很快,熱錢很多,很多可能是資本推著走,但現(xiàn)在不是了。
今年感覺大家理性了很多,理性狀態(tài)下也更容易做出正確的事。在我看來,正確的事就是思考:大模型如何結(jié)合我的場景去做商業(yè)化落地?落地后保持一個什么樣的利潤水平比較合理?在今天這個理性的環(huán)境下,少了很多噪音,我們反而能更加心無旁騖地做這些事。
36氪:感覺還是帶來了不少希望,中國整體的IT產(chǎn)業(yè)發(fā)展水平比較參差不齊,導(dǎo)致軟件賺錢都很難,大模型某種程度會改變現(xiàn)狀。
吳悅:至少這是一個比較大的機(jī)會。
36氪:你的樂觀主要來自什么地方?
吳悅:NLP技術(shù)本身就是商業(yè)化價值很高的一個技術(shù)了,比如以前搜索、頭條推薦,都是NLP相關(guān)的技術(shù)。
NLP技術(shù)的突破一定會帶來比較大的商業(yè)機(jī)會,因?yàn)檎Z言是人類社會、商業(yè)活動過程中的最為重要的媒介,具備非常大的商業(yè)價值。
36氪:現(xiàn)在,追一的市場規(guī)劃和目標(biāo)是怎么樣的?
吳悅:我們還是專注幾個行業(yè),比如金融、政務(wù)、運(yùn)營商,再通過運(yùn)營商去觸達(dá)其他政企類客戶。明年,我們爭取盈利,一切以利潤為目標(biāo)。