展會(huì)信息港展會(huì)大全

對(duì)話360創(chuàng)始人周鴻祎:做大語(yǔ)言模型比做光刻機(jī)簡(jiǎn)單多了
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-08 13:43:08   瀏覽:5359次  

導(dǎo)讀:本文是5月31日品玩舉辦的模型思辨國(guó)內(nèi)大模型生態(tài)研討會(huì)上,品玩創(chuàng)始人、CEO駱軼航與360集團(tuán)創(chuàng)始人、CEO周鴻的對(duì)話實(shí)錄,經(jīng)整理編輯發(fā)布。 訪談人:駱軼航 受訪人:周鴻 01 大模型確實(shí)要比光刻機(jī)簡(jiǎn)單很多 駱軼航: 我現(xiàn)在是品玩的首席大語(yǔ)言模型布道師,今天...

本文是5月31日品玩舉辦的“模型思辨國(guó)內(nèi)大模型生態(tài)研討會(huì)”上,品玩創(chuàng)始人、CEO駱軼航與360集團(tuán)創(chuàng)始人、CEO周鴻的對(duì)話實(shí)錄,經(jīng)整理編輯發(fā)布。

訪談人:駱軼航

受訪人:周鴻

01 大模型確實(shí)要比光刻機(jī)簡(jiǎn)單很多

駱軼航:我現(xiàn)在是品玩的首席大語(yǔ)言模型布道師,今天跟我對(duì)話的既是中國(guó)大語(yǔ)言模型領(lǐng)域的一個(gè)主要builder,他也是一位大語(yǔ)言模型領(lǐng)域的evanglist(布道者)。過(guò)去幾個(gè)月我們看到他在各種場(chǎng)合分享了對(duì)大語(yǔ)言模型趨勢(shì)的看法,當(dāng)然他自己的團(tuán)隊(duì)也在做大語(yǔ)言基礎(chǔ)模型。他就是360集團(tuán)的董事長(zhǎng)和CEO周鴻先生。

周鴻:我前不久生病了才病愈,我是第一次陽(yáng),后遺癥比較嚴(yán)重,如果一會(huì)兒產(chǎn)生大模型幻覺(jué),說(shuō)錯(cuò)什么話,大家不要在意。

駱軼航:那取決于我怎么給prompt,出現(xiàn)模型幻覺(jué)的原因往往是prompt給得不好。

周鴻:我在下面聽(tīng)你開(kāi)場(chǎng)講了這么久,感覺(jué)已經(jīng)快溢出了。

駱軼航:那是你的Token不夠用了。那好,我爭(zhēng)取用短小精準(zhǔn)的prompt問(wèn)你問(wèn)題。過(guò)去三個(gè)月所有人都在討論大模型,您覺(jué)得春節(jié)以后,中國(guó)和美國(guó)在大語(yǔ)言模型領(lǐng)域的差距是更大了還是更小了?

周鴻:我覺(jué)得當(dāng)然是更小了,因?yàn)樵贑hatGPT剛出來(lái)的時(shí)候,我這個(gè)做搜索的人,用搜索的思路去看人工智能,簡(jiǎn)直覺(jué)得匪夷所思不可思議,原來(lái)研發(fā)大模型的路徑答案可以是這樣的,你也完全不知道它的工作原理是什么。

但最近幾個(gè)月國(guó)內(nèi)同行陸陸續(xù)續(xù)發(fā)布了自己的大模型,雖然客觀來(lái)講跟GPT4.0還有點(diǎn)差距,相比GPT3.5也有點(diǎn)差距,但差距沒(méi)有那么大。

順道吐個(gè)槽,國(guó)內(nèi)測(cè)試大模型特別喜歡用腦筋急轉(zhuǎn)彎的形式,但如果你看微軟對(duì)GPT4.0的測(cè)試,其實(shí)在推理能力以及非常長(zhǎng)的思維鏈的能力上,GPT4.0是遙遙領(lǐng)先的。

話說(shuō)回來(lái),千里之行,始于足下,原來(lái)不知道什么是預(yù)訓(xùn)練,不知道什么是微調(diào),不知道什么是用戶強(qiáng)化學(xué)習(xí),踩了很多坑。,又從百億參數(shù)到幾百億、上千億的參數(shù),現(xiàn)在總算做出一個(gè)能用的東西,雖然有差距,但也是非常大的進(jìn)步。

國(guó)內(nèi)研發(fā)大模型滿打滿算,起步晚的過(guò)了春節(jié)開(kāi)始做,到現(xiàn)在也就三五個(gè)月時(shí)間,再次證明大模型確實(shí)還是要比光刻機(jī)簡(jiǎn)單很多。

不過(guò)昨天看到英偉達(dá)的黃仁勛發(fā)布了GH200芯片組,我覺(jué)得差距是不是又拉大了。

駱軼航:所以我才問(wèn)差距究竟是在變大還是變小,這個(gè)事是動(dòng)態(tài)的,一會(huì)兒大一會(huì)兒校

周鴻:要看角度。算力差距肯定是拉大了,人家內(nèi)存大概144TB,整個(gè)模型放進(jìn)去都綽綽有余,這樣就不需要搞好幾百臺(tái)電腦集群訓(xùn)練了,同樣參數(shù)的模型,過(guò)去一個(gè)月才能訓(xùn)練完的,現(xiàn)在三個(gè)小時(shí)或者一天就能訓(xùn)練完。

這種迭代速度太驚人了,因?yàn)楹芏鄷r(shí)候訓(xùn)練的結(jié)果不一定是收斂的,可能訓(xùn)練一個(gè)月后發(fā)現(xiàn)是一地雞毛,還得從頭訓(xùn)練,但一個(gè)月的時(shí)間已經(jīng)過(guò)去了。因此別人的訓(xùn)練速度可能比你快上百倍,從這個(gè)角度來(lái)說(shuō),中美之間算力帶來(lái)的大模型差距拉大了。

我的感覺(jué)跟你是一樣的,大家都感覺(jué)很焦慮,三個(gè)月就像三十年,每天都有層出不窮的圍繞大語(yǔ)言模型的成果,軟的硬的,各種框架開(kāi)源工具都有出來(lái)。但整體來(lái)說(shuō),我還是傾向于比較樂(lè)觀。

駱軼航:但不少同行覺(jué)得用一個(gè)很快的時(shí)間就能追趕上ChatGPT的現(xiàn)在水準(zhǔn),當(dāng)然ChatGPT本身也在迭代。

周鴻:我覺(jué)得差距是客觀存在的,只是行業(yè)中有人愛(ài)吹牛,如果要準(zhǔn)確預(yù)言差距將會(huì)在哪一天趕上,我個(gè)人覺(jué)得還是應(yīng)該謙虛一點(diǎn),畢竟中國(guó)還是有很多人真正用過(guò)GPT4.0的,你不能因?yàn)榇蟛糠秩硕紱](méi)見(jiàn)過(guò)就吹牛吧。

我們應(yīng)該找到差距在哪里,然后找到合適的場(chǎng)景充分發(fā)揮它的能力同時(shí)讓用戶對(duì)創(chuàng)新和面臨的困難有寬容和理解的接受度,不然吹牛吹得太大,大家期望很高,結(jié)果一用起來(lái)很失望。

02 垂直領(lǐng)域的機(jī)會(huì)還遠(yuǎn)遠(yuǎn)沒(méi)有表現(xiàn)出來(lái)

駱軼航:同行中您比較看好誰(shuí)?是比360體量更大的巨頭,還是創(chuàng)業(yè)公司?

周鴻:我覺(jué)得各有各的優(yōu)勢(shì),最關(guān)鍵的是中國(guó)不會(huì)只有一個(gè)GPT4.0就滿足了,也不會(huì)只有一個(gè)大模型。

現(xiàn)在有一個(gè)趨勢(shì)是把大模型做小,小到一臺(tái)安裝了英偉達(dá)3090、4090芯片的機(jī)器可以微調(diào),甚至是將來(lái)在IoT(物聯(lián)網(wǎng))設(shè)備上部署,這就決定大模型算力結(jié)構(gòu)將來(lái)會(huì)無(wú)處不在。

當(dāng)年計(jì)算機(jī)剛出來(lái)的時(shí)候也有人總結(jié)過(guò),全世界人民需要五臺(tái)超級(jí)電腦就夠了,但真正改變工業(yè)革命的東西是個(gè)人電腦,進(jìn)入每個(gè)家庭、進(jìn)入每家公司,安裝不同軟件來(lái)干各種各樣的事情。

駱軼航:也就是說(shuō)會(huì)涌現(xiàn)出許多垂直模型?

周鴻:我覺(jué)得會(huì)比想象像更快。

大家需要改變想法,不要以GPT4.0作為Benchmark(對(duì)標(biāo)),就像一個(gè)哈佛培養(yǎng)的博士后,水平是很高,獲得了十幾個(gè)博士學(xué)位,我們想復(fù)制一個(gè)短期內(nèi)有點(diǎn)難,但這不妨礙我們培訓(xùn)出來(lái)一個(gè)211或者985的大學(xué)本科生,他的場(chǎng)景目標(biāo)很現(xiàn)實(shí),就是直接訓(xùn)練垂直業(yè)務(wù)。

因?yàn)槟阌肎PT就會(huì)發(fā)現(xiàn)很多問(wèn)題它貌似能回答,但缺乏行業(yè)深度,因?yàn)樗ㄓ昧。如果把大語(yǔ)言模型看作一種生產(chǎn)力工具的話,我非常堅(jiān)信在垂直領(lǐng)域其實(shí)很多機(jī)會(huì)遠(yuǎn)遠(yuǎn)沒(méi)有被表現(xiàn)出來(lái)。要是真正完全用ChatGPT4.0看病,開(kāi)的藥方你敢吃嗎?你真正完全用ChatGPT寫訴狀打官司,那不是會(huì)出事嗎?美國(guó)有一個(gè)例子就是一家公司打造了法律行業(yè)的大模型,它不會(huì)唱歌、不會(huì)寫詩(shī)、不會(huì)做腦筋急轉(zhuǎn)彎,但會(huì)回答法律問(wèn)題。

因此,很多企業(yè)都需要自己定制的ChatGPT。

駱軼航:隨之開(kāi)發(fā)成本、部署成本、訓(xùn)練成本會(huì)降低對(duì)么?

周鴻:這事兒已經(jīng)不是秘密了,因?yàn)殡y度降低了很多,所以還是要感謝開(kāi)源,各種大模型相當(dāng)于新鮮的大腦供你選擇,至少短期內(nèi)將knowhow(知識(shí)和認(rèn)知)變成用數(shù)據(jù)灌進(jìn)往里面進(jìn)行預(yù)訓(xùn)練,或者根據(jù)行業(yè)的特點(diǎn),針對(duì)將來(lái)行業(yè)可能用到的能力進(jìn)行微調(diào)。

訓(xùn)練的數(shù)據(jù)和訓(xùn)練的方法現(xiàn)在一樣重要了,感謝開(kāi)源生態(tài),這些方法都在逐步被顯露出來(lái)。擁有和部署一個(gè)大模型的成本在急劇降低,但要是說(shuō)大模型目標(biāo)就是比肩GPT4.0甚至5.0,那投入依然是巨大的,競(jìng)爭(zhēng)依然是激烈的。

三星前不久有員工把公司的機(jī)密數(shù)據(jù)放到ChatGPT上訓(xùn)練導(dǎo)致數(shù)據(jù)泄露,這是一個(gè)很典型的例子,無(wú)論是國(guó)內(nèi)還是國(guó)外都可能就存在數(shù)據(jù)泄露的問(wèn)題,F(xiàn)在很多企業(yè)試圖訓(xùn)練自己的GPT,因?yàn)樗麄償了很多安全內(nèi)部數(shù)據(jù),這些數(shù)據(jù)是他們的吃飯家伙,能夠拿來(lái)去訓(xùn)練一個(gè)通用大模型嗎?不可能。

所以只能去訓(xùn)練企業(yè)專有GPT,讓大語(yǔ)言模型更了解行業(yè),更了解企業(yè)。未來(lái)這個(gè)市場(chǎng)應(yīng)該是有非常大的場(chǎng)景和機(jī)會(huì)。

今天下午我會(huì)參加我們公司一個(gè)視覺(jué)大模型和智能設(shè)備結(jié)合的發(fā)布會(huì)。大家現(xiàn)在都在談軟件APP,智能硬件的AIoT一直沒(méi)有真正實(shí)現(xiàn),大模型真正成為人工智能以后這方面有非常巨大的機(jī)會(huì),將是又一個(gè)重要的應(yīng)用場(chǎng)景。

現(xiàn)在的智能網(wǎng)聯(lián)汽車,比如特斯拉,要不要用大模型?肯定要,但車的速度很快,需要響應(yīng)很及時(shí),大模型如果在云端可能不一定能及時(shí)響應(yīng),而車上安裝一個(gè)大模型成本不會(huì)特別高,可能就是一個(gè)英偉達(dá)3090處理器的成本。

駱軼航:是車要追求精準(zhǔn),大語(yǔ)言模型精準(zhǔn)不了。

周鴻:所以只有專有垂直的大模型才有可能解決所謂幻覺(jué)的問(wèn)題。

駱軼航:只有專有的大模型才不胡說(shuō)八道。

周鴻:大模型胡說(shuō)八道不是獨(dú)有的,大家都有這個(gè)問(wèn)題。舉個(gè)例子,你問(wèn)所有GPT大模型,湯姆漢克斯演過(guò)幾個(gè)電影?它最后一定會(huì)胡說(shuō)八道一堆湯姆漢克斯沒(méi)有演過(guò),甚至壓根不存在的電影給你。我對(duì)這個(gè)知識(shí)模糊思考了很久,這是生成式智能算法不可避免的問(wèn)題,它在模仿人類學(xué)習(xí)知識(shí)的過(guò)程中更注重對(duì)知識(shí)范式的學(xué)習(xí),對(duì)知識(shí)的細(xì)節(jié)做了很多壓縮,甚至是有損壓縮。

駱軼航:跟人類學(xué)習(xí)的過(guò)程都是反的。

周鴻:只是部分沿用人類的學(xué)習(xí)過(guò)程,對(duì)知識(shí)模糊的應(yīng)對(duì)必須借助搜索能力。大模型并不能夠取代搜索,相反,一個(gè)強(qiáng)大的搜索無(wú)論是基于全文檢索還是向量數(shù)據(jù)庫(kù),能夠?qū)Υ竽P蛶?lái)兩個(gè)校正。一個(gè)就是訓(xùn)練時(shí)間延誤導(dǎo)致的不知道“今夕是何年”的問(wèn)題,另一個(gè)就是知識(shí)模糊,很多可笑的問(wèn)題如果有搜索能力做輔助那容易就可以解決,在企業(yè)級(jí)和專業(yè)級(jí)大模型上都是如此。

駱軼航:能不能說(shuō)通用大模型的出現(xiàn),是為了未來(lái)出現(xiàn)更多解決特定問(wèn)題的小模型?

周鴻:對(duì),包括Hugging Face最近出現(xiàn)一些新的計(jì)算框架,本身和模型沒(méi)關(guān)系。有一種思路是主駕駛思路,因?yàn)榇竽P蜕朴诶斫庹Z(yǔ)言,可以跟人交流,這樣在理解人的意圖以后,大模型可以調(diào)用很多其它應(yīng)用系統(tǒng)或其它小模型。我們干嘛為什么一定要讓哈佛出來(lái)的有十幾個(gè)博士學(xué)位的教授來(lái)干所有的事情呢?十幾個(gè)不同專業(yè)的員工用不同的小模型、不同的訓(xùn)練方法干不同的事情才是合理的,最后需要一個(gè)大模型把它們協(xié)調(diào)起來(lái)。

這里還有一個(gè)成本問(wèn)題,維護(hù)千億級(jí)的大模型,不說(shuō)預(yù)訓(xùn)練成本很高,就是定期每個(gè)季度組織訓(xùn)練一次,做一些微調(diào),成本都會(huì)非常高。如果是做企業(yè)專有的垂直模型,可能一個(gè)60-70億參數(shù)或者100億參數(shù)出頭的模型,維護(hù)運(yùn)營(yíng)成本會(huì)非常低,改動(dòng)起來(lái)也會(huì)非常快速,所以大模型并不是萬(wàn)能的。

最近Hugging Face還有一個(gè)“Agent”模式,就是有外面的“Agent”調(diào)用大模型,完成工作規(guī)劃、分解和落地。圍繞大模型有很多程序,也有很多小模型、小應(yīng)用可以彌補(bǔ),它們就像膠水一樣粘合在一起。大模型不是萬(wàn)能的,但通過(guò)各種模式合在一起可以取長(zhǎng)補(bǔ)短,完成擅長(zhǎng)的事情。

03 不要太著急于所謂“大模型生態(tài)”

駱軼航:追求某個(gè)行業(yè)、某個(gè)領(lǐng)域數(shù)據(jù)的精準(zhǔn)、數(shù)據(jù)的反饋,落實(shí)到應(yīng)用上面還是小模型更靠譜。

周鴻:我們自己訓(xùn)練大模型過(guò)程中發(fā)現(xiàn)一個(gè)特點(diǎn),就是數(shù)據(jù)種類必須非常均勻,摻點(diǎn)文科的,摻點(diǎn)理科的才行,如果最近狂灌物理題就會(huì)出現(xiàn)遺忘現(xiàn)象,很多技能會(huì)急劇下降,我猜跟訓(xùn)練過(guò)程中內(nèi)部概率統(tǒng)計(jì)的參數(shù)變化有關(guān)系。

要做一個(gè)很大的模型,滿足十個(gè)億用戶的長(zhǎng)尾需求,一會(huì)兒能算高數(shù)問(wèn)題,一會(huì)兒能給出人生答案,一會(huì)兒能寫一首詩(shī),一會(huì)兒能寫寶馬汽車廣告文案這是非常難的。

為什么我鼓吹力倡中國(guó)走大模型之路?可能我不是在一夜之間追上GPT,需要有幾年的時(shí)間,但不能說(shuō)追不上GPT我們的產(chǎn)品就是垃圾,就不做了,不做的話永遠(yuǎn)趕不上別人,但達(dá)到60、70分甚至80分的水準(zhǔn),在很多垂直領(lǐng)域中,這種弱點(diǎn)就變得不那么重要了。

駱軼航:打個(gè)不恰當(dāng)?shù)谋扔,其?shí)通用的大語(yǔ)言模型更像蘇格拉底和柏拉圖,因?yàn)槟莻(gè)時(shí)代的先知什么事情都知道,物理學(xué)、數(shù)學(xué)、化學(xué)都懂,包括亞里士多德,我們期待對(duì)人類更有用的模型可能是錢學(xué)森、袁隆平,就是在具體領(lǐng)域非常專精的。

周鴻:我說(shuō)的比你還極端,大模型就像當(dāng)年個(gè)人電腦,它本身是通用架構(gòu),加上不同的軟件、不同的環(huán)境,可以干很多事情。

我覺(jué)得今天不要太著急這個(gè)Ecosystem構(gòu)建大模型的生態(tài)環(huán)境,因?yàn)楝F(xiàn)在大家對(duì)大模型怎么做的都還沒(méi)有搞弄清楚,你指望生態(tài)系統(tǒng)直接出來(lái)直接考慮做生態(tài)系統(tǒng)?我覺(jué)得有點(diǎn)太著急了操之過(guò)急了。

現(xiàn)在大家連發(fā)布都還沒(méi)正式發(fā)布,只有發(fā)布以后。這里還大模型的應(yīng)用不只是在to C的場(chǎng)景,另外我個(gè)人覺(jué)得大家也要關(guān)注大模型在to B領(lǐng)域的應(yīng)用。像你這樣研究prompt,研究大模型的,門檻和難度還是比較高的,盡管個(gè)人消費(fèi)者也可以用它來(lái)但分析一個(gè)上市公司的年報(bào),讀一篇論文,個(gè)人消費(fèi)者也可以使用,但普通用戶真的會(huì)用嗎?大多數(shù)人沒(méi)有這種學(xué)習(xí)的欲望和分析的需求的。

大模型最大的意義就是作為企業(yè)、國(guó)家、行業(yè)提高生產(chǎn)力的工具。

我想給品玩一個(gè)建議,其實(shí)品玩沒(méi)有必要做。

駱軼航:是品玩沒(méi)有必要做大模型還是品玩都沒(méi)有必要做了?

周鴻:沒(méi)有必要做模型,只要打造一個(gè)駱軼航的個(gè)人GPT就好了,上面掛一個(gè)360行車記錄儀,每天去哪里全部記下來(lái),站在臺(tái)上的一個(gè)小時(shí),全部都數(shù)字化記下來(lái),把這些數(shù)據(jù)全部鏈接訓(xùn)練兩年,就能訓(xùn)練一個(gè)專有的駱軼航版本的GPT,訓(xùn)練兩年。

《流浪地球2》就描繪了數(shù)字影像,把你的人生拷貝在U盤里面,然后插在一臺(tái)超級(jí)計(jì)算機(jī),電影里好像叫W500。我剛開(kāi)始想這不是鬼話天方夜譚嗎?等我看到GPT后就發(fā)現(xiàn)這是完全有可能的,哪一天我把你“干掉”以后,你不就永生了?因?yàn)槲覀冞是可以跟你的數(shù)據(jù)分身進(jìn)行交流,你的數(shù)據(jù)分身可以站在臺(tái)上滔滔不絕地回答我的問(wèn)題。

駱軼航:你寧愿看到我的分身也不愿意看到我本人是嗎?回到剛才的問(wèn)題,你還是沒(méi)回答國(guó)內(nèi)更看好誰(shuí)做大模型。

周鴻:你問(wèn)我更看好哪個(gè)GPT,我覺(jué)得我看好的都不重要,所有公司都有自己的優(yōu)點(diǎn),特別是中國(guó)互聯(lián)網(wǎng)公司為什么都要自己做?第一難度沒(méi)有那么高,第二代表著人工智能的未來(lái),因此不是用了別人的API就可以的,必須要對(duì)別人有所了解。

GPT優(yōu)先解決要NLP(自然語(yǔ)言處理)問(wèn)題,NLP是所有人工智能皇冠上的明珠,誰(shuí)參玩透了語(yǔ)言的理解誰(shuí)就真正理解了這個(gè)世界,成為未來(lái)其它人工智能任務(wù)的底座OpenAI最大的創(chuàng)新和指明的道路,就是把所有文本序列當(dāng)成一個(gè)sequence(序列)進(jìn)行猜測(cè)和預(yù)測(cè),所以現(xiàn)在處理視覺(jué)、處理聲音,大體也都是這個(gè)思路。用大模型做多模態(tài)效果要比原來(lái)的CNN(卷積神經(jīng)網(wǎng)絡(luò))和DNN(深度神經(jīng)網(wǎng)絡(luò))的玩法先進(jìn)很多。

如果我們把所有東西都看成序列,那么從機(jī)器人到自動(dòng)駕駛,都有可能用大模型結(jié)合其它模型形成技術(shù)上的突破。DeepMind對(duì)蛋白質(zhì)的分析,甚至人類對(duì)基因序列的分析,大模型算法都有可能幫助形成突破,因?yàn)榛蛐蛄幸彩且环N序列埃!甚至,大模型工具在將來(lái)可能變成數(shù)學(xué)家、物理學(xué)家手里的工具,幫助人們研究前沿科技。

駱軼航:現(xiàn)在大家都在講生成式Generative生成式人工智能,或者是Predictive預(yù)測(cè)式人工智能,它們的背后都是一套通用的大模型底座是嗎?

周鴻:對(duì)。目前網(wǎng)上出現(xiàn)的很多開(kāi)源給的已經(jīng)不是一個(gè)“干凈”的東西,而是經(jīng)過(guò)預(yù)訓(xùn)練很多數(shù)據(jù)集,能力雖然不高,但General知識(shí)是有的,剩下就是交給自己微調(diào),就像往專業(yè)方向發(fā)展。最近國(guó)內(nèi)也有開(kāi)源的趨勢(shì),所以我覺(jué)得還是得感謝開(kāi)源。

駱軼航:您覺(jué)得現(xiàn)在開(kāi)源的趨勢(shì)怎么樣?最近也有很多中國(guó)開(kāi)發(fā)者是在開(kāi)源社區(qū)里面,但還有哪些方面做得不夠?

周鴻:國(guó)外的想要開(kāi)源是因?yàn)檫@是體現(xiàn)了市場(chǎng)經(jīng)濟(jì)條件下的人多力量大,聚集更多的人,因?yàn)榭恳患夜、一個(gè)團(tuán)隊(duì)支撐不了。我覺(jué)得Meta的LLAMA系列的發(fā)展就是相互刺激,可能一個(gè)開(kāi)源項(xiàng)目只有40分,但刺激你一下就會(huì)做到60分,另外一家可能做到80分,國(guó)內(nèi)還沒(méi)做到是習(xí)慣把開(kāi)源改一改自己用。

駱軼航:不再把自己的成果返回給開(kāi)源Community。

周鴻:可能需要一個(gè)過(guò)程。

我覺(jué)得三個(gè)月都像過(guò)了三十年

駱軼航:因?yàn)榇笳Z(yǔ)言模型的出現(xiàn),General AI這樣的人工智能出現(xiàn),您認(rèn)為未來(lái)五年會(huì)發(fā)生什么?

周鴻:怎么總是想那么長(zhǎng)遠(yuǎn)的事情?我覺(jué)得三個(gè)月都像過(guò)了三十年。

其實(shí)現(xiàn)在我的策略非常清楚,再牛的人也要符合大勢(shì),中國(guó)的大勢(shì)就是產(chǎn)業(yè)數(shù)字化,互聯(lián)網(wǎng)數(shù)字化的公司在里面其實(shí)是配角。我覺(jué)得360就是做好兩件事情:一個(gè)是數(shù)字安全,光是網(wǎng)絡(luò)安全不夠,要有數(shù)據(jù)安全。另一個(gè)是人工智能安全,這是最復(fù)雜的,也是現(xiàn)在大家最關(guān)心的。我們國(guó)家可能也有很多政府部門關(guān)注這些事情,今天還回答不了人工智能產(chǎn)生意識(shí)以后變成新的物種會(huì)不會(huì)造成大規(guī)模的社會(huì)問(wèn)題。

我認(rèn)為人工智能的意義不亞于電腦和互聯(lián)網(wǎng),是一場(chǎng)新的工業(yè)革命,也是數(shù)字化的頂峰。大家好不容易上云有了大數(shù)據(jù),但這不是數(shù)字化的終結(jié),得把大數(shù)據(jù)轟灌到大模型里,變成一個(gè)通用的智能服務(wù)才能像電一樣賦能百行千業(yè)。

360現(xiàn)在所做的各種場(chǎng)景都值得用人工智能重做一遍,所以會(huì)把存量和增量的場(chǎng)景都做一遍。

駱軼航:不光是存量,增量也有很多。

周鴻:就是打造企業(yè)級(jí)、行業(yè)級(jí)的GPT,包括面向中小企業(yè)的GPT。直接給到中小企業(yè)大模型他們是不會(huì)用的,必須經(jīng)過(guò)SaaS化的包裝,所以就是安全和數(shù)字化兩條腿。

贊助本站

人工智能實(shí)驗(yàn)室
相關(guān)內(nèi)容
AiLab云推薦
展開(kāi)

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港