展會信息港展會大全

周鴻祎:Sora的問世給行業(yè)警醒,中美在 AI 領(lǐng)域有巨大差距|鈦媒體AGI
來源:互聯(lián)網(wǎng)   發(fā)布日期:2024-02-27 13:47:38   瀏覽:3141次  

導讀:鈦媒體App獲悉, 全國政協(xié)委員、360集團創(chuàng)始人周鴻在2月23日的一場活動中重點回應(yīng)外界聚焦的AI(人工智能)焦點話題。 周鴻表示,和美國相比,中國在 AI 技術(shù)上存在差距是客觀事實。 我說中美有差距,我一直堅持這么說,看到差距才知道怎么去迎頭趕上,如果...

鈦媒體App獲悉,全國政協(xié)委員、360集團創(chuàng)始人周鴻在2月23日的一場活動中重點回應(yīng)外界聚焦的AI(人工智能)焦點話題。

周鴻表示,和美國相比,中國在 AI 技術(shù)上存在差距是客觀事實。

“我說中美有差距,我一直堅持這么說,看到差距才知道怎么去迎頭趕上,如果你都不承認差距,我們早就遙遙領(lǐng)先。我們領(lǐng)先的都很過分了。在刷榜的成績里,國產(chǎn)大模型基本壟斷了Top1到Top10,GPT-4都被刷到10名開外去了。但是Sora的問世還是給了我們一桶清醒的冷水。”周鴻稱。

不過,周鴻也提到,中美在 AI 上的差距主要體現(xiàn)在方向上,一旦方向正確,國內(nèi)公司馬上就會迎頭趕上。無論是Sora采用的Transformer模型,還是Sora本身,本質(zhì)都是軟件,“現(xiàn)在的落后,我覺得大概一到兩年就能解決。”

談及最近深陷爭議的“AI帶課網(wǎng)紅”李一舟在周鴻看來,人們確實需要 AI 科普教育,“他犯了一個很大錯誤,就是不該收費。”周鴻透露,自己將在不久后推出免費的 AI 課程,希望能用最粗淺的語言解釋最高深的技術(shù),為大家做好 AI 科普。他具體在2月29日公布相關(guān)事宜。

“AI 科普很關(guān)鍵,大家雖然都在談AI,實際對AI充滿恐懼,認為 AI 會帶來大規(guī)模失業(yè),實際上,AI 是人類最好的朋友。”周鴻談到,目前整個大模型賽道還沒開始掙錢,現(xiàn)在唯一能賺錢的就是“英偉達”,除此之外微軟、OpenAI都是在賠錢。

“按照顛覆式創(chuàng)新的思路,一個顛覆式創(chuàng)新的東西出來并不是完美的,它有很大的缺點,它最大的價值是降低了使用的門檻。”周鴻預(yù)測,大模型未來的紅利期至少還有十年。

周鴻強調(diào),AI 大模型絕對是一場工業(yè)級別的革命。“這才剛剛開始,如果每個人都賺了很多錢了,就跟今天互聯(lián)網(wǎng)公司很賺錢一樣,這個行業(yè)就會‘成熟’了。”

以下是周鴻此次回應(yīng)關(guān)于 AI 的部分內(nèi)容整理:

問:請問您是如何看待Sora的?它對行業(yè)的影響會有多大?是否還會出現(xiàn)類似于之前百模大戰(zhàn)的競爭格局,您是怎么看的?

周鴻(以下簡稱周總):Sora的技術(shù)原理國外討論的也非常多。像今天stable diffusion發(fā)了一個類似架構(gòu)開源的東西。我經(jīng)常講,人家一開源,我們科技就進步。所以,再往下,國內(nèi)可能在原始創(chuàng)新從零到一做的弱一點,但一旦OpenAI宣布了技術(shù)方向,宣布了產(chǎn)品,我認為國內(nèi)的模仿很快會跟上。所以,肯定又有很多家,做出類似的文生視頻類似的工具,我覺得會出現(xiàn)你說的百模大戰(zhàn)的這種情況。

問:最近關(guān)于 AI 培訓這塊的輿論和爭議比較大,不知道您怎么看?您覺得這個行業(yè)如何規(guī)范?

周總:有兩點我是肯定的。

第一,AI 的科普在中國變得非常關(guān)鍵。因為我接觸很多人,大家雖然在談AI,實際上大家對AI是有恐懼的,這種恐懼被網(wǎng)上一些號給帶節(jié)奏,覺得AI會導致大規(guī)模失業(yè),AI會帶來行業(yè)的崩潰。你去用一用 AI 就知道說,AI是人類有史以來發(fā)明的人類最好的朋友,也是最好的工具,它可以讓我們很多人解鎖技能,可以讓我們變得。比如我過去不會畫畫的,或者我過去不可能去做導演拍視頻的,我可以解鎖這個能力。所以,特別對年輕人來講,AI更是讓你從一個資歷非常淺的人,馬上可以跟那些有經(jīng)驗的人站在同一個起跑線上。

第二,我一直認為,AI并不會帶來行業(yè)的崩潰,或者是讓哪個行業(yè)(被)顛覆掉,它實際上會給這個行業(yè),比如對短視頻行業(yè)、影視工業(yè)、廣告業(yè)帶來正向的推動,只有那些不用AI的人會被用AI的人淘汰。

但是很多人說,你講這些道理沒有用,現(xiàn)在網(wǎng)上只要立個攝像頭,裝模作樣的在攝像頭前面講一番話包括我本人也是,就會有很多人信以為真,大家也確認不了誰講的是對的,誰講的是錯的,所以,我認為最重要的是,AI 一定要自己去用,一定要去縮校包括我跟很多企業(yè)的老板也講,企業(yè)里面為什么要通過一個含 AI 量的概念。企業(yè)里面從上到下,從內(nèi)到外都要去用AI的東西,用了才知道它的長短在哪里,它的邊界在哪里,它的優(yōu)點是什么,它的不足是什么,避免AI恐懼癥或者AI萬能論,這兩個論點都是不對的。

大家用了AI之后,對AI有一個科普,才能更好的知道怎樣去擁抱AI。所以,我覺得搞AI科普教育是對的。

大家需要科普教育,所以我認為AI的科普教育是非常重要的,但我認為他犯了兩個錯誤:第一:他應(yīng)該免費;二、還有他背后沒有自己 AI 的產(chǎn)品,好像是把很多國外的產(chǎn)品做了套殼,這個我就不評價了,這樣做肯定是有問題的。

所以,我最近在思考,我準備開一個免費的AI課,大家覺得我講課行嗎?但是我肯定不敢收費了。

問:我們想讓您多解釋一下,我們該如何理解這樣的差距,或者差距加大背后的核心原因是什么?

周總:第一,我說中美有差距,我一直堅持這么說,看到差距才知道怎么去迎頭趕上,如果你都不承認差距,我們早就遙遙領(lǐng)先,我們領(lǐng)先的都很過分了,你要天天這么覺得,不是有的公司曾經(jīng)準確的預(yù)言什么時候超過GPT4。大家做個大模型就去刷榜,刷榜的游戲你們都知道,把那個考題預(yù)先訓一遍。當然在刷榜的成績里,國產(chǎn)大模型基本可以壟斷Top1到Top10,GPT4都被刷到10名開外去了,但是,Sora的問世還是給了我們一桶清醒的冷水,讓人看看還是有點差距。

第二,我覺得GPT手里有些秘密武器沒有亮出來。在去年OpenAI“宮斗”的時候他們就爭論了半天,現(xiàn)在GPT5已經(jīng)在蓄勢待發(fā)了,GPT-5發(fā)沒發(fā)的問題完全取決于奧特曼的心情和他的節(jié)奏感。奧特曼什么時候發(fā)呢?當Google要做什么事情的時候,或者當META要做什么事情的時候他就會發(fā)一個東西。所以,考慮到他們對AGI的信心,我認為在人工智能的原創(chuàng)方面上,我們跟他們的差距主要在原創(chuàng)方向上。

大家知道,搞技術(shù)最難的是找到原創(chuàng)方向。原來人工智能、深度學習、神經(jīng)網(wǎng)絡(luò),我稍微感慨一點,你們愛聽不聽。包括META的楊立昆 (Yann LeCun)在拼命攻擊Sora、攻擊GPT、攻擊Transformer模型。

其實,Transformer模型不是OpenAI發(fā)明的,但是OpenAI是第一個選擇了一種新的用法,就是在里面無限地加參數(shù)的大小,加注意力的連接數(shù)目,加神經(jīng)網(wǎng)絡(luò)的層數(shù),也就是說他們相信一種叫做暴力美學,就是只要是大力出奇跡,所以,很多的跟Transformer當時一起競爭的模型,像T5、BERT,大家在小數(shù)據(jù)、小參數(shù)情況下的性能能力,Transformer都不是最好的,但是只要加大參數(shù)之后,只有Transformer是能支持無限的加大規(guī)模。所以,到目前來看Transformer這套模型至少被驗證了,是目前效果最好的。

所以,大家聽明白這一點嗎?這個方向絕對是正確的。OpenAI走對了方向。

其次,Transformer是把文本,文本是一個一維的數(shù)據(jù),一個單詞在另一個單詞的前后,只有前后關(guān)系。處理圖片他們現(xiàn)在也是用類似的方法,圖片是二維的,一個像素,有X、Y軸的關(guān)系。視頻是3D的數(shù)據(jù),為什么呢?一個色塊除了有在圖片上的位置之外,它有按照時間移動的關(guān)系或者按照時間變形的關(guān)系,所以,這次Sora的出現(xiàn)在技術(shù)上有個巨大的成果,OpenAI用Transformer架構(gòu)成功實現(xiàn)了對各種各樣的文字、圖片、聲音還有視頻的歸一化的處理,而且再加上Transformer本身對語義的了解,對知識的理解,所以,它這次能做出Sora是把GPT的能力融在里面了。它還做了一個文生圖的東西叫做DALLE,把DALLE的能力也融在里面了,所以它就比Pika、或者Runway這種只是利用Diffusion模型做像素的復制這種效果要好很多。所以,Transformer目前全世界都在跟這個架構(gòu),這次處理視頻怎么做呢?最早大家也不知道該用什么架構(gòu)做,有的人是用Diffusion做,就是Pika、Runway這種概念,就是把動畫看成是多幀圖片,把一張張圖畫出來,但是它沒有用Transformer模型來做。所以,在這種方向性的創(chuàng)新上,OpenAI做得非常好,我覺得差距主要在這里面。

我剛才里八嗦講了點技術(shù)細節(jié)。第一,我們和別人的差距主要在方向感上,一旦方向感確定,中國公司的學習能力和模仿能力會很快,而且你可以想象,馬上就會有人去挖Sora團隊的那些人,這些人中有些人會出來創(chuàng)業(yè),比如同行會發(fā)布開源的東西,會發(fā)布一些公開的論文,所以,這里面很多方法很快都會泄露出來或者分享出來,對中國團隊來說去跟進,不是一個很難的問題。但是Sora讓我覺得最震撼的是說,它產(chǎn)生視頻是一個副產(chǎn)品,它在做這個過程中突然發(fā)現(xiàn)說,通過對很多視頻材料的學習,不僅學到了如何去繪出圖案,最重要的它要繪出真實的這種、符合我們每個人常識的視頻,它必須要了解這個世界很多元素之間的互動關(guān)系,我不知道大家理解不理解這個意思。

所以,我再舉個例子,Sora如果開測試賬號,如果能拿到之后,你們可以多替我做個實驗,讓Sora畫一場籃球賽,讓Sora畫一場足球賽。如果一個人根本沒有看過籃球和足球,不懂得籃球和足球軌跡不一樣,得分規(guī)則不一樣,它是畫不出來的。比如說籃球打到籃板上會反彈不會穿過去,但籃球打到籃筐里就會垂直的落下來,籃球在地上會彈起。這些知識如果Sora不掌握,你可以想象一個人如果都沒有看過,沒有把這個常識總結(jié)下來,他要把它復現(xiàn)出來幾乎是很困難的。

我通過這個例子來講,為什么Sora讓人離AGI又近了一步呢?GPT實際上是解決了機器和人之間相互理解和交互的問題,因為它理解了語言。理解了語言的時候,楊樂坤就曾經(jīng)攻擊,說它不理解,它只是會填空。但實際上,一旦把人的語言理解了就意味著是非常大的進步,因為語言是人類所獨有的發(fā)明的東西,人類用語言可以描繪邏輯,人類用語言可以描繪這個世界的模型,人類可以用語言來描繪人類積累的知識。所以一旦把語言理解了,就意味著AGI的第一個難關(guān)就攻克了。

但是光是能說話了,智能是沒有太大用處的。因為它對這個世界的很多規(guī)律并不知道,比如你弄個機器人,想讓機器人到冰箱里拿個西紅柿炒雞蛋,你發(fā)現(xiàn)訓練起來就很難。因為它要知道西紅柿是硬的摔不破,雞蛋一摔就會摔破,他要知道怎么磕雞蛋,這些知識靠文本知識是不夠的,必須要像我們?nèi)祟愐粯右娺^之后才能知道。所以,這次Sora等于有意無意,我個人覺得對OpenAI來說可能也是無意中做出來的,大力出奇跡之后他發(fā)現(xiàn)說,他實際上通過Sora的訓練方法讓機器能夠跟世界互動了。

最后他利用Diffusion模型只是把他要做的視頻做出來,但前面它一定是在Transformer模型里把這個世界的一些規(guī)律給理解了,我不知道大家理解這個意思嗎?因為我做過一個比較,一個畫面一只貓早上去撓主人要吃的,那個主人在床上翻身,你們看過那個嗎?你們可能光注意貓和主人了,沒注意那個枕頭。你知道那個主人在枕頭上一翻身,枕頭被壓皺了,枕頭柔軟的感覺。這個如果用計算機特效來做,這絕對是一個噩夢,你用什么函數(shù)來描述這個枕頭的塌陷,來描述這個枕頭的皺紋,大家就會做的不像真的。但是Sora有限的算力,它一定是看過床和被子、枕頭類似的這種感覺,所以它把這種感覺能夠重繪出來。所以,我覺得這是Sora最了不起的地方。

為啥我說它最后真正的貢獻是給通用機器人和自動駕駛呢?你讓通用機器人和自動駕駛有了對真實世界這種交互和感知的能力,你對這個世界的理解就比理解語言又更近了一步。

所以,這次Sora在AGI上的突破,從人類的角度來說,是了不起的突破。

問:對于中國來說,2024年,有沒有其他的一些獨特、值得拓展的優(yōu)勢?您怎么看待今年中國在 AI 方向的前景?

周總:我覺得中國還是有優(yōu)勢的。盡管大家現(xiàn)在言論一邊倒,老是認為,因為在原創(chuàng)技術(shù)上我們落后,它是一個客觀事實。但是,這個落后,唯一樂觀的這個落后不像光刻機和芯片差距那么大。畢竟Transformer模型也好,Sora也好本質(zhì)上還是軟件,所以,現(xiàn)在這個落后的時間,我覺得大概也就是一年到兩年的時間,是可以去解決的。

但是,另一方面,你不需要等到全面趕上GPT-4,全面趕上Sora,我們才能去應(yīng)用。所以,現(xiàn)在有一條主線是做Sora和GPT4這種超級通用的大模型。這是一條主線。2022年、2023年中國追趕的還不錯,用了不到一年的時間趕上GPT-3.5了,我覺得還是OK的。

2024年,我覺得應(yīng)該是應(yīng)用之年。否則大家對GPT會有啥感覺?就是能寫詩,能斗樂子,能解奧數(shù)題,但離工作還太遠;蛘吣茉谵k公方面幫我們做一些工作。Sora大家震撼多點,是因為Sora比GPT更近一步,大家明顯感覺短視頻產(chǎn)生在影視工業(yè)、游戲行業(yè)、廣告業(yè)能夠做點具體的事了,但依然是一個通用的工具。我覺得2024年,除了這兩件事之外,2024年在企業(yè)方面在垂直領(lǐng)域,大模型是大有可為的。

大模型本來要真正產(chǎn)生一場工業(yè)革命,大模型一定要進入到百行千業(yè),跟很多企業(yè)的業(yè)務(wù)流程或者產(chǎn)品功能相結(jié)合。我們泛泛地講做一個通用大模型超過GPT4,真的超過GPT4是比較難的,但是GPT4是一個全才生,啥都懂,但是它不專。但如果我在某一個業(yè)務(wù)領(lǐng)域有獨特的業(yè)務(wù)數(shù)據(jù),我就此在一個垂直領(lǐng)域把大模型訓練的很好,而且把大模型和企業(yè)的很多業(yè)務(wù)工具結(jié)合在一起。就像大模型不僅有腦子,而且有獨特的知識,還有手跟腳,那么,我覺得在一些垂直領(lǐng)域大模型的能力,一方面能超過GPT4是完全有可能的。而且做垂直的模型,我也很贊同一個觀點,它不需要做千億、萬億的模型,它只要做百億的模型,這樣對很多企業(yè)承擔的成本來說也沒問題。

如果你做企業(yè),按照我的一個預(yù)言,大模型無處不在,企業(yè)里面將來不會只有一個超級大模型,企業(yè)里面會有多個小規(guī)模的、百億級的大模型,每個大模型就干一個場景的加強工作。這個大模型再跟企業(yè)的業(yè)務(wù)平臺結(jié)合起來,按這種模式,對現(xiàn)在很多企業(yè)來說大模型完全用得起,而且可以用得很好。

所以,我們(360公司)在網(wǎng)絡(luò)安全方面做一個安全的垂直大模型,用的是百億的模型訓練的。因為360有兩個優(yōu)勢,一是我有很多安全工具,等于用這些工具的能力給它實現(xiàn)了能力的增強。大模型不能只動嘴,不能只思考,它還要有手和腳。還有我們有很多專家積累的知識,360安全大數(shù)據(jù)積累的知識,我們把這些知識全都灌到大模型里去,現(xiàn)在這些大模型已經(jīng)完全取代了360的安全大腦,現(xiàn)在在用戶那里試用,碰到APT攻擊已經(jīng)能夠自動發(fā)現(xiàn)、自動處置、自動給用戶出報告。在這一件事發(fā)現(xiàn)APT這件事上,我可以驕傲地說我們超越了GPT4,當然你別跟人家比全面能力。

所以,我是覺得,2024年無論在To c、To B都應(yīng)該出來一個具體的場景。

問:我想問一下,在文生視頻后,視頻生文離我們還有多遠?

周總:這個問題問得有意思。文生視頻是最難的,文生視頻的過程中,必須有視頻生文的技術(shù)做支撐。所以,在這次Sora的技術(shù)報告里,它管這個技術(shù)caption,很多人把它翻譯成字幕技術(shù),就是視頻生文和圖生文的技術(shù)。OpenAI從Tiktok,包括從美國很多電影里搬了很多視頻片段來做訓練,光是給它看視頻沒有用,一定是要把視頻打上標簽,要注明,這里就需要用到圖和視頻生文的技術(shù),這個技術(shù)比較容易。

問:現(xiàn)在有越來越多的年輕人希望創(chuàng)立 AI 公司,那么您認為釋放技術(shù)最大潛力的方向在哪里?

周總:我簡單說,AI目前看有三個方向。一個方向是做大模型本身,這塊我不認為年輕創(chuàng)業(yè)者能做,要想做就應(yīng)該加入大廠去做,因為你沒有足夠的顯卡、沒有足夠的算力,沒有長期的投入,國外這些公司說白了現(xiàn)在微軟OpenAI一年都要賠上百億美金,投入是巨大的,顯然小創(chuàng)業(yè)公司肯定干不了,F(xiàn)在這些小創(chuàng)業(yè)公司,我也不點名,就算融到幾輪資,做了一個大模型出來又怎樣呢?因為現(xiàn)在免費大模型已經(jīng)把這個從原子彈變成了茶葉蛋了,大模型幾乎是免費的。所以,這條路我認為就是你說的,我不贊同他們走。

第二個,利用大模型的API在to C場景找一些應(yīng)用,相當于用別人的,用百度、用360、用阿里的大模型做后臺,大模型相當于是一個agent,給我提供能力的支撐,我找一些用戶場景,這條路是比較可行的。但這個不是簡單的套殼,套殼是你做得跟GPT、跟Sora、跟Stable diffusion做的差不多,這種套殼是沒有價值的,只要大模型廠商哪天一升級套殼的東西就會死一批。比如說我舉個例子,Sora出來了,是不是做文生視頻就沒有價值了,不是的。Sora只能做一分鐘,但是你要做十分鐘的話,比如你是不是需要有一個工程的管理,讓它幫你把十分鐘的東西調(diào)Sora做出來十段視頻,最后你要把十段視頻連在一起,你要配音,你要加字幕,有些地方是Sora的結(jié)果,有些地方是配上你自己拍的視頻。只要你找到用戶的場景,你后面可以調(diào)各種人工智能的強大的API的支撐,你還是能夠做出應(yīng)用級別,不要老是在核心技術(shù)上說我要去跟Sora去。所以,最近Pika說準備轉(zhuǎn)型,如果它轉(zhuǎn)型成功,它的人機界面比Sora更友好,它在Sora之上能夠提供更復雜的視頻剪輯能力都是有機會的。

第三,我剛才反復說了好幾遍的,從目前來看GPT真正的作用還是在提高生產(chǎn)力,在中國國家也在支持更多的企業(yè)做數(shù)字化,所以大模型進企業(yè),而且用百億的這種規(guī)模非常低的成本進企業(yè)是完全可行的,而且企業(yè)里面只要你不貪多貪大,說我給你做一個什么很宏大的大模型,而是選一個比較具體而微的場景解決問題,那么它超過GPT4的可能性是非常大的。但這里面就需要放下身段,因為這時候用什么場景、用什么業(yè)務(wù)一定要找到某些行業(yè)、某些專業(yè)的這種垂直業(yè)務(wù)的公司,要跟他們合作。這時候有點像你做乙方別人做甲方,對很多創(chuàng)業(yè)者來說是巨大的挑戰(zhàn),因為創(chuàng)業(yè)者有時候比較牛比較自我,可能不一定聽得進別人的意見,他覺得我懂核心技術(shù),但你要把核心技術(shù)用到很多傳統(tǒng)企業(yè)里,在業(yè)務(wù)上確實要聽這種傳統(tǒng)企業(yè)的調(diào)度。

問:大模型現(xiàn)在難在哪里?

周總:第一,這個方向出來之后,國外也有兩條路線的斗爭,一條是以O(shè)penAI的閉源,還有一條是以META為代表的開源,所以,開源的路線,開源的目標要打過閉源,他們會不斷的去猜測閉源怎么做,會把很多東西開源出來。開源出來的好處是天底下有很多好公司還有很多大公司程序員個人會積極的在開源項目里,大家都踩著別人的基礎(chǔ)上貢獻成果,所以它的化學作用會非常明顯。我現(xiàn)在猜測,最近在國內(nèi)我找了一些大學,包括昨天回來的時候和清華的張亞勤教授,他原來是微軟中國的頭,也在百度當過總裁,現(xiàn)在到了清華當我的老師去了,我現(xiàn)在不是在清華念書,所以也跟他聊了聊,現(xiàn)在很多的技術(shù)里面用到了那些模型和算法應(yīng)該都是公開的,實際上OpenAI最大的能力一個是找方向,一個是工程化思路非常嚴謹,現(xiàn)在就是要把這個工程化的思路探索出來。所以,大家前面學GPT的過程中,也是方向已經(jīng)確定了,往東走毫無疑問一定能走通,但具體碰到一個檻怎么過,碰到一個山怎么翻,它也有很多具體的坑要踩,有很多具體的方法要驗證,所以這個需要時間。

第二,我的猜測對算力可能會是一個檻節(jié)。網(wǎng)上有些言論也不對,網(wǎng)上說Sora的參數(shù)不大,只有30億參數(shù),這個人弄錯一個概念,視頻的參數(shù)和文本的參數(shù)不能簡單做對比,就像文本我有十萬字,視頻只有640×480,但是它兩個占的存儲量完全不在一個數(shù)量級上,所以,第一它不僅有30億參數(shù),第二就算只有30億參數(shù),視頻分析對算力的消耗應(yīng)該是遠遠超過做一個千億模型。所以,我覺得現(xiàn)在國內(nèi)的顯卡都被卡脖子之后,可能算力是一個問題。所以,包括GPT,包括Sora為什么只能做一分鐘,我在猜測,因為它和4秒、6秒有本質(zhì)的差別,4秒和6秒是因為全部用像素生成,沒有世界的知識之外,4秒、6秒之后的圖怎么樣就想不出來了。所以,Sora能解決一分鐘,意味著它也能做十分鐘,也能做六十分鐘,但它為啥不做?我覺得也是由于算力的限制,還有成本的限制。

所以,對國內(nèi)來講,下面如何能夠把算力集中起來。

為啥我反復做科普,Sora如果僅僅是一個文生視頻的工具,我們落后就落后了,不就我們廣告落后點,不就我們電影拍得慢一點嘛,這些落后都不會給大國競爭帶來問題,不就對娛樂業(yè)帶來影響。但實際上這件事預(yù)示著AGI的一個關(guān)鍵節(jié)點,所以,這件事對國家是挺重要的。

問:對于大模型的紅利期,您的判斷何時能出現(xiàn)?

周總:我認為大模型的紅利還沒開始,現(xiàn)在唯一能賺錢的就是英偉達,國外最掙錢的是英偉達,除了英偉達之后國外包括微軟也不掙錢,微軟每年在賠錢,OpenAI也在賠錢,所以還沒有進入到紅利期。我估計亞馬遜會掙錢,云廠商和硬件廠商肯定率先掙錢,但是我覺得如果能場景化了,2023年、2024年在一些場景化上可能能夠看到這種掙錢的機會,所以,大模型的紅利,這是一場工業(yè)革命級別的革命,未來的紅利期至少有十年以上。

這個紅利會非常長,至少十年,現(xiàn)在大家還沒賺到錢,除了英偉達賺到錢了,大家還沒人賺到錢,這表示剛剛開始,如果每個人都賺了很多錢了,就跟今天互聯(lián)網(wǎng)公司很賺錢一樣,這個行業(yè)就已經(jīng)成熟了。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港