展會信息港展會大全

chatGPT 和AlphaGo下圍棋,誰贏?垂域大模型有戲么?
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-07-14 14:31:48   瀏覽:11405次  

導(dǎo)讀:圖片來源@視覺中國 文 | 李智勇 上一篇提到最終大模型的格局很可能是有一個偏通用大模型,比如chatGPT,它會顛覆現(xiàn)有信息集散的基本格局,同時還會有很多面對垂域的大模型,每一個都會像是一個個成功了的沃森(AI大模型沒有商業(yè)模式?)。但沒說為什么這么認...

圖片來源@視覺中國

文 | 李智勇

上一篇提到最終大模型的格局很可能是有一個偏通用大模型,比如chatGPT,它會顛覆現(xiàn)有信息集散的基本格局,同時還會有很多面對垂域的大模型,每一個都會像是一個個成功了的沃森(AI大模型沒有商業(yè)模式?)。但沒說為什么這么認為,這篇首先講這個;卮疬@個問題首先要回到一個類似關(guān)公戰(zhàn)秦瓊的問題:chatGPT如果去下圍棋能干過AlphaGo么?

chatGPT 和AlphaGo下圍棋,誰贏?

估計沒人會不同意人工智能行業(yè)十幾年來讓人印象最深的兩個標志性事件是:2016年AlphaGo戰(zhàn)敗李世石和柯潔和2022年chatGPT展現(xiàn)通用智能能力。

而很有趣的事情在于這兩次突破正好一個對應(yīng)于垂直領(lǐng)域(AlphaGo),一個對應(yīng)于相對通用的領(lǐng)域(chatGPT)。

從訓(xùn)練方式上看AlphaGo做到了自己就是數(shù)據(jù)源,這意味著經(jīng)常說的數(shù)據(jù)飛輪效應(yīng)對AlphaGo在后期變成內(nèi)置的了。升級到后面的版本(AlphaGo Zero)的時候已經(jīng)不再使用人類的棋譜,而是自己和自己玩,然后結(jié)果非?膳,大概下面這樣:

21天AlphaGo Zero通過自己對戰(zhàn)自己達到戰(zhàn)敗自己哥哥AlphaGo Master的水平。典型的人工智能自己驅(qū)動數(shù)據(jù)飛輪,誰也不靠。

這對判斷誰贏有什么幫助呢?其實這非常關(guān)鍵。

判斷誰贏,純靠技術(shù)是不行的,因為過去十年最大的經(jīng)驗就是如果從技術(shù)角度對未知領(lǐng)域進行判斷,那誰也判斷不準。所以我們換種模式。

AlphaGo相當于把一個邊界足夠清楚的事走到頂了,經(jīng)歷了一個人工智能到頂?shù)娜^程。所以我們從中可以總結(jié)出一個人工智能到頂?shù)年P(guān)鍵階段:

這三個階段是:現(xiàn)有全量數(shù)據(jù)階段--自我數(shù)據(jù)生成階段--啟動數(shù)據(jù)→智能飛輪,領(lǐng)域高點。

在現(xiàn)有全量數(shù)據(jù)階段AlphaGo在學(xué)習(xí)人類的棋譜,在戰(zhàn)敗李世石后,它就進入自我數(shù)據(jù)生成階段,然后數(shù)據(jù)→智能飛輪啟動階段。

這是一種遞進的關(guān)系,全量數(shù)據(jù)意味著對場景描述已經(jīng)比較充分,人工智能可以比人的干好。只有過了這個階段,它才可能自己產(chǎn)生有價值的數(shù)據(jù),而一旦它可以自己產(chǎn)生有價值的數(shù)據(jù),那后續(xù)的進化就會非?臁

形成這種數(shù)據(jù)的閉環(huán)并不容易,領(lǐng)域越寬越難。

如果目標是處理真實世界的所有問題,那就得有一個能窮盡世界各種變量的元宇宙才行。這就是做垂直領(lǐng)域最核心的優(yōu)勢,只要選的比較好,那就有可能更快的到達類似“AlphaGo”的圍棋之神的境界。

回到我們最初的問題:即使沒下過,GPT4論下圍棋也肯定不如AlphaGo,AlphaGo已經(jīng)通過數(shù)據(jù)飛輪達到領(lǐng)域高點,GPT4相當于剛會下,大致等于專業(yè)拳擊手對小朋友。

這個結(jié)論其實非常關(guān)鍵,這既能回答垂直領(lǐng)域大模型是否能夠存在,還能回答垂直領(lǐng)域大模型的基礎(chǔ)戰(zhàn)略到底應(yīng)該是什么樣。

但要想真的做垂直領(lǐng)域大模型,還需要考慮的問題是解決垂直領(lǐng)域問題除了大模型還要什么,大模型到底在其中占多少權(quán)重。是大模型往那兒一擺,垂直領(lǐng)域的問題就解決了么?還是說會有更關(guān)鍵的決定性因素?

大模型在"沃森"類系統(tǒng)中的權(quán)重

郭士納之后IBM好像徹底變成了個只會賺錢的公司,創(chuàng)新的業(yè)務(wù)比如IBM Watson總是給我們一些負面的消息。但這個時候不能忽視的恰恰是它,因為它落過地,也許技術(shù)沒行,但對場景的總結(jié)和描述一定就是大模型也需要解決的問題。

成功的案例可能會更耀眼,但失敗的案例往往可以讓我們學(xué)到更多。(考慮chatGPT 2022年底才出來,我們實在也找不到更好的成功的案例。)

沃森的產(chǎn)品架構(gòu)大概這樣:

現(xiàn)在代表Watson那個球完全可以替換成大模型,然后你就會發(fā)現(xiàn)其它的部分未來再做落地的時候一個要少不了,還可能需要增加。

我們來簡單翻譯下上圖的各種輸入,沃森作為一個輔助診療的系統(tǒng),它第一個需要的是關(guān)于病人當前癥狀的數(shù)據(jù)比如X光等,而病人的數(shù)據(jù)有可能是不完整的所以它可能會主動激發(fā)一些問題,讓病人進行回答,讓它能夠形成判斷,最后病人的基因數(shù)據(jù)也需要作為一個關(guān)鍵數(shù)據(jù)提供給它。

除了病人的數(shù)據(jù)外,它還需要具備這個領(lǐng)域相關(guān)的知識,比如那些診療方法是不被允許的,過往類似的病情都是如何處理的,新藥等。這就是上圖右側(cè)的部分。

這個表述比較形象,但會有點雜亂,不利于推測后續(xù)垂直領(lǐng)域大模型的關(guān)鍵點,所以我們換個視角對此進行再分類,這就可以更清晰的看到垂域大模型所對應(yīng)的系統(tǒng)構(gòu)成。

需要最終面對對象(也就是患者)的全量數(shù)據(jù)。全量數(shù)據(jù)包括:當前這個時間點的數(shù)據(jù)(當前病癥)、歷史數(shù)據(jù)(病例)、基礎(chǔ)特質(zhì)(基因)。這其中當前數(shù)據(jù)有可能需要在時間和空間上都需要進行展開,時間上的展開比如24小時心電圖,空間的展開比如傳染病的時候你的行動軌跡等。這代表了對象的充分數(shù)字化。

垂直域的大模型自身必須是一個活的專家。也就是說它的領(lǐng)域知識不止要全量還要是活的,所以不管是行業(yè)規(guī)則還是最新研究成果都要形成有機的聯(lián)動。這里面規(guī)則可能更關(guān)鍵,因為它需要立刻生效。

這兩部分數(shù)據(jù)的獲取會導(dǎo)致所有AIoT的相關(guān)部分全需要被挪過來,你需要大規(guī)模管理設(shè)備(對接醫(yī)療設(shè)備等),需要云原生,需要數(shù)據(jù)庫,需要內(nèi)容審核和對接等。大模型相當于在原來的基礎(chǔ)上強化了腦袋,并不是把一切推翻重來。

在這個過程中大模型提供了構(gòu)建有價值的認知類系統(tǒng)的機會,但在最終成型的認知系統(tǒng)重遠不是全部,從創(chuàng)造價值所占的權(quán)重的角度看也許只有30%。這看似有點矛盾,但可以拿移動互聯(lián)網(wǎng)做類比,沒有Android和iOS就沒有移動互聯(lián)網(wǎng),但如果把移動互聯(lián)網(wǎng)看成一個整體,從創(chuàng)造價值的角度看,他們的權(quán)重也許就不到1%。

這是從沃森這樣系統(tǒng)中可以直接看到或者聯(lián)想到的部分。

那數(shù)據(jù)飛輪在那兒呢?答案是一時半會這類系統(tǒng)不會有數(shù)據(jù)飛輪。

人以及病例畢竟不是棋譜可以人工智能自動生成。按照我們:現(xiàn)有全量數(shù)據(jù)階段--自我數(shù)據(jù)生成階段--數(shù)據(jù)→智能飛輪,領(lǐng)域智能高點的階段劃分,這好像完全到不了自我數(shù)據(jù)生成階段,因為在漫長的時間里人是不能充分量化的,新的創(chuàng)造也是會實時發(fā)生的。也就是說沃森這種系統(tǒng)會長期處在第一個階段。

這也幫我們引出垂直領(lǐng)域大模型相關(guān)的第三個話題:不是所有垂域都有數(shù)據(jù)飛輪效應(yīng)。萬物皆數(shù)的程度和數(shù)據(jù)飛輪效應(yīng)正相關(guān)。

萬物皆數(shù)與數(shù)據(jù)飛輪

像圍棋這種領(lǐng)域數(shù)字化的成本極低,因為本質(zhì)上這是一個數(shù)字空間的游戲。純粹數(shù)字空間的事其實不多,雖然過去都產(chǎn)生比較大的影響,比如搜索、社交網(wǎng)絡(luò)、IM等。

到電商和O2O的時候數(shù)字化的成本就變關(guān)鍵了,必須有一個簡單的方法能夠讓物理的商品或者外賣小哥能充分數(shù)字化,然后才能獲得數(shù)字和算法所帶來的紅利。

大模型的作用域和后者類似,都是需要走出純粹的數(shù)字空間。

這樣一來萬物皆數(shù)反倒是更關(guān)鍵。就像沒有米飯做的再好也沒意義一樣。當大模型離開了純粹的數(shù)字空間(chatGPT在這里)一樣要走過O2O的歷程,否則你就沒法解決現(xiàn)實問題。在這里感知和認知需要無縫的融合。

這是完全不一樣的游戲規(guī)則,這個環(huán)節(jié)最關(guān)鍵的反倒是傳感器,傳感器的小尺寸和成本大幅下降,讓物理世界的數(shù)字化成為可能。但它的部署很麻煩,每一個場景的數(shù)字化的成本估計和大模型的研發(fā)是類似的。同時他們倆又是雙生的。

這類場景確實還會進一步細分,一部分更貼近數(shù)據(jù)飛輪效應(yīng),一部分則相去甚遠。比如同樣牽涉人,但教育應(yīng)該就比醫(yī)療更好做,稅務(wù)就比戰(zhàn)爭好做。

所以大模型落地的順序大致會是:純粹的數(shù)字領(lǐng)域,比較低成本可以做到萬物皆數(shù)的領(lǐng)域,高成本但還是可以做到萬物皆數(shù)的領(lǐng)域。

下面這個是純粹猜測,數(shù)據(jù)→智能飛輪,領(lǐng)域智能高點這個階段里可能算力需求會下降。這只是一個觀察,非技術(shù)性的結(jié)論。

計算成本的考量

在能力增加的時候AlphaGo所需的算力是下降的

https://www.deepmind.com/blog/alphago-zero-starting-from-scratch

顯然的GPT還在繼續(xù)放大的路上,從最新透漏出來的消息看,GPT-4在120層中總共包含了1.8萬億參數(shù),而GPT-3只有約1750億個參數(shù)。按照這趨勢GPT5不太可能變小,還是變的更大。

這也許是因為問題域太大,而限定邊界的話就可能可以更早的進入優(yōu)化階段。AI未必不能優(yōu)化自己。

相信什么樣的回答就有什么樣的選擇

上面說了很多觀點,每個上的判斷和選擇都影響未來幾年大模型的真正走勢。

關(guān)鍵是這只是看著能行,沒人能給準確判斷。這就變成了一個相信的問題。相信什么就有什么樣的選擇,而什么樣的選擇就會有什么樣的結(jié)果。我們來對此做個簡單總結(jié):

相信通用大模型不能覆蓋垂域大模型么?

相信這種三段劃分么?現(xiàn)有全量數(shù)據(jù)階段--自我數(shù)據(jù)生成階段--數(shù)據(jù)飛輪,領(lǐng)域智能高點

相信最終價值鏈條中大模型只創(chuàng)造30%么?

相信萬物皆數(shù)的成本和大模型本身其實一樣關(guān)鍵么?

從現(xiàn)在看未來的時候,這些關(guān)鍵節(jié)點上的判斷非常關(guān)鍵,會影響資源的投入。

OpenAI 首席科學(xué)家說的對:你先要選對,然后你的信念就是結(jié)果。

小結(jié)

從做事的角度看,純粹數(shù)字空間的大模型對絕大多數(shù)人而言機會幾乎為0,垂直領(lǐng)域大模型早期會加大虧損,但增加最終商業(yè)模式跑通的可能性。短期一定會出很多垂域大模型,因為下圍棋的話chatGPT總是干不過AlphaGo。長線看通用大模型和垂域大模型的競爭會一直都在,但如果通用大模型真的覆蓋每一個AlphaGo這樣的領(lǐng)域,那意味著什么呢?

贊助本站

人工智能實驗室

相關(guān)熱詞: chatGPT AlphaGo 圍棋 誰贏 垂域 大模型

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港