展會信息港展會大全

掰開揉碎告訴你,ChatGPT憑啥是人工智能“流量王”
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-05-29 19:29:10   瀏覽:6159次  

導讀:圖片來源@視覺中國 文 | 零點有數(shù)科技 從AI繪畫的出圈,到如今OpenAI公司的ChatGPT的火爆,人工智能發(fā)展史上一個新的里程碑驚現(xiàn)于世。 據(jù)公開資料報道, ChatGPT上線5天就獲得了100萬用戶,不到兩個月就突破1億月活用戶。 而此前,iPhone獲得100萬用戶的時間...

圖片來源@視覺中國

文 | 零點有數(shù)科技

從AI繪畫的出圈,到如今OpenAI公司的ChatGPT的火爆,人工智能發(fā)展史上一個新的里程碑驚現(xiàn)于世。

據(jù)公開資料報道,ChatGPT上線5天就獲得了100萬用戶,不到兩個月就突破1億月活用戶。而此前,iPhone獲得100萬用戶的時間為74天,TikTok實現(xiàn)1億月活用戶的時間為9個月?梢,ChatGPT的“吸粉”能力非同一般。

與此同時,ChatGPT也給資本市場掀起了一陣海浪。據(jù)公開媒體報道,微軟將在此前先后投資OpenAI公司30億美元的基礎(chǔ)上,再追加100億美元投資;谷歌將出資3億美元收購OpenAI公司前雇員的初創(chuàng)公司Anthropic的競品Claude;有美國版“今日頭條”之稱的BuzzFeed公司在官宣準備引入ChatGPT作為內(nèi)容生產(chǎn)工具后股價立即飆升……當國內(nèi)眾多公司宣布正在或準備入局ChatGPT的競品研發(fā)與應用時,國內(nèi)A股市場一陣狂歡。

與一般的面向客服QA問答和專業(yè)任務型智能聊天機器人不同,ChatGPT可以根據(jù)人們的“提示”進行詩歌創(chuàng)作、問題探討、報告撰寫、提綱設(shè)計、摘要歸納、論文寫作和代碼編寫,甚至可用于參加各類考試。因其面向開放領(lǐng)域、可連續(xù)式問答、良好的用戶體驗和看似無所不能的能力,火速成為政產(chǎn)學研等各領(lǐng)域各行業(yè)的街巷熱議,以至于微軟創(chuàng)始人比爾蓋茨把ChatGPT出現(xiàn)的意義與當年的PC和互聯(lián)網(wǎng)相提并論。

作為一款人工智能聊天機器人,ChatGPT何以能成為人工智能發(fā)展以來的“流量爆款”?它為人工智能之路昭示了出什么樣的方向,又帶給我們怎樣的啟發(fā)?本文將圍繞ChatGPT的出發(fā)點、生成式AI、人工智能算法框架技術(shù)演進、預訓練大模型PLM、人工智能內(nèi)容生成AIGC進行討論,希望給讀者以有益的啟發(fā)。

01出發(fā)點:ChatGPT的第一性原理思維

什么是第一性原理思維?

簡單來說就是回歸本質(zhì),再進行重構(gòu)。從第一性原理思維角度來看,就像PC、互聯(lián)網(wǎng)、智能手機、移動互聯(lián)網(wǎng)的演進路線一樣,人工智能只有走向通用人工智能AGI,才有可能成為人們工作和生活過程中不可或缺的一部分,也才會產(chǎn)生真正的變革。反過來,也才會促進與加速人工智能的發(fā)展,“人工智障”才有可能徹底改變。

如今,以人工智能技術(shù)、機器人技術(shù)、虛擬現(xiàn)實技術(shù)、量子信息技術(shù)、可控核聚變、清潔能源以及生物技術(shù)為突破口的第四次工業(yè)革命已經(jīng)到來,人類社會已進入到一個萬物互聯(lián)的智能時代,機器將具有感知、判斷和推理能力,將自行產(chǎn)生知識,從而增強和替代人類知識,將人從腦力勞動中解決出來。從第一性原理思維角度看,幾次工業(yè)革命演進的本質(zhì)是機器逐漸取代人力,包括體力和腦力,從而不斷提高社會生產(chǎn)效率和社會生產(chǎn)力,直到最終部分或全部取代人。

自上世紀50年代中期,人工智能的發(fā)展幾經(jīng)高漲與低落。最近十年,隨著大數(shù)據(jù)、云計算以及基于神經(jīng)網(wǎng)絡的深度學習的發(fā)展,特別是以2016年谷歌旗下DeepMind公司的阿爾法狗(AlphaGo)戰(zhàn)勝韓國圍棋九段棋手李世石事件為標志,人工智能又迎來一個突飛猛進的春天。圖像識別、人臉識別、視覺計算和自然語言處理等人工智能技術(shù)與產(chǎn)品如雨后春筍般涌現(xiàn),廣泛應用于智能客服、推薦系統(tǒng)、智能風控、智能診斷和異常檢測等各領(lǐng)域各行業(yè)。

然而,與這些通過預設(shè)的算法或訓練解決特定問題、只對某一方面有自動化專業(yè)能力的專用人工智能如火如荼的發(fā)展境遇不同,具有人類思維水平及心理結(jié)構(gòu)的全面性智能化的通用人工智能AGI一直未能有喜人的進步。“人工智障”一直是對此前專用人工智能發(fā)展的揶揄。

究其原因,主要有三:一是專用人工智能的應用仍然居“廟堂之高”,類似互聯(lián)網(wǎng)的早期,只是專業(yè)人士手中的“炫技”,未能飛尋常百姓手中;二是人機交互體驗不友好,往往需要一定的專業(yè)技能才能操作;三是固化的“智能”,迭代升級成本高昂,缺乏像人類一樣的自學習與思考。

人工智能只有走向通用人工智能AGI,才會產(chǎn)生真正的變革,促進與加速人工智能的發(fā)展。無疑,ChatGPT很好地把握了這一點。

首先,ChatGPT面向開放領(lǐng)域,不囿于某一專業(yè)領(lǐng)域,可進行詩歌創(chuàng)作、問題探討、報告撰寫、提綱設(shè)計、摘要歸納、論文寫作和代碼編寫,初步具有一定級別的人類思維水平,具有參加MBA、法律、醫(yī)學等各種專業(yè)考試能力,看似上知天文、下通地理、無所不能,類似“知識百科”。隨著應用的不斷深入以及不斷從人類反饋中學習,ChatGPT將不斷接近直至達到人類思維水平。正如OpenAI公司創(chuàng)始人兼首席執(zhí)行官山姆阿爾特(Sam Altman)在今年1月中旬接受《福布斯》采訪時表示:“AGI是驅(qū)動我所有行動的推動力”?梢,ChatGPT只是通往通用人工智能AGI之路的起點。

其次,ChatGPT很好地選擇了以自然語言作為人機交互界面,用戶只需輸入“提示”就能得到“答復”,而不需要操作鍵盤和鼠標(互聯(lián)網(wǎng)時代的PC)或觸控(移動互聯(lián)網(wǎng)時代的智能手機)。良好的用戶體驗極大地消除了產(chǎn)品與使用、機器與人之間的“數(shù)字鴻溝”,這便是科技的第一性原理思維。事實上,早在2016年的微軟全球開發(fā)者大會上,微軟就提出“對話即平臺”CAAP理念。智能時代,人機交互的媒介將是“對話”。

再次,與其他人工智能產(chǎn)品不同,“從人類反饋中強化學習”是ChatGPT獨一無二的創(chuàng)新。首先基于海量的語料數(shù)據(jù)預訓練出一個語言大模型(GPT-3.5),然后在此基礎(chǔ)上通過少量的人工標注數(shù)據(jù)對GPT-3.5進行監(jiān)督學習微調(diào)SFT;然后再用幾個SFT模型對無標注數(shù)據(jù)進行測試,并對多個答復按好壞程度進行排序并標注(不同模型會給出不同的“答復”),以此標注數(shù)據(jù)繼續(xù)訓練出一個“獎勵模型”RM(鼓勵模型給出盡可能跟用戶“提示”相匹配的答案,強化模型的一致性);最后通過獎勵模型RM制定一種稱之為“近端策略優(yōu)化” PPO的算法,以持續(xù)優(yōu)化模型參數(shù)。其原理示意圖如下圖1所示。

圖1ChatGPT的RLFH原理示意圖

“第一性原理”是一種思維方法,強調(diào)從事情最根本的真理入手,透過事物表象,一層層剝開事物,看到事物的本質(zhì)。然后再從最本質(zhì)處一層一層往外進行推理人工智能造福世人最根本的真理是通用人工智能AGI,而ChatGPT為通往通用人工智能AGI之路開啟了一道門。

02新范式:生成式AI(Generative AI)

如前文所言,作為一個產(chǎn)品,ChatGPT本質(zhì)上是一款人工智能聊天機器人。但與一般人工智能聊天機器人不同,ChatGPT走的是第四種技術(shù)路線,它是一種生成式模型。從應用的角度來看,人工智能AI可分為判別式/分析式AI和生成式AI,而ChatGPT屬于“生成式AI”。

人工智能聊天機器人的出現(xiàn)已有一段時間了,如亞馬遜的智能聊天機器人Alexa、蘋果公司的Siri、微軟的Cortana、谷歌的Allo及國內(nèi)其他眾多產(chǎn)品。

從技術(shù)路線來看,人工智能聊天機器人可分為四種:基于規(guī)則、基于檢索、基于語義解析和基于深度學習的生成模型。其中,基于規(guī)則的方法需要由專業(yè)人員編寫相應的人工規(guī)則;基于檢索的方法則需要事先根據(jù)先驗知識編制成對的

在生成式AI之前,我們耳熟能詳?shù)腁I應用如垃圾郵件識別、風控模型、智能推薦(短視頻、網(wǎng)購等)、人臉識別、異常檢測和自動駕駛等等,都屬于判別式/分析式AI應用。判別式/分析式AI是根據(jù)已有數(shù)據(jù)進行分析、判斷、預測,用于輔助決策。例如,如果我們要讓計算機從圖片中識別出狗,我們就先準備一批圖片中有狗的樣本圖片,并標注出一系列可以判斷圖片是狗的要素特征,如“翹起的耳朵”“渾身長毛”“有尾巴”等,然后選擇機器學習算法,如邏輯回歸、決策樹、樸素貝葉斯、神經(jīng)網(wǎng)絡等等,也可以是基于深度學習的卷積神經(jīng)網(wǎng)絡算法CNN或其他,讓計算機對這些樣本數(shù)據(jù)進行學習,從中摸索出足以判斷某個圖形是狗的規(guī)律,以此得到一個判別模型。日后就可以用此判別模型來判斷新的圖片中是否有狗。

而生成式AI更強調(diào)學習歸納后進行演繹創(chuàng)造,生成全新的內(nèi)容。其背后的技術(shù)基礎(chǔ)來源于一種稱為“生成式對抗網(wǎng)絡”GAN的思想原理。

生成式對抗網(wǎng)絡GAN也是一種深度學習模型,由著名的深度學習理論專家伊恩古德費洛(Ian J. Goodfellow)于2014年提出。一個GAN是由一個生成模型G和一個判別模型D構(gòu)成。生成模型捕捉真實數(shù)據(jù)樣本的潛在分布,并由潛在分布生成新的數(shù)據(jù)樣本;判別模型是一個二分類器,判別輸入是真實數(shù)據(jù)還是生成的樣本。這兩個模型交替訓練,即生成模型不斷學習生成更逼真的數(shù)據(jù),判別模型則不斷區(qū)分假數(shù)據(jù)和真實數(shù)據(jù)。直至判別模型已經(jīng)無法判別是真還是假,生成模型G便形成。如下圖2所示。

圖2 GAN原理圖

ChatGPT采用這一概念,并將其應用于基本文本的對話,以及創(chuàng)造軟件代碼。它使用GAN生成對輸入文本的響應,使其能夠與人類進行聽起來自然的話,讓它的回答表現(xiàn)得更像一個人。

2021知名調(diào)查機構(gòu)Gartner在2021年高德納IT博覽會上,發(fā)布2022年需要探索的十二大重要戰(zhàn)略技術(shù)趨勢。其中,生成式AI位列其中。由于生成式AI能從數(shù)據(jù)中學習內(nèi)容或?qū)ο,并運用數(shù)據(jù)生成全新的、完全原創(chuàng)的、逼真的設(shè)備,本質(zhì)上是對生產(chǎn)力的大幅度提升和創(chuàng)造。至目前,生成式AI已催生了營銷、設(shè)計、建筑和內(nèi)容領(lǐng)域的創(chuàng)造性工作,并開始在生命科學、醫(yī)療、制造、材料科學、媒體、娛樂、汽車和航空航天等行業(yè)領(lǐng)域進行初步應用。

從判別式/分析式AI向生成式AI演變,已成了AI開發(fā)的新范式。

03新驅(qū)動:注意力機制

自然語言處理中常用的一種通用算法框架是編碼器-解碼器網(wǎng)絡。其中,編碼器是將輸入序列“編碼”為一個輸出(向量C),解碼器是將該輸出(向量C)作為輸入“解碼”為一個輸出序列。在這個框架下可以使用不同的算法來解決不同的任務,它們也被應用于摘要和圖像說明生成任務。如下圖3所示。

圖3 編碼器-解碼器網(wǎng)絡示意圖

傳統(tǒng)上,編碼器-解碼器網(wǎng)絡用得比較多的是循環(huán)神經(jīng)網(wǎng)絡RNN通常是其變種:長短時記憶網(wǎng)絡LSTM或是門控循環(huán)單元GRU。不過,基于循環(huán)神經(jīng)網(wǎng)絡RNN的編碼器解碼器網(wǎng)絡存在三個特點:一是要求輸入序列和輸出序列要等長,二是不論輸入和輸出的長度是什么,中間的“向量C”的長度都是固定的,三是從序列輸入到序列輸出是“串行”模式,模型訓練效率低。這三個特點對于生成式預訓練大模型建模是缺陷。

例如,對于語言翻譯任務,如將“早上好”翻譯為“Good Morning”,輸入序列長度為3,輸出序列長度為2,顯然第一特點存在缺陷。中間向量C的固定長度對于長序列任務會存在“信息丟失”問題,串行模式導致訓練效率低下。

為適應輸入序列和輸出序列不等長的任務需求,序列對序列模型Seq2Seq應運而生。如字面意思,這種結(jié)構(gòu)最重要的地方在于輸入序列和輸出序列的長度是可變的,如輸入序列長度為3(“早上好”),輸出序列長度為2(“Good Morning”)。不過,Seq2Seq仍然存在中間向量C的長度固定和串行模式兩個缺陷。

直到2017年,谷歌發(fā)表“Attention is All You Need”的論文,提出將“Attention”(注意力機制)應用到Seq2Seq中,形成一種新的算法框架“Transformer”(變換器),不再將整個輸入序列編碼為固定長度的中間向量C,而是編碼成一個向量的序列(向量C1,向量C2,……,向量Cn),同時采用于并行模式取代串行模式,從而改進了“信息丟失”和“效率低下”這兩個缺陷,參見下圖4。

圖4 注意力機制原理示意圖

從此,Transformer作為一種新的編碼器-解碼器通用算法框架驅(qū)動著各種預訓練大模型如雨后春筍般涌現(xiàn),如下圖5所示。ChatGPT也由此而來。

圖5 基于Transformer的各種預訓練大模型

04新模式:預訓練大模型

人工智能包括三要素:數(shù)據(jù)、算法和算力,三者的共同作用驅(qū)動了人工智能算法模型的開發(fā)與應用。整體上看,人工智能算法模型的開發(fā)模式可分為兩個階段。第一階段是針對特定任務的“小模型”階段。2017年,Transformer的出現(xiàn),驅(qū)動著人工智能算法模型進入預訓練“大模型”階段。

所謂“小模型”,是指模型構(gòu)建時往往針對一個特定任務,用于訓練的數(shù)據(jù)量和模型的參數(shù)量相對較少,解決任務的能力往往囿于特定任務場景,而對于不同場景的同類任務的泛化應用能力相對較弱,即復用性較差。同時,由于每一次模型的開發(fā)都涉及數(shù)據(jù)采集、數(shù)據(jù)處理、數(shù)據(jù)標注、模型訓練、模型部署、數(shù)據(jù)更新、模型調(diào)優(yōu)等全流程環(huán)節(jié),因此,開發(fā)效率低,開發(fā)和運維成本高。

而預訓練“大模型”,是指最開始時并不針對某一個特定任務,而是在更為廣泛的通用原始數(shù)據(jù)(無需進行人工標注)上進行無監(jiān)督學習,得到一個通用基礎(chǔ)模型。應用過程中,再針對特定任務,通過適當少量的人工標注數(shù)據(jù)進行有監(jiān)督學習,即微調(diào),以得到解決特定任務的算法模型。同時,通過各類任務的應用反饋再迭代升級基礎(chǔ)通用模型,進一步增強模型的魯棒性和泛化應用能力。如下圖6所示。

附6預訓練大模型+微調(diào)示意圖

相比小模型,預訓練大模型有助于用工程化、通用化思維開發(fā)算法模型,從而極大地提高了人工智能算法模型的開發(fā)效率。不同于小模型的碎片化,大模型各特定任務之間可通過基礎(chǔ)通用模型進行連接。同時,預訓練大模型的開發(fā)、部署和維護成本要低得多。

預訓練大模型的發(fā)展趨勢主要在三個維度:數(shù)據(jù)量越來越大(從GB級向TB級躍遷、從結(jié)構(gòu)化數(shù)據(jù)為向結(jié)構(gòu)化和非結(jié)構(gòu)化多源數(shù)據(jù)為主轉(zhuǎn)變)、模型參數(shù)越來越多(千億級和萬億級)、從單任務單模態(tài)(或文本或圖像或音頻或視頻)向多任務多模態(tài)(文本、圖像、音頻和視頻)轉(zhuǎn)變。

ChatGPT是基于GPT-3.5這個預訓練大模型并結(jié)合“從人類反饋進行強化學習”(RLHF)方法進行微調(diào)而來。根據(jù)公開資料報道,ChatGPT的模型參數(shù)量達到1750億,預訓練數(shù)據(jù)量達到45TB。訓練素材來自2/3的互聯(lián)網(wǎng)內(nèi)容,包括維基百科的600多萬篇文章和世界幾個大博物館的所有藏書。這些素材包含了人類幾千年來所積攢的絕大部分知識,以此為基礎(chǔ),ChatGPT成功地構(gòu)建起了強大的知識體系。也正因此,它逐步開始能夠勝任各種人類工作。

預訓練大模型的出現(xiàn),將重塑人工智能算法生態(tài)鏈。基礎(chǔ)設(shè)施即人工智能計算中心(也稱“智算中心”)、預訓練大模型和算法API調(diào)用與應用開發(fā)將成為新的人工智能算法生態(tài)鏈中極為重要的三個層面。以國內(nèi)為例,目前,作為基礎(chǔ)設(shè)施層的智算中心建設(shè)正在各地如火如荼地開展;預訓練大模型方面,以阿里(M6大模型)、華為(盤古大模型)、百度(文心大模型)和騰訊(混元大模型)為代表的國內(nèi)眾多企業(yè)都在紛紛入局;而調(diào)用接口APT進行應用開發(fā)將有助于促進許多中小企業(yè)、初創(chuàng)公司快速展開垂直行業(yè)應用。新的人工智能算法生態(tài)鏈將加速推進人工智能算法的產(chǎn)業(yè)化進程。

05新變革:AIGC將成為新的內(nèi)容生產(chǎn)者

如前文所述,ChatGPT具有寫詩、作詞、撰文、寫作報告、總結(jié)摘要、設(shè)計提綱,甚至包括撰寫軟件代碼等能力。通過對人類“提示”的理解,可以生成用戶想要的“文字”材料,即“文本生成文本”。

無獨有偶,“文本生成圖像”也是過去一年人工智能領(lǐng)域一個現(xiàn)象級的技術(shù)創(chuàng)新與應用。其標志性事件是2022年8月份,一幅基于人工智能軟件平臺Midjourney生成的“太空歌劇院”的AI繪畫榮獲美國科羅拉多州藝術(shù)博覽會頭獎。另外,谷歌公司的“文本生成音頻”產(chǎn)品MusicLM也正在粉墨登常而在“文本生成視頻”方面,谷歌的Phenaki和Imagen Video、Meta的Make-A-Video、百度的智能視頻合成平臺VidPress等文生視頻模型都在紛紛走向臺前。

最為震撼的當屬谷歌旗下的DeepMind公司的人工智能產(chǎn)品AlphaFold,它能通過內(nèi)容生成預測并繪畫蛋白質(zhì)的折疊結(jié)構(gòu)。也因如此,“人工智能內(nèi)容生成”AIGC被《科學》雜志評為2022年十大技術(shù)突破之一。

人類文明發(fā)展史,實際上是一部知識內(nèi)容生成不斷發(fā)展的歷史。自1946年第一臺電子管計算機的問世,到1958年第一臺晶體管計算機的誕生,再到后來大規(guī)模和超大規(guī)模集成電路的出現(xiàn),計算技術(shù)一直在摩爾定律的驅(qū)動下,促進人類知識內(nèi)容生成的指數(shù)級增長。歷經(jīng)PC互聯(lián)和移動互聯(lián),當今正進入萬物互聯(lián)時代,人類知識內(nèi)容的生成與增長進入了一個前所未有的新階段。數(shù)據(jù)攜帶信息,信息蘊含知識。據(jù)公開資料報道,從2016年至2020年五年的時間,全球數(shù)據(jù)增長量將比過去幾千年人類所積累的數(shù)據(jù)的總和還要多。

從內(nèi)容生成的發(fā)展階段來看:可以劃分為專家生成內(nèi)容(如電視、電影和游戲等)、用戶生成內(nèi)容(如微信微博、開源社區(qū)、短視頻等)、AI 輔助生產(chǎn)內(nèi)容及 AI 生成內(nèi)容。其中,PGC 模式下,內(nèi)容生產(chǎn)和變現(xiàn)的權(quán)力掌握在少數(shù)人手中,集中程度更高,因此PGC 難以滿足大規(guī)模的內(nèi)容生產(chǎn)需求,即存在產(chǎn)能限制;而UGC模式由于生產(chǎn)者可為用戶本身,因此突破了產(chǎn)能限制,但由于生產(chǎn)門檻相對較低,個性化和多樣化需求繁榮,因此難以保證內(nèi)容質(zhì)量;而 AIGC 不僅可突破可PGC模式的產(chǎn)能瓶頸,也可兼顧內(nèi)容質(zhì)量的提升,特別是AIGC在圖像和音視頻方面的生成能力,將有助力于Web3.0游戲充分滿足游戲參與者在場景和人物構(gòu)建方面的個性化高質(zhì)量需求。

作為知識內(nèi)容生成發(fā)展過程中的新一輪范式轉(zhuǎn)移,AIGC將帶來以下幾個方面的變革。

第一是數(shù)據(jù)增長。基于AIGC技術(shù)的合成數(shù)據(jù)迎來重大發(fā)展,合成數(shù)據(jù)將牽引人工智能的未來。Gartner預計到2025年,生成式人工智能將占所有生成數(shù)據(jù)的10%,到2030年合成數(shù)據(jù)將徹底取代真實數(shù)據(jù)。MIT科技評論將AI合成數(shù)據(jù)列為2022年十大突破性技術(shù)之一。合成數(shù)據(jù)的用途是成為真實世界數(shù)據(jù)的廉價替代品,用來訓練、測試、驗證AI模型,成為訓練AI的主要數(shù)據(jù)來源。

第二是知識拓展。智能時代,AIGC將快速拓展人類對自然世界的認知,AlphaFold通過內(nèi)容生成預測并繪畫蛋白質(zhì)的折疊結(jié)構(gòu)便是例證。

第三是信息獲取方式的改變。AIGC不僅改變創(chuàng)作,還將改變獲取信息的主要方式。以ChatGPT為例,在尋找答案、解決問題的效率上,ChatGPT直接給出搜索結(jié)果,而現(xiàn)今的搜索引擎只能給出隱藏結(jié)果的網(wǎng)頁列表。

第四是直接提高生產(chǎn)力。生成式AI可以嵌入生產(chǎn)和工作環(huán)節(jié),與工作流程相結(jié)合,直接提高生產(chǎn)效率、降低生產(chǎn)成本,促進產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型。微軟CEO薩蒂亞納德拉(Satya Nadella)在做客《華爾街日報》訪談時說:“……事實上,ChatGPT可以用來建立工作流程。這意味著零售、倉庫、醫(yī)療保健等一線工人,他們不是IT專家,他們在計算機科學方面也不熟練,但實際上,他們可以參與到組織的數(shù)字化轉(zhuǎn)型工作中來……,而且還可以參與到知識工作中來”。AIGC有望成為數(shù)字經(jīng)濟時代驅(qū)動需求爆發(fā)的殺手級應用。

第五是加速“經(jīng)濟奇點”的到來。“經(jīng)濟奇點”是人工智能專家(英)卡魯姆蔡斯(Calum Chace)創(chuàng)造的一個詞,即AI技術(shù)本質(zhì)上會造成社會的大規(guī)模失業(yè)。

第六是極大地降低經(jīng)濟社會成本。AIGC模型的通用化水平和工業(yè)化能力的持續(xù)提升將引起經(jīng)濟社會成本結(jié)構(gòu)的重大改變。OpenAI公司創(chuàng)始人兼首席執(zhí)行官山姆阿爾特曼(Sam Altman)在他的“Moore's law for everything”(即萬物摩爾定律)一文中預測:人類社會需要的商品和服務,將會大規(guī)模地由AI來生產(chǎn),這會導致商品和服務的價格下降,由于AI的大規(guī)模普及,房子、汽車、日常商品和服務的價格,每幾年就會降低一半。

ChatGPT是在海量數(shù)據(jù)、超大模型和巨大算力的工程性結(jié)合下,通過對海量數(shù)據(jù)中單詞-單詞、句子-句子等之間的關(guān)聯(lián)性概率預測,才體現(xiàn)出強大的語言對話能力。無疑,ChatGPT無法避免帶有惡意和偏見的錯誤數(shù)據(jù)對知識生成結(jié)果的干擾。但隨著法律和倫理規(guī)制的不斷強化以及模型的迭代升級,再加上不斷增強的自學習和推理能力,人類離通用人工智能AGI時代將越來越近。ChatGPT已經(jīng)打開了通用人工智能AGI時代。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港