展會信息港展會大全

國內(nèi)唯一全面對標OpenAI的創(chuàng)業(yè)公司,大模型已經(jīng)出到第三代
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-10-28 14:01:55   瀏覽:5221次  

導讀:機器之心報道 作者 :澤南、杜偉 中國大模型公司,正在進入競爭的新階段。 僅用六個月時間,國內(nèi) AI 創(chuàng)業(yè)公司就已經(jīng)把大語言模型發(fā)展到了第三代。 10 月 27 日,中國計算機大會 CNCC2023 上,智譜 AI 發(fā)布了自研第三代對話大模型 ChatGLM3。這是繼 6 月 25...

機器之心報道

作者:澤南、杜偉

中國大模型公司,正在進入競爭的新階段。

僅用六個月時間,國內(nèi) AI 創(chuàng)業(yè)公司就已經(jīng)把大語言模型發(fā)展到了第三代。

10 月 27 日,中國計算機大會 CNCC2023 上,智譜 AI 發(fā)布了自研第三代對話大模型 ChatGLM3。這是繼 6 月 25 日發(fā)布 ChatGLM2 后,智譜 AI 對話大模型的又一次重大升級。

智譜 AI CEO 張鵬在活動中進行了演講。

「ChatGLM3 融入了我們的一系列最新研究成果,實現(xiàn)了包括跨模態(tài)、Agent 等一系列全新能力,」智譜 AI CEO 張鵬表示。「現(xiàn)在,智譜清言就像打通了任督二脈,不再是個只能根據(jù)你的指令生成文本的助手,而是已經(jīng)成為了『百曉生』,可以根據(jù)真實的、實時的信息幫你做更多事!

昨天的發(fā)布現(xiàn)場,智譜 AI 進行了一系列 ChatGLM3 的能力展示。

這一次,ChatGLM 系列大模型首次加入了代碼識別模塊 Code Interpreter,能夠根據(jù)用戶需求生成代碼完成數(shù)據(jù)分析、文件處理等復雜任務。比如下達指令讓它構(gòu)建一個函數(shù)圖像,ChatGLM3 可以生成代碼并自動執(zhí)行:

輸入一個 Excel 文件和指令,ChatGLM3 可以進行分析,輸出 Python 代碼,生成圖表。如果你更改需求,大模型也能進一步實現(xiàn)。

這就讓智譜清言成為了國內(nèi)首個具備代碼交互能力的大模型產(chǎn)品。

多模態(tài)是當前大模型研究與應用最為火熱的方向。ChatGLM3 加入了多模態(tài)理解能力組件 CogVLM,實現(xiàn)了看圖識語義和跨模態(tài)對話能力。

上傳本次發(fā)布會的 PPT 截圖讓 AI 分析,其中的時間戳和文字內(nèi)容都被分析了出來:

上傳一些食材的圖片,它就可以向你推薦食譜,并可以進一步根據(jù)你的口味調(diào)整要做的菜:

另外,ChatGLM3 也加入了 WebGLM 能力,使得模型獲得了網(wǎng)絡搜索的增強,可以實時獲得互聯(lián)網(wǎng)上最新信息,總結(jié)成有價值的內(nèi)容輸出給用戶:

如上所示,這些答案也附有引用內(nèi)容的文章鏈接。

昨天發(fā)布的新能力都已在智譜清言的網(wǎng)頁端上線,APP 端也具備了網(wǎng)絡搜索增強和多模態(tài)理解能力,沒有內(nèi)測環(huán)節(jié),直接使用。

體量不變,性能全面提升:ChatGLM3 技術(shù)細節(jié)

作為賦能生成式 AI 助手智譜清言的自研第三代基座模型,ChatGLM3 的背后經(jīng)歷了哪些進化?

據(jù)張鵬介紹,此次 ChatGLM3 瞄準 GPT-4V 進行技術(shù)升級,在多模態(tài)理解、代碼生成、網(wǎng)絡搜索以及語義和邏輯推理能力都得到了顯著增強。上文的演示讓我們直觀體驗到了 ChatGLM3 在這些領(lǐng)域的「脫胎換骨」。

首先來看模型基礎(chǔ)性能。智譜 AI 基于 ChatGLM 系列模型的開發(fā)經(jīng)驗,全面升級了 ChatGLM3-6B 的基座模型,在語義推理能力上有大幅度的升級。用數(shù)據(jù)來說話,ChatGLM3-6B 在 44 個中英文公開數(shù)據(jù)集性能測評中里面排到了國內(nèi)第一名。

與自家的二代模型相比,ChatGLM3-6B 在 MMLU(跨語言)、CEval(中文多學科)、GSM8K(數(shù)理推理)、BBH(復雜推理)等流行基準測試中均有明顯提升,GSM8K 提升高達 179%。這樣的性能提升,讓 ChatGLM 在 6B 尺寸開源模型中具有極強競爭力。

張鵬表示,新模型性能的提升得益于多階段優(yōu)化的模型訓練策略,以及更優(yōu)的數(shù)據(jù)和訓練方法。這就讓模型在體量不變的情況下,能力有了大幅進步。

如今的生成式 AI 模型都更加強調(diào)面向?qū)嶋H應用,ChatGLM3 也提升了推理效率。整體而言,得益于高效動態(tài)推理和顯存優(yōu)化技術(shù)的應用,ChatGLM3 的推理速度相較二代提升了 4 倍,相較目前最佳開源競品 vLLM 提升 2 到 3 倍。

在大量的實踐中發(fā)現(xiàn),ChatGLM3 在不同并發(fā)下的 token 生成速度比 vLLM、TGI 推理方案快了一大截,并且并發(fā)越多提升越明顯。同樣地,不同并發(fā)下的首響延遲也大大降低。這些也是保證智譜清言較快生成速度的重要原因。

對于近來 AI 圈同樣火熱的智能體(Agent)技術(shù),ChatGLM3 系列模型也憑借技術(shù)創(chuàng)新具備了更強大的智能體能力。

ChatGLM3 使用全新的算法,并集成了自研的 AgentTuning 技術(shù),最大化激活大模型自身的智能體能力,在智能規(guī)劃和執(zhí)行方面相較二代模型提升了 10 倍。

張鵬表示,ChatGLM3 開啟了國產(chǎn)大模型在智能體能力層面的飛速提升,其原生支持 Agent 進行工具調(diào)用、代碼執(zhí)行、游戲、數(shù)據(jù)庫操作、知識圖譜搜索與推理、操作系統(tǒng)等復雜場景的操作。

在清華等機構(gòu)推出的 AI Agent 大模型基準測試平臺 AgentBench 上的最新結(jié)果顯示,ChatGLM3-trubo 的智能體能力基本持平 GPT-3.5 甚至比它略有優(yōu)勢,不過仍與 GPT-4 存在差距。

現(xiàn)如今大模型在其開發(fā)和部署中都極其關(guān)注國產(chǎn)化芯片的適配能力,ChatGLM 系列模型亦是如此。

智譜 AI 表示,ChatGLM 系列當前已經(jīng)支持了超過十種國產(chǎn)芯片,包括有騰、神威超算、海光 DCU、海飛科、沐曦曦云、算能科技、天數(shù)智芯、寒武紀、摩爾線程、百度昆侖芯、靈汐科技、長城超云等。以華為騰生態(tài)為例,ChatGLM3 在其平臺上的推理速度已經(jīng)提升了多達 3 倍。

此外,為了滿足更豐富的應用場景,ChatGLM3 也針對邊緣側(cè)部署帶來了更多尺寸的模型,可面向筆記本電腦、智能汽車甚至手機,在移動平臺上用 CPU 進行推理,速度就能達到 20 token/s。

可以看到,ChatGLM3-1.5B 的模型性能已經(jīng)接近于 ChatGLM2 代 6B 模型,新一代模型性能提升非常明顯。

可以預見,未來 ChatGLM 系列模型將迎來更多樣化的應用場景。

全線產(chǎn)品對標 OpenAI,而且更開放

在生成式 AI 領(lǐng)域,我們?nèi)缃褚呀?jīng)看過太多號稱能力強大的模型,但在技術(shù)的大規(guī)模應用階段,更加難能可貴的是「全面」。ChatGLM 3 系列模型的發(fā)布是智譜 AI 的一個關(guān)鍵節(jié)點:在新發(fā)布過后,該公司已成為目前國內(nèi)唯一一個有對標 Open AI 全模型產(chǎn)品線的大模型創(chuàng)業(yè)公司:

在發(fā)布會上,張鵬表示:「對標 OpenAI 是智譜 AI 在成立時寫在我們愿景里的話,也是一直努力的目標。目前從對話大模型、代碼生成模型到多模態(tài)大模型,我們的全線產(chǎn)品與 OpenAI 的產(chǎn)品已經(jīng)做到了對標!

具體來說:

在對話模型上,對標 ChatGPT 的是 ChatGLM

在文生圖方面,對標 DALL.E 的是 CogView

代碼生成上,與 Codex 相對的是 CodeGeeX

搜索增強上,與 WebGPT 相對的是 WebGLM

另外,在多模態(tài)、圖文理解領(lǐng)域,與 GPT-4V 對標的有 ChatGLM3

能夠做到全線趕上,除了緊跟先進技術(shù)動向,更多應該歸功于智譜 AI 長期堅持的技術(shù)研發(fā)路線。

智譜 AI 是一家從清華大學實驗室里走來的明星 AI 創(chuàng)業(yè)公司,成立于 2019 年 6 月。就在上周五,智譜 AI 宣布今年已累計獲得超過 25 億人民幣的融資。據(jù)了解,現(xiàn)在這家公司的估值已達到 140 億元,是國內(nèi)估值最高的大模型創(chuàng)業(yè)公司。

智譜 AI 走出了屬于自己的大模型框架道路:今天能夠橫掃各大評測基準的 ChatGLM,源自該公司在 2020 年底開始研發(fā)的 GLM(通用語言模型)預訓練架構(gòu)。它是一個自回歸填空模型,結(jié)合了 GPT 和 BERT 的優(yōu)勢,不僅能從前文預測后文,也能從后文猜前文內(nèi)容,其理論訓練效率比 GPT 更高,也能理解更復雜的場景。

堅持走完全自研的道路,讓智譜 AI 在生成式 AI 賽道上逐步構(gòu)建起優(yōu)勢, 通過自建的訓練平臺,這家創(chuàng)業(yè)公司也擁有了從零開始搭建平臺和運維平臺的能力。

今年 3 月,智譜 AI 推出了千億基座的對話模型 ChatGLM,并開源了單卡版模型 ChatGLM-6B,使得研究者和個人開發(fā)者進行微調(diào)和部署成為可能。

ChatGLM-6B 具有 62 億參數(shù),結(jié)合模型量化技術(shù),可基于消費級顯卡進行本地部署(最低只需 6GB 顯存)。ChatGLM-6B 系列模型目前已經(jīng)獲得了超過 1000 萬的下載量,GitHub 的 Star 量也超過了 5 萬。

除了 ChatGLM-6B,ChatGLM2-6B 也有 1.4 的萬 Star 量。

今年 6 月,ChatGLM2 正式發(fā)布,千億級基座對話模型經(jīng)歷了全系升級,提供多種模型體量,適用于多種場景。在細分領(lǐng)域上,智譜 AI 的團隊也打造了 AIGC 模型及產(chǎn)品矩陣,包括生成式 AI 提效助手智譜清言、高效率代碼模型 CodeGeeX 等。

面向開源生態(tài)的貢獻還在繼續(xù)。昨天的發(fā)布會上,智譜 AI 表示,為了進一步推動開源生態(tài),還將把包括 ChatGLM3-6B、ChatGLM3-6B-32K、CogVLM-17B 和 AgentLM 在內(nèi)的多個模型開源。

其中,ChatGLM-6B 開放了支持 32K 長文本的版本,可以支撐更多文檔應用場景。

在智譜 AI 的平臺上,企業(yè)可以基于自身的私有數(shù)據(jù),利用性能領(lǐng)先的基座模型快速構(gòu)建生成式 AI 應用。在本次 ChatGLM3 升級之后,面向企業(yè)用戶的大模型 API 也被統(tǒng)一為 ChatGLM Turbo,并降價 50%,做到了業(yè)內(nèi)最便宜的價格。

站上更高起點

智譜 AI 的全面對標,趕上了生成式 AI 逐步實用化的節(jié)奏。

大模型技術(shù)落地的速度,比我們想象得要快:本周三微軟公布的財報顯示,憑借其人工智能產(chǎn)品的實力,Azure 業(yè)務的增長達 29%。目前,使用 Azure OpenAI 服務公司和機構(gòu)已經(jīng)超過 1.8 萬。不遺余力支持 OpenAI 搞大模型的策略,已經(jīng)讓微軟開始有了收獲。

當然,這還只是生成式 AI 馬拉松比賽的前 100 米。

未來,生成式 AI 的業(yè)務模式,甚至大模型底層架構(gòu)的發(fā)展路線,都有可能繼續(xù)發(fā)生變化。而在這場漫長的競爭過程中,誰擁有更聰明的模型,更完善的技術(shù)平臺,誰才更有機會跑到終點。

從如今智譜 AI 的布局來看,它已經(jīng)為比拼耐力做好了準備。

贊助本站

人工智能實驗室
相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港