展會信息港展會大全

AI 公司MosaicML推出300億參數(shù)模型MPT-30B,表示訓練成本僅為競品零頭
來源:互聯(lián)網(wǎng)   發(fā)布日期:2023-06-26 06:50:12   瀏覽:6192次  

導讀:品玩6月25日訊,AI創(chuàng)業(yè)公司MosaicML近日發(fā)布了其語言模型MPT-30B,該模型具有300億參數(shù),訓練成本僅有其他同類競品模型的零頭,有望促進行業(yè)逐步降低此類模型訓練成本,擴大AI模型在更廣泛領域的運用。 MosaicML 公司的首席執(zhí)行官兼聯(lián)合創(chuàng)始人 Naveen Rao 表...

品玩6月25日訊,AI創(chuàng)業(yè)公司MosaicML近日發(fā)布了其語言模型MPT-30B,該模型具有300億參數(shù),訓練成本“僅有其他同類競品模型的零頭”,有望促進行業(yè)逐步降低此類模型訓練成本,擴大AI模型在更廣泛領域的運用。

MosaicML 公司的首席執(zhí)行官兼聯(lián)合創(chuàng)始人 Naveen Rao 表示,MPT-30B 的訓練成本為 70 萬美元(約 502.44 萬元人民幣),遠低于 GPT-3 等同類產品所需的數(shù)千萬美元訓練成本。此外,由于 MPT-30B 的成本較低,體積較小,它也可以更快速地被訓練,并且更適合部署在本地硬件上。

MosaicML 公司表示,將模型擴展到 300 億參數(shù)只是第一步,接下來他們將以降低成本為前提,推出體積更大、質量更高的模型。

贊助本站

人工智能實驗室
相關內容
AiLab云推薦
推薦內容
展開

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實驗室 版權所有    關于我們 | 聯(lián)系我們 | 廣告服務 | 公司動態(tài) | 免責聲明 | 隱私條款 | 工作機會 | 展會港