品玩6月25日訊,AI創(chuàng)業(yè)公司MosaicML近日發(fā)布了其語言模型MPT-30B,該模型具有300億參數(shù),訓練成本“僅有其他同類競品模型的零頭”,有望促進行業(yè)逐步降低此類模型訓練成本,擴大AI模型在更廣泛領域的運用。
MosaicML 公司的首席執(zhí)行官兼聯(lián)合創(chuàng)始人 Naveen Rao 表示,MPT-30B 的訓練成本為 70 萬美元(約 502.44 萬元人民幣),遠低于 GPT-3 等同類產品所需的數(shù)千萬美元訓練成本。此外,由于 MPT-30B 的成本較低,體積較小,它也可以更快速地被訓練,并且更適合部署在本地硬件上。
MosaicML 公司表示,將模型擴展到 300 億參數(shù)只是第一步,接下來他們將以降低成本為前提,推出體積更大、質量更高的模型。