當(dāng)?shù)貢r(shí)間6 月 28 日,谷歌面向全球研究人員和開發(fā)人員發(fā)布 Gemma 2 大語言模型,共有 90 億參數(shù)(9B)和 270 億參數(shù)(27B)兩種大校
谷歌表示,Gemma 2-27B 模型的性能媲美兩倍規(guī)模的主流模型,而且只需要一片英偉達(dá) H100 ensor Core GPU 或 TPU 主機(jī)就能實(shí)現(xiàn)這種性能,從而大大降低了部署成本。
谷歌還計(jì)劃在未來幾個(gè)月發(fā)布參數(shù)為 26 億的 Gemma 2 模型,更適合智能手機(jī)的人工智能應(yīng)用場景。
(本文來自第一財(cái)經(jīng))