IT之家 11 月 19 日消息,日本 AI 芯片“獨角獸”企業(yè) Preferred Networks(IT之家注:以下簡稱 PFN)當(dāng)?shù)貢r間本月 15 宣布其新一代 AI 推理處理器 MN-Core L1000 已啟動開發(fā),目標(biāo) 2026 年交付。
PFN 表示 MN-Core L1000 是其 MN-Core 系列 AI 處理器在的最新產(chǎn)品,針對大語言模型等生成式 AI 推理場景進(jìn)行了優(yōu)化,有望實現(xiàn) 10 倍于 GPU 等傳統(tǒng)處理器的計算速度。
MN-Core L1000 采用了獨特的思路來解決目前 AI 加速器領(lǐng)域普遍面臨的邏輯計算單元與數(shù)據(jù)存儲單元間的帶寬瓶頸問題:其直接在處理器上方堆疊 DRAM 內(nèi)存。
相較 2.5D 封裝 DRAM 內(nèi)存的現(xiàn)有 HBM 方案(被用于英偉達(dá)、AMD 等的 AI GPU),3D 堆疊 DRAM 內(nèi)存可實現(xiàn)更短的邏輯-存儲物理間距,同時信號走線也更為直接,擁有更高帶寬上限。
而與 Cerebras、Groq 采用的 SRAM 緩存方案相比,3D 堆疊 DRAM 內(nèi)存則可實現(xiàn)更大的存儲密度,能更好滿足大型模型的推理需求,同時減少對昂貴的先進(jìn)制程邏輯警員的面積占用。
總而言之,PFN 認(rèn)為其 MN-Core L1000 采用的 3D 堆疊 DRAM 內(nèi)存技術(shù)兼具了 HBM 方案的高容量和 SRAM 方案的高帶寬兩大優(yōu)勢,此外其計算單元的高能效也化解了 3D 堆疊 DRAM 帶來的熱管理問題。
PFN 今年 8 月同日本金融巨頭 SBI Holdings 就其下代 AI 半導(dǎo)體的開發(fā)和產(chǎn)品化組建了資本和商業(yè)聯(lián)盟。
而在略早一些的 7 月,三星電子宣布得到了 PFN 的 2nm 先進(jìn)制程 + I-Cube S 先進(jìn)封裝“交鑰匙”整體代工訂單。不過從 PFN 的表述來看,MN-Core L1000 采用的先進(jìn)封裝更類似三星的 X-Cube 而非I-Cube。