IT之家 11 月 19 日消息,日本 AI 芯片“獨(dú)角獸”企業(yè) Preferred Networks(IT之家注:以下簡(jiǎn)稱 PFN)當(dāng)?shù)貢r(shí)間本月 15 宣布其新一代 AI 推理處理器 MN-Core L1000 已啟動(dòng)開(kāi)發(fā),目標(biāo) 2026 年交付。
PFN 表示 MN-Core L1000 是其 MN-Core 系列 AI 處理器在的最新產(chǎn)品,針對(duì)大語(yǔ)言模型等生成式 AI 推理場(chǎng)景進(jìn)行了優(yōu)化,有望實(shí)現(xiàn) 10 倍于 GPU 等傳統(tǒng)處理器的計(jì)算速度。
MN-Core L1000 采用了獨(dú)特的思路來(lái)解決目前 AI 加速器領(lǐng)域普遍面臨的邏輯計(jì)算單元與數(shù)據(jù)存儲(chǔ)單元間的帶寬瓶頸問(wèn)題:其直接在處理器上方堆疊 DRAM 內(nèi)存。
相較 2.5D 封裝 DRAM 內(nèi)存的現(xiàn)有 HBM 方案(被用于英偉達(dá)、AMD 等的 AI GPU),3D 堆疊 DRAM 內(nèi)存可實(shí)現(xiàn)更短的邏輯-存儲(chǔ)物理間距,同時(shí)信號(hào)走線也更為直接,擁有更高帶寬上限。
而與 Cerebras、Groq 采用的 SRAM 緩存方案相比,3D 堆疊 DRAM 內(nèi)存則可實(shí)現(xiàn)更大的存儲(chǔ)密度,能更好滿足大型模型的推理需求,同時(shí)減少對(duì)昂貴的先進(jìn)制程邏輯警員的面積占用。
總而言之,PFN 認(rèn)為其 MN-Core L1000 采用的 3D 堆疊 DRAM 內(nèi)存技術(shù)兼具了 HBM 方案的高容量和 SRAM 方案的高帶寬兩大優(yōu)勢(shì),此外其計(jì)算單元的高能效也化解了 3D 堆疊 DRAM 帶來(lái)的熱管理問(wèn)題。
PFN 今年 8 月同日本金融巨頭 SBI Holdings 就其下代 AI 半導(dǎo)體的開(kāi)發(fā)和產(chǎn)品化組建了資本和商業(yè)聯(lián)盟。
而在略早一些的 7 月,三星電子宣布得到了 PFN 的 2nm 先進(jìn)制程 + I-Cube S 先進(jìn)封裝“交鑰匙”整體代工訂單。不過(guò)從 PFN 的表述來(lái)看,MN-Core L1000 采用的先進(jìn)封裝更類似三星的 X-Cube 而非I-Cube。