展會(huì)信息港展會(huì)大全

3D 堆疊 DRAM 內(nèi)存,日本 PFN 啟動(dòng)新一代 AI 處理器開(kāi)發(fā)
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-11-19 10:24:18   瀏覽:0次  

導(dǎo)讀:IT之家 11 月 19 日消息,日本 AI 芯片“獨(dú)角獸”企業(yè) Preferred Networks(IT之家注:以下簡(jiǎn)稱 PFN)當(dāng)?shù)貢r(shí)間本月 15 宣布其新一代 AI 推理處理器 MN-Core L1000 已啟動(dòng)開(kāi)發(fā),目標(biāo) 2026 年交付。PFN 表示 MN-Core L1000 是其 MN-Core 系列 AI 處理器在的最新產(chǎn)品,針對(duì)大語(yǔ)言模型等生成式 AI 推理場(chǎng)景進(jìn)行了優(yōu)化,有望實(shí)現(xiàn) 10 倍于 GPU 等傳統(tǒng)處理器的計(jì)算速度。MN-Core L1000 ......

IT之家 11 月 19 日消息,日本 AI 芯片“獨(dú)角獸”企業(yè) Preferred Networks(IT之家注:以下簡(jiǎn)稱 PFN)當(dāng)?shù)貢r(shí)間本月 15 宣布其新一代 AI 推理處理器 MN-Core L1000 已啟動(dòng)開(kāi)發(fā),目標(biāo) 2026 年交付。

3D 堆疊 DRAM 內(nèi)存,日本 PFN 啟動(dòng)新一代 AI 處理器開(kāi)發(fā)

PFN 表示 MN-Core L1000 是其 MN-Core 系列 AI 處理器在的最新產(chǎn)品,針對(duì)大語(yǔ)言模型等生成式 AI 推理場(chǎng)景進(jìn)行了優(yōu)化,有望實(shí)現(xiàn) 10 倍于 GPU 等傳統(tǒng)處理器的計(jì)算速度。

MN-Core L1000 采用了獨(dú)特的思路來(lái)解決目前 AI 加速器領(lǐng)域普遍面臨的邏輯計(jì)算單元與數(shù)據(jù)存儲(chǔ)單元間的帶寬瓶頸問(wèn)題:其直接在處理器上方堆疊 DRAM 內(nèi)存。

3D 堆疊 DRAM 內(nèi)存,日本 PFN 啟動(dòng)新一代 AI 處理器開(kāi)發(fā)

相較 2.5D 封裝 DRAM 內(nèi)存的現(xiàn)有 HBM 方案(被用于英偉達(dá)、AMD 等的 AI GPU),3D 堆疊 DRAM 內(nèi)存可實(shí)現(xiàn)更短的邏輯-存儲(chǔ)物理間距,同時(shí)信號(hào)走線也更為直接,擁有更高帶寬上限。

而與 Cerebras、Groq 采用的 SRAM 緩存方案相比,3D 堆疊 DRAM 內(nèi)存則可實(shí)現(xiàn)更大的存儲(chǔ)密度,能更好滿足大型模型的推理需求,同時(shí)減少對(duì)昂貴的先進(jìn)制程邏輯警員的面積占用。

3D 堆疊 DRAM 內(nèi)存,日本 PFN 啟動(dòng)新一代 AI 處理器開(kāi)發(fā)

總而言之,PFN 認(rèn)為其 MN-Core L1000 采用的 3D 堆疊 DRAM 內(nèi)存技術(shù)兼具了 HBM 方案的高容量和 SRAM 方案的高帶寬兩大優(yōu)勢(shì),此外其計(jì)算單元的高能效也化解了 3D 堆疊 DRAM 帶來(lái)的熱管理問(wèn)題。

PFN 今年 8 月同日本金融巨頭 SBI Holdings 就其下代 AI 半導(dǎo)體的開(kāi)發(fā)和產(chǎn)品化組建了資本和商業(yè)聯(lián)盟。

而在略早一些的 7 月,三星電子宣布得到了 PFN 的 2nm 先進(jìn)制程 + I-Cube S 先進(jìn)封裝“交鑰匙”整體代工訂單。不過(guò)從 PFN 的表述來(lái)看,MN-Core L1000 采用的先進(jìn)封裝更類似三星的 X-Cube 而非I-Cube。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港