芯東西6月21日消息,據(jù)The Information報(bào)道,研發(fā)出世界最大芯片的明星AI芯片獨(dú)角獸Cerebras Systems已向證券監(jiān)管機(jī)構(gòu)秘密申請(qǐng)IPO。
Cerebras成立于2016年,總部在美國(guó)加州,專注于研發(fā)比GPU更適用于訓(xùn)練AI模型的晶圓級(jí)芯片,為復(fù)雜的AI應(yīng)用構(gòu)建計(jì)算機(jī)系統(tǒng),并與阿布扎比科技集團(tuán)G42等機(jī)構(gòu)合作構(gòu)建超級(jí)計(jì)算機(jī);谄渥钚缕炫炐酒瑯(gòu)建的服務(wù)器可輕松高效地訓(xùn)練萬(wàn)億參數(shù)模型。
這家創(chuàng)企正在創(chuàng)建優(yōu)先股,價(jià)格比上一輪私人融資大幅折扣。此舉可能會(huì)使其股票在首次公開募股前對(duì)私人投資者和參與公開上市的人更具吸引力。據(jù)此前報(bào)道,Cerebras已聘請(qǐng)花旗集團(tuán)擔(dān)任其IPO的牽頭銀行。
根據(jù)Prime Unicorn Index共享的文件,6月初,Cerebras批準(zhǔn)以14.66美元發(fā)行約2700萬(wàn)股新股。這遠(yuǎn)低于其2021年F輪融資時(shí)的27.74美元股價(jià),該輪估值超過(guò)40億美元。新的股票授權(quán)表明,Cerebras對(duì)自己的估值約為25億美元。
尚不清楚Cerebras是否已正式出售這些股票,或者誰(shuí)將持有這些股票。
該公司已累計(jì)融資7.2億美元,估值約為42億到50億美元。在AI領(lǐng)域聲名赫赫的OpenAI聯(lián)合創(chuàng)始人兼首席執(zhí)行官Sam Altman曾參與Cerebras的8000萬(wàn)美元D輪融資。Cerebras在官網(wǎng)將Altman列在其投資人列表的第一位。
當(dāng)芯片設(shè)計(jì)企業(yè)都在將晶圓分割成數(shù)百顆獨(dú)立芯片時(shí),Cerebras另辟蹊徑,選擇將整塊晶圓做成一顆芯片。
2019年8月,其首顆晶圓級(jí)芯片WSE以“世界最大芯片”的名號(hào)引爆全球科技圈,它由一整片晶圓制成,采用臺(tái)積電16nm制程,在46225mm面積上集成了40萬(wàn)個(gè)AI核心和1.2萬(wàn)億顆晶體管。其2021年推出的二代WSE-2更進(jìn)一步,采用臺(tái)積電7nm制程,創(chuàng)下集成85萬(wàn)個(gè)AI核心和2.6萬(wàn)億顆晶體管的新紀(jì)錄,搭載WSE-2芯片的AI超算系統(tǒng)CS-2也同期發(fā)布。
今年3月,Cerebras推出了第三代晶圓級(jí)芯片WSE-3和AI超級(jí)計(jì)算機(jī)CS-3。WSE-3采用臺(tái)積電5nm制程,有90萬(wàn)個(gè)AI核心和4萬(wàn)億顆晶體管,AI峰值算力高達(dá)每秒125千萬(wàn)億次。
CS-3是15U的服務(wù)器,最高功耗為23kW,可在本地或云端使用。CS-3擁有高達(dá)1.2PB的巨大存儲(chǔ)系統(tǒng),旨在訓(xùn)練比OpenAI GPT-4和谷歌Gemini大10倍的下一代前沿模型。在CS-3上訓(xùn)練1萬(wàn)億參數(shù)模型就像在GPU上訓(xùn)練10億參數(shù)模型一樣簡(jiǎn)單。
Cerebras團(tuán)隊(duì)認(rèn)為,GPU不是訓(xùn)練大模型的最佳引擎,因?yàn)殚_發(fā)者必須將模型分割成許多部分,將它們分布在數(shù)百和數(shù)千個(gè)GPU上,這意味著他們必須重寫模型以跨集群工作,他們的代碼將從大約600行增加到20000行。
而Cerebras想解決的就是這個(gè)問(wèn)題。
其首席執(zhí)行官Andrew Feldman曾用做西裝打比方,有一位裁縫可以在一周內(nèi)作出一套西裝,他雇傭了隔壁也能一周做一套西裝的裁縫,現(xiàn)在他們一周可以做出兩套西裝,但他們無(wú)法在三天半內(nèi)做出一套西裝。
GPU就像無(wú)法協(xié)同工作的裁縫,至少在分子動(dòng)力學(xué)的一些問(wèn)題上是這樣,隨著連接的GPU越來(lái)越多,它們可以同時(shí)模擬更多的原子,但卻無(wú)法更快地模擬相同數(shù)量的原子。而WSE以完全不同的方式擴(kuò)展,芯片不受互連帶寬的限制,可以快速通信,就像兩個(gè)裁縫完美協(xié)作、在三天半內(nèi)制作出一套西裝一樣。
與GPU不同,Cerebras晶圓級(jí)集群將計(jì)算和內(nèi)存組件分離,支持輕松擴(kuò)展MemoryX單元的內(nèi)存容量。Cerebras為超大規(guī)?蛻籼峁120TB和1200TB選項(xiàng),而1200TB的配置能夠存儲(chǔ)有24萬(wàn)億個(gè)參數(shù)的模型。單個(gè)CS-3機(jī)架可存儲(chǔ)比10000節(jié)點(diǎn)GPU集群更多的模型參數(shù),使得一臺(tái)機(jī)器上可以開發(fā)和調(diào)試萬(wàn)億參數(shù)模型。
同樣訓(xùn)練700億參數(shù)大語(yǔ)言模型Llama 2,GPU集群需要大約1個(gè)月,而CS-3集群只用1天。
今年4月,Cerebras發(fā)文比較Cerebras CS-3與英偉達(dá)B200,稱CS-3和英偉達(dá)DGX B200是2024年上市的兩款最令人興奮的AI硬件新品。
無(wú)論AI訓(xùn)練性能還是能效,CS-3都做到倍殺DGX B200。
Cerebras還提供AI模型服務(wù)。其平臺(tái)已經(jīng)訓(xùn)練了各種各樣的模型,從多語(yǔ)言大模型到醫(yī)療健康聊天機(jī)器人,幫助客戶訓(xùn)練基礎(chǔ)模型或者微調(diào)開源模型,而且大部分工作都是開源的。
Andrew Feldman和Gary Lauterbach分別是Cerebras Systems的首席執(zhí)行官和首席技術(shù)官。兩人已合作超過(guò)12年,曾在2007年聯(lián)合創(chuàng)辦高帶寬微服務(wù)器先驅(qū)SeaMicro,這家公司在2012年被AMD以超過(guò)3億美元的價(jià)格收購(gòu),兩人也一起加入了AMD。Andrew Feldman在AMD做了兩年半的副總裁。
▲Cerebras Systems首席執(zhí)行官Andrew Feldman(左)和首席技術(shù)官Gary Lauterbach(右)
Andrew Feldman有斯坦福大學(xué)MBA學(xué)位,多次作為公司高管完成了收購(gòu)和上市。Gary Lauterbach是計(jì)算機(jī)架構(gòu)大牛,曾擔(dān)任SPARC Ⅲ和UltraSPARC Ⅳ微處理器的首席架構(gòu)師。
結(jié)語(yǔ):AI競(jìng)賽升溫,算力股躺贏
AI算力繁榮正帶動(dòng)相關(guān)股票的飆漲。本周英偉達(dá)以超過(guò)3.3萬(wàn)億美元的市值登頂“全球股王”。此前向云計(jì)算公司出售數(shù)據(jù)中心組件的Astera Labs在今年3月上市時(shí),首日股價(jià)暴漲76%。
IPO計(jì)劃顯示,Cerebras希望駕馭投資者對(duì)AI硬件銷售的熱情浪潮。這家AI芯片公司需展示它計(jì)劃如何獲得AI計(jì)算市常其財(cái)務(wù)業(yè)績(jī)暫時(shí)無(wú)法得知,該公司在12月的一篇博客文章中表示,它最近達(dá)到了“現(xiàn)金流收支平衡”,但未詳細(xì)說(shuō)明。
來(lái)源:The Information