展會(huì)信息港展會(huì)大全

未來(lái)芯片或?qū)⒆呦蛏窠?jīng)擬態(tài)計(jì)算
來(lái)源:互聯(lián)網(wǎng)   發(fā)布日期:2024-10-25 20:54:49   瀏覽:2097次  

導(dǎo)讀:劃重點(diǎn) 01未來(lái)芯片可能走向神經(jīng)擬態(tài)計(jì)算,模仿大腦的硬件設(shè)計(jì)和算法方法,以提高計(jì)算效率和能源利用率。 02神經(jīng)形態(tài)計(jì)算的一種方法是創(chuàng)建非常簡(jiǎn)單、抽象的生物神經(jīng)元和突觸模型,如IBM的Hermes芯片。 03另一方面,模擬方法使用先進(jìn)的材料,可以存儲(chǔ)0到1之間...

劃重點(diǎn)

01未來(lái)芯片可能走向神經(jīng)擬態(tài)計(jì)算,模仿大腦的硬件設(shè)計(jì)和算法方法,以提高計(jì)算效率和能源利用率。

02神經(jīng)形態(tài)計(jì)算的一種方法是創(chuàng)建非常簡(jiǎn)單、抽象的生物神經(jīng)元和突觸模型,如IBM的Hermes芯片。

03另一方面,模擬方法使用先進(jìn)的材料,可以存儲(chǔ)0到1之間的連續(xù)電導(dǎo)值,并執(zhí)行多級(jí)處理。

04由于此,神經(jīng)形態(tài)計(jì)算在邊緣應(yīng)用中具有優(yōu)勢(shì),如手機(jī)、自動(dòng)駕駛汽車(chē)和店內(nèi)安全攝像頭等。

05目前,AI模型過(guò)于復(fù)雜,無(wú)法在傳統(tǒng)CPU或GPU上運(yùn)行,需要新一代電路來(lái)運(yùn)行這些龐大的模型。

以上內(nèi)容由騰訊混元大模型生成,僅供參考

未來(lái)芯片或?qū)⒆呦蛏窠?jīng)擬態(tài)計(jì)算

本文由半導(dǎo)體產(chǎn)業(yè)縱橫(ID:ICVIEWS)綜合

未來(lái)的芯片可能會(huì)從我們的大腦結(jié)構(gòu)中汲取靈感。

神經(jīng)形態(tài)計(jì)算是一種旨在模仿大腦的硬件設(shè)計(jì)和算法方法。這一概念并不是描述一個(gè)精確的復(fù)制品,一個(gè)充滿合成神經(jīng)元和人工灰質(zhì)的機(jī)器人大腦。相反,從事這一領(lǐng)域的專(zhuān)家正在設(shè)計(jì)一個(gè)計(jì)算系統(tǒng)的所有層來(lái)反映大腦的效率。與傳統(tǒng)計(jì)算機(jī)相比,人腦幾乎不使用任何電力,即使面對(duì)模糊或定義不明確的數(shù)據(jù)和輸入,也能有效地解決任務(wù)。

在某些情況下,這些努力仍處于深入研發(fā)階段,目前它們大多存在于實(shí)驗(yàn)室中。但在其中一個(gè)案例中,原型性能數(shù)據(jù)表明,受大腦啟發(fā)的計(jì)算機(jī)處理器很快就會(huì)上市。

什么是神經(jīng)形態(tài)計(jì)算?

從詞源上講,“神經(jīng)形態(tài)”一詞的字面意思是“大腦或神經(jīng)元形狀的特征”。但這個(gè)術(shù)語(yǔ)是否適合該領(lǐng)域或特定處理器可能取決于你問(wèn)的對(duì)象。它可能意味著試圖重現(xiàn)人腦中突觸和神經(jīng)元行為的電路,也可能意味著從大腦處理和存儲(chǔ)信息的方式中獲取概念靈感的計(jì)算。

如果聽(tīng)起來(lái)神經(jīng)形態(tài)計(jì)算(或大腦啟發(fā)式計(jì)算)領(lǐng)域有些懸而未決,那只是因?yàn)檠芯咳藛T在構(gòu)建模擬大腦的計(jì)算機(jī)系統(tǒng)時(shí)采用了截然不同的方法。IBM 研究部門(mén)及其他機(jī)構(gòu)的科學(xué)家多年來(lái)一直在努力開(kāi)發(fā)這些機(jī)器,但該領(lǐng)域尚未找到典型的神經(jīng)形態(tài)架構(gòu)。

一種常見(jiàn)的腦啟發(fā)計(jì)算方法是創(chuàng)建非常簡(jiǎn)單、抽象的生物神經(jīng)元和突觸模型。這些模型本質(zhì)上是使用標(biāo)量乘法的靜態(tài)非線性函數(shù)。在這種情況下,信息以浮點(diǎn)數(shù)的形式傳播。當(dāng)信息被放大時(shí),結(jié)果就是深度學(xué)習(xí)。簡(jiǎn)單地說(shuō),深度學(xué)習(xí)是腦啟發(fā)的所有這些數(shù)學(xué)神經(jīng)元加起來(lái)就是模仿某些大腦功能的東西。

IBM 研究科學(xué)家 Abu Sebastian 表示:“在過(guò)去十年左右的時(shí)間里,這項(xiàng)技術(shù)取得了巨大成功,絕大多數(shù)從事與腦啟發(fā)計(jì)算相關(guān)工作的人實(shí)際上都在從事與此相關(guān)的工作!彼硎荆ㄟ^(guò)結(jié)合神經(jīng)元或突觸動(dòng)力學(xué)進(jìn)行交流,可以用其他腦啟發(fā)方式來(lái)用數(shù)學(xué)模擬神經(jīng)元。

另一方面,模擬方法使用先進(jìn)的材料,可以存儲(chǔ) 0 到 1 之間的連續(xù)電導(dǎo)值,并執(zhí)行多級(jí)處理使用歐姆定律進(jìn)行乘法,并使用基爾霍夫電流總和累積部分和。

片上存儲(chǔ)器如何消除經(jīng)典瓶頸

類(lèi)腦計(jì)算架構(gòu)方法的一個(gè)共同特點(diǎn)是片上內(nèi)存,也稱(chēng)為內(nèi)存計(jì)算。與傳統(tǒng)微處理器相比,這是芯片結(jié)構(gòu)的根本性轉(zhuǎn)變。

大腦分為多個(gè)區(qū)域和電路,記憶形成和學(xué)習(xí)(實(shí)際上是數(shù)據(jù)處理和存儲(chǔ))都位于同一位置。傳統(tǒng)計(jì)算機(jī)并非如此設(shè)置。使用傳統(tǒng)處理器時(shí),內(nèi)存與進(jìn)行計(jì)算的處理器是分開(kāi)的,信息通過(guò)電路在兩者之間來(lái)回傳輸。但在包含片上內(nèi)存的神經(jīng)形態(tài)架構(gòu)中,記憶與精細(xì)處理緊密相關(guān),就像在大腦中一樣。

這種架構(gòu)是 IBM 內(nèi)存計(jì)算芯片設(shè)計(jì)的主要特征,無(wú)論是模擬還是數(shù)字。

將計(jì)算和內(nèi)存放在一起的理由是,機(jī)器學(xué)習(xí)任務(wù)是計(jì)算密集型的,但任務(wù)本身并不一定很復(fù)雜。換句話說(shuō),有大量稱(chēng)為矩陣乘法的簡(jiǎn)單計(jì)算。限制因素不是處理器太慢,而是在內(nèi)存和計(jì)算之間來(lái)回移動(dòng)數(shù)據(jù)需要太長(zhǎng)時(shí)間并消耗太多能量,尤其是在處理繁重的工作負(fù)載和基于 AI 的應(yīng)用程序時(shí)。這種缺陷被稱(chēng)為馮諾依曼瓶頸,以自微芯片時(shí)代開(kāi)始以來(lái)幾乎每種芯片設(shè)計(jì)都采用的馮諾依曼架構(gòu)命名。借助內(nèi)存計(jì)算,可以通過(guò)從 AI 訓(xùn)練和推理等數(shù)據(jù)密集型過(guò)程中消除這種混亂來(lái)節(jié)省大量能源和延遲。

在 AI 推理的情況下,突觸權(quán)重存儲(chǔ)在內(nèi)存中。這些權(quán)重決定了節(jié)點(diǎn)之間的連接強(qiáng)度,在神經(jīng)網(wǎng)絡(luò)的情況下,它們是應(yīng)用于通過(guò)它們運(yùn)行的矩陣乘法運(yùn)算的值。如果突觸權(quán)重存儲(chǔ)在與處理位置分開(kāi)的地方,并且必須來(lái)回傳送,那么每個(gè)操作所花費(fèi)的能量將始終在某個(gè)點(diǎn)穩(wěn)定下來(lái),這意味著更多的能量最終不會(huì)帶來(lái)更好的性能。塞巴斯蒂安和他的同事開(kāi)發(fā)了 IBM 的一種受大腦啟發(fā)的芯片Hermes,他們相信他們必須打破移動(dòng)突觸權(quán)重所造成的障礙。目標(biāo)是制造性能更高、占用空間更小的 AI 加速器。

“內(nèi)存計(jì)算將內(nèi)存和計(jì)算之間的物理分離最小化或減少到零,”神經(jīng)形態(tài)設(shè)備和系統(tǒng)小組的 IBM 研究科學(xué)家 Valeria Bragaglia 說(shuō)。

以IBM 的 NrthPole 芯片為例,計(jì)算結(jié)構(gòu)是圍繞內(nèi)存構(gòu)建的。但 NorthPole 并沒(méi)有像模擬計(jì)算那樣將內(nèi)存和計(jì)算放在完全相同的空間中,而是將它們交織在一起,因此可以更具體地稱(chēng)為“近內(nèi)存”。但效果本質(zhì)上是一樣的。

受大腦啟發(fā)的芯片如何模擬神經(jīng)元和突觸

加州理工學(xué)院電氣工程研究員卡弗米德 (Carver Mead) 早在 20 世紀(jì) 90 年代就對(duì)神經(jīng)形態(tài)計(jì)算領(lǐng)域產(chǎn)生了巨大影響,當(dāng)時(shí)他和他的同事意識(shí)到有可能創(chuàng)建一種在現(xiàn)象學(xué)層面上類(lèi)似于神經(jīng)元放電的模擬設(shè)備。

幾十年后,Hermes 和 IBM 的另一款原型模擬 AI 芯片基本上就是這么做的:模擬單元既執(zhí)行計(jì)算,又存儲(chǔ)突觸權(quán)重,就像大腦中的神經(jīng)元一樣。這兩種模擬芯片都包含數(shù)百萬(wàn)個(gè)納米級(jí)相變存儲(chǔ)器 (PCM) 設(shè)備,這是一種模擬計(jì)算版本的腦細(xì)胞。

PCM 設(shè)備通過(guò)電流流過(guò)它們來(lái)分配權(quán)重,從而改變一塊硫?qū)倩锊AУ奈锢頎顟B(tài)。當(dāng)更多的電壓通過(guò)它時(shí),這種玻璃會(huì)從晶體重新排列成非晶態(tài)固體。這使其導(dǎo)電性降低,從而改變矩陣乘法運(yùn)算通過(guò)它時(shí)的值。在軟件中訓(xùn)練 AI 模型后,所有突觸權(quán)重都存儲(chǔ)在這些 PCM 設(shè)備中,就像記憶存儲(chǔ)在生物突觸中一樣。

“突觸不僅存儲(chǔ)信息,還有助于計(jì)算,”IBM 研究科學(xué)家 Ghazi Sarwat Syed 說(shuō)道,他致力于設(shè)計(jì) PCM 中使用的材料和設(shè)備架構(gòu)!皩(duì)于某些計(jì)算,例如深度神經(jīng)網(wǎng)絡(luò)推理,在 PCM 中共置計(jì)算和內(nèi)存不僅可以克服馮諾依曼瓶頸,而且這些設(shè)備還可以存儲(chǔ)中間值,而不僅僅是典型晶體管的 1 和 0! 目標(biāo)是創(chuàng)建計(jì)算精度更高的設(shè)備,可以密集地封裝在芯片上,并且可以用超低電流和功率進(jìn)行編程。

“此外,我們正在嘗試讓這些設(shè)備更具特色,”他說(shuō)!吧锿挥|可以長(zhǎng)時(shí)間以非易失性的方式存儲(chǔ)信息,但它們也會(huì)發(fā)生短暫的變化。”因此,他的團(tuán)隊(duì)正在研究如何改變模擬內(nèi)存,以更好地模擬生物突觸。一旦你有了這個(gè),你就可以設(shè)計(jì)出新的算法來(lái)解決數(shù)字計(jì)算機(jī)難以解決的問(wèn)題。

Bragaglia 指出,這些模擬設(shè)備的缺點(diǎn)之一是它們目前僅限于推理!澳壳斑沒(méi)有可用于訓(xùn)練的設(shè)備,因?yàn)橐苿?dòng)重量的準(zhǔn)確性還不夠高,”她說(shuō)。一旦人工智能模型在數(shù)字架構(gòu)上進(jìn)行了訓(xùn)練,重量就可以被固定到 PCM 單元中,但直接通過(guò)訓(xùn)練來(lái)改變重量還不夠精確。此外,Syed 表示,PCM 設(shè)備的耐用性不足以讓其電導(dǎo)率改變一萬(wàn)億次甚至更多次,就像在訓(xùn)練期間發(fā)生的那樣。

IBM 研究部門(mén)的多個(gè)團(tuán)隊(duì)正在努力解決材料特性不理想和計(jì)算保真度不足造成的問(wèn)題。其中一種方法涉及新算法,該算法可以解決 PCM 中模型權(quán)重更新期間產(chǎn)生的錯(cuò)誤。它們?nèi)蕴幱陂_(kāi)發(fā)階段,但早期結(jié)果表明,很快就可以在模擬設(shè)備上進(jìn)行模型訓(xùn)練。

Bragaglia 參與了解決這個(gè)問(wèn)題的材料科學(xué)方法:一種稱(chēng)為電阻式隨機(jī)存取存儲(chǔ)器或 RRAM 的不同類(lèi)型的存儲(chǔ)設(shè)備。RRAM 的工作原理與 PCM 類(lèi)似,將突觸權(quán)重的值存儲(chǔ)在物理設(shè)備中。原子絲位于絕緣體內(nèi)部的兩個(gè)電極之間。在 AI 訓(xùn)練期間,輸入電壓會(huì)改變絲的氧化,從而以非常精細(xì)的方式改變其電阻并且在推理過(guò)程中,該電阻被讀取為權(quán)重。這些單元以交叉陣列的形式排列在芯片上,形成了一個(gè)突觸權(quán)重網(wǎng)絡(luò)。到目前為止,這種結(jié)構(gòu)已經(jīng)顯示出在模擬芯片中執(zhí)行計(jì)算的同時(shí)保持更新靈活性的前景。這是在 IBM 的幾個(gè)研究團(tuán)隊(duì)經(jīng)過(guò)多年的材料和算法共同優(yōu)化后才實(shí)現(xiàn)的。

除了存儲(chǔ)記憶的方式之外,一些神經(jīng)形態(tài)計(jì)算機(jī)芯片中數(shù)據(jù)流動(dòng)的方式可能與傳統(tǒng)芯片中的流動(dòng)方式存在根本區(qū)別。在典型的同步電路(大多數(shù)計(jì)算機(jī)處理器)中,數(shù)據(jù)流基于時(shí)鐘,具有連續(xù)振蕩電流來(lái)同步電路的動(dòng)作。時(shí)鐘可以有不同的結(jié)構(gòu)和多層,包括時(shí)鐘倍頻器,使微處理器能夠以不同于電路其余部分的速率運(yùn)行。但從根本上講,即使沒(méi)有數(shù)據(jù)正在處理,事情也會(huì)發(fā)生。

Syed 表示,生物學(xué)采用的是事件驅(qū)動(dòng)的脈沖!拔覀兊纳窠(jīng)細(xì)胞很少進(jìn)行交流,這就是我們?nèi)绱烁咝У脑,”他補(bǔ)充道。換句話說(shuō),大腦只在必須工作時(shí)才工作,因此通過(guò)采用這種異步數(shù)據(jù)處理流,人工模擬可以節(jié)省大量能源。

不過(guò),IBM 研究部門(mén)研發(fā)的所有三款受大腦啟發(fā)的芯片均采用標(biāo)準(zhǔn)時(shí)鐘流程進(jìn)行設(shè)計(jì)。

在其中一個(gè)案例中,IBM 研究人員表示,他們?cè)谶吘壓蛿?shù)據(jù)中心應(yīng)用方面取得了重大進(jìn)展。IBM 研究員 Dharmendra Modha 表示:“我們希望從大腦中學(xué)習(xí),但我們希望以數(shù)學(xué)的方式從大腦中學(xué)習(xí),同時(shí)針對(duì)硅進(jìn)行優(yōu)化!彼膶(shí)驗(yàn)室開(kāi)發(fā)了 NorthPole,它不是通過(guò)晶體管物理學(xué)模擬神經(jīng)元和突觸的現(xiàn)象,而是以數(shù)字方式捕捉它們的近似數(shù)學(xué)。NorthPole 采用公理化設(shè)計(jì),并融合了受大腦啟發(fā)的低精度;分布式、模塊化、核心陣列,在核心內(nèi)部和核心之間具有大規(guī)模計(jì)算并行性;近計(jì)算內(nèi)存;以及片上網(wǎng)絡(luò)。NorthPole 還從 TrueNorth 的脈沖神經(jīng)元和異步設(shè)計(jì)轉(zhuǎn)變?yōu)橥皆O(shè)計(jì)。

TrueNorth是一款實(shí)驗(yàn)性處理器,也是更為復(fù)雜且可供商業(yè)化的 NorthPole 的早期跳板。對(duì)于這款處理器,莫德哈和他的團(tuán)隊(duì)意識(shí)到,事件驅(qū)動(dòng)的脈沖使用硅基晶體管的效率很低。大腦中的神經(jīng)元以大約 10 赫茲(每秒 10 次)的頻率發(fā)射,而當(dāng)今的晶體管以千兆赫為單位運(yùn)行 - IBM 的 Z 16 中的晶體管以 5 GHz 運(yùn)行,MacBook 的六核 Intel Core i7 中的晶體管以 2.6 GHz 運(yùn)行。如果人腦中的突觸以與筆記本電腦相同的速率運(yùn)作,“我們的大腦就會(huì)爆炸”,賽義德說(shuō)。在諸如 Hermes 之類(lèi)的神經(jīng)形態(tài)計(jì)算機(jī)芯片中 - 或受大腦啟發(fā)的芯片(如 NorthPole)中,目標(biāo)是將數(shù)據(jù)處理方式的生物啟發(fā)與 AI 應(yīng)用程序所需的高帶寬操作相結(jié)合。

由于他們選擇放棄類(lèi)似神經(jīng)元的脈沖和其他模仿大腦物理的特征,莫德哈表示,他的團(tuán)隊(duì)更傾向于使用“大腦啟發(fā)”計(jì)算一詞,而不是“神經(jīng)形態(tài)”。他預(yù)計(jì) NorthPole 有很大的發(fā)展空間,因?yàn)樗麄兛梢砸约償?shù)學(xué)和以應(yīng)用為中心的方式調(diào)整架構(gòu),以獲得更多收益,同時(shí)還可以利用硅片的擴(kuò)展和從用戶反饋中吸取的教訓(xùn)。數(shù)據(jù)顯示,他們的策略奏效了:在莫德哈團(tuán)隊(duì)的最新成果中,NorthPole 對(duì) 30 億參數(shù)模型的推理速度比下一個(gè)最節(jié)能的 GPU 快 46.9 倍,能效比下一個(gè)最低延遲的 GPU 高 72.7 倍。

邊緣思考:神經(jīng)形態(tài)計(jì)算應(yīng)用

Syed 表示,研究人員可能仍在定義什么是神經(jīng)形態(tài)計(jì)算,或者構(gòu)建大腦啟發(fā)電路的最佳方法,但他們傾向于認(rèn)為它非常適合邊緣應(yīng)用手機(jī)、自動(dòng)駕駛汽車(chē)和其他可以利用預(yù)先訓(xùn)練的模型進(jìn)行快速、高效的 AI 推理的應(yīng)用。Sebastian 表示,在邊緣使用 PCM 芯片的一個(gè)好處是,它們可以非常小巧、性能高且價(jià)格低廉。

Modha 表示,機(jī)器人應(yīng)用可能非常適合大腦啟發(fā)式計(jì)算,以及視頻分析,例如店內(nèi)安全攝像頭。Bragaglia 表示,將神經(jīng)形態(tài)計(jì)算應(yīng)用于邊緣應(yīng)用可以幫助解決數(shù)據(jù)隱私問(wèn)題,因?yàn)樵O(shè)備內(nèi)推理芯片意味著數(shù)據(jù)不需要在設(shè)備之間或云端來(lái)回傳輸,即可進(jìn)行 AI 推理。

無(wú)論最終哪種腦啟發(fā)式處理器或神經(jīng)形態(tài)處理器勝出,研究人員也一致認(rèn)為,目前的 AI 模型過(guò)于復(fù)雜,無(wú)法在傳統(tǒng) CPU 或 GPU 上運(yùn)行。需要有新一代電路來(lái)運(yùn)行這些龐大的模型。

“這是一個(gè)非常激動(dòng)人心的目標(biāo),”Bragaglia說(shuō)!斑@非常困難,但非常令人興奮。而且它正在進(jìn)展中!

*聲明:本文系原作者創(chuàng)作。文章內(nèi)容系其個(gè)人觀點(diǎn),我方轉(zhuǎn)載僅為分享與討論,不代表我方贊成或認(rèn)同,如有異議,請(qǐng)聯(lián)系后臺(tái)。

贊助本站

相關(guān)內(nèi)容
AiLab云推薦
推薦內(nèi)容
展開(kāi)

熱門(mén)欄目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能實(shí)驗(yàn)室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動(dòng)態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機(jī)會(huì) | 展會(huì)港