比人腦快200倍!全球最大神經(jīng)擬態(tài)系統(tǒng)誕生:內(nèi)置1152顆Loihi 2芯片
當(dāng)?shù)貢r間4月17日,芯片大廠英特爾(Intel)公司宣布,其已經(jīng)建立了世界上最大的神經(jīng)擬態(tài)系統(tǒng),擁有11.5 億個神經(jīng)元和1280億個突觸,速度最高可達(dá)人腦的 200 倍。
這個代號為 Hala Point 的大型神經(jīng)擬態(tài)系統(tǒng)最初部署在桑迪亞國家實驗室,采用英特爾的 Loihi 2 處理器,旨在支持未來類腦人工智能 (AI) 的研究,并應(yīng)對與當(dāng)今人工智能的效率和可持續(xù)性相關(guān)的挑戰(zhàn)。
據(jù)介紹,Hala Point 推進(jìn)了英特爾的第一代大規(guī)模研究系統(tǒng) Pohoiki Springs,并進(jìn)行了架構(gòu)改進(jìn),實現(xiàn)了 10 倍以上的神經(jīng)元容量提升和高達(dá)12倍的性能提升。
英特爾研究院神經(jīng)擬態(tài)計算實驗室主任Mike Davies表示:“當(dāng)今人工智能模型的計算成本正在以不可持續(xù)的速度增長。該行業(yè)需要能夠擴展的全新方法。出于這個原因,我們開發(fā)了 Hala Point,它將深度學(xué)習(xí)效率與新穎的類腦學(xué)習(xí)和優(yōu)化功能相結(jié)合。我們希望與Hala Point的研究能夠提高大規(guī)模人工智能技術(shù)的效率和適應(yīng)性?!?/p>
Hala Point:集成了1152 個 Loihi 2 和 2300 多個嵌入式 x86 處理器
據(jù)介紹,Loihi 2 神經(jīng)擬態(tài)處理器是 Hala Point 的基礎(chǔ),它應(yīng)用了類腦計算原理,例如異步、基于事件的脈沖神經(jīng)網(wǎng)絡(luò) (SNN)、集成內(nèi)存和計算,以及稀疏且不斷變化的連接,以實現(xiàn)能耗和性能的數(shù)量級提升。神經(jīng)元直接相互通信,而不是通過內(nèi)存進(jìn)行通信,從而降低了整體功耗。
Loihi 2基于Intel 4工藝,核心面積31mm?,集成了128個Neuromorphic Core(每個核心擁有192KB緩存) 和 6個低功耗的英特爾X86核心,得益于制程工藝的大幅提升,Loihi 2的神經(jīng)元數(shù)量提升到了100萬個,是第一代的7.8倍,不過突觸數(shù)量略微降低至1.2億個。
Loihi 2可以根據(jù)神經(jīng)元模型要求,最高分配4096個變量狀態(tài)。這些方面的提升,使得Loihi的處理速度達(dá)到第一代Loihi 的10 倍。
Hala Point 將 1152 個在Intel 4 工藝節(jié)點上生產(chǎn)的 Loihi 2 處理器封裝在一個微波爐大小的六機架單元數(shù)據(jù)中心機箱中。該系統(tǒng)支持多達(dá) 11.5 億個神經(jīng)元和 1280 億個突觸,分布在 140,544 個神經(jīng)擬態(tài)處理核心上,最大功耗為 2,600 瓦。它還包括 2,300 多個嵌入式 x86 處理器,用于輔助計算。
Hala Point 將處理、內(nèi)存和通信通道集成到大規(guī)模并行化結(jié)構(gòu)中,提供總計 16 PB/s 的內(nèi)存帶寬、3.5 PB/s 的核心間通信帶寬和 5 TB/s 的芯片間通信帶寬。該系統(tǒng)每秒可以處理超過 380 萬億個 8 位突觸和超過 240 萬億次神經(jīng)元操作。
應(yīng)用于仿生脈沖神經(jīng)網(wǎng)絡(luò)模型當(dāng)中,Hala Point系統(tǒng)可以執(zhí)行其 11.5 億個神經(jīng)元的全部容量,速度比人腦快 20 倍,在較低容量下的速度最高可達(dá) 200 倍。雖然Hala Point不用于神經(jīng)科學(xué)建模,但它的神經(jīng)元容量大致相當(dāng)于貓頭鷹或卷尾猴的大腦皮層。
基于 Loihi 的系統(tǒng)可以執(zhí)行 AI 推理并解決優(yōu)化問題,使用比傳統(tǒng) CPU 和 GPU 架構(gòu)快 100 倍的能量和 50 倍的速度,通過利用高達(dá) 10:1 的稀疏連接和事件驅(qū)動的活動,Hala Point 的早期結(jié)果表明,該系統(tǒng)可以實現(xiàn)高達(dá) 15 TOPS/W 的深度神經(jīng)網(wǎng)絡(luò)效率無需批量收集輸入數(shù)據(jù),這是 GPU 的常見優(yōu)化,可顯著延遲實時到達(dá)的數(shù)據(jù)(例如來自攝像頭的視頻)的處理。
雖然仍在研究中,但未來能夠持續(xù)學(xué)習(xí)的神經(jīng)擬態(tài) LLM 可以通過消除對不斷增長的數(shù)據(jù)集進(jìn)行定期重新訓(xùn)練的需要來節(jié)省千兆瓦時的能源。
英特爾表示,Hala Point 是第一個在主流 AI 工作負(fù)載上展示最先進(jìn)計算效率的大型神經(jīng)擬態(tài)系統(tǒng)。
表征表明,在執(zhí)行傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)時,它可以支持高達(dá)每秒 20 萬億次操作,即 20 petaops,效率超過 15 萬億次8bit操作/秒/瓦(TOPS/W)。這可媲美并超過基于圖形處理單元 (GPU) 和中央處理器 (CPU) 構(gòu)建的架構(gòu)所達(dá)到的水平。
Hala Point的獨特功能可以為人工智能應(yīng)用提供未來的實時持續(xù)學(xué)習(xí),如科學(xué)和工程問題解決、物流、智慧城市基礎(chǔ)設(shè)施管理、大型語言模型(LLM)和人工智能代理。
Hala Point的作用與重要性
桑迪亞國家實驗室的研究人員計劃將Hala Point用于先進(jìn)的大腦規(guī)模計算研究。該組織將專注于解決設(shè)備物理、計算機體系結(jié)構(gòu)、計算機科學(xué)和信息學(xué)中的科學(xué)計算問題。
“與 Hala Point 合作提高了我們 Sandia 團(tuán)隊解決計算和科學(xué)建模問題的能力。使用這種規(guī)模的系統(tǒng)進(jìn)行研究將使我們能夠跟上人工智能在從商業(yè)到國防再到基礎(chǔ)科學(xué)等領(lǐng)域的發(fā)展步伐,“桑迪亞國家實驗室Hala Point團(tuán)隊負(fù)責(zé)人Craig Vineyard說。
目前,Hala Point是一個研究原型,將提高未來商業(yè)系統(tǒng)的能力。英特爾預(yù)計,這些經(jīng)驗教訓(xùn)將帶來實際的進(jìn)步,例如LLM能夠不斷從新數(shù)據(jù)中學(xué)習(xí)。這些進(jìn)步有望大大減輕廣泛部署人工智能帶來的不可持續(xù)的培訓(xùn)負(fù)擔(dān)。
最近將深度學(xué)習(xí)模型擴展到數(shù)萬億個參數(shù)的趨勢暴露了人工智能面臨的令人生畏的可持續(xù)性挑戰(zhàn),并強調(diào)了在最低硬件架構(gòu)級別進(jìn)行創(chuàng)新的必要性。
神經(jīng)擬態(tài)計算是一種全新的方法,它借鑒了神經(jīng)科學(xué)的見解,將內(nèi)存和計算與高度精細(xì)的并行性集成在一起,以最大限度地減少數(shù)據(jù)移動。在本月的聲學(xué)、語音和信號處理國際會議 (ICASSP) 上發(fā)表的結(jié)果中,Loihi 2 展示了新興小規(guī)模邊緣工作負(fù)載的效率、速度和適應(yīng)性提升幾個數(shù)量級的提升。
Hala Point 在其前身 Pohoiki Springs 的基礎(chǔ)上進(jìn)行了大量改進(jìn),現(xiàn)在為主流傳統(tǒng)深度學(xué)習(xí)模型帶來了神經(jīng)擬態(tài)性能和效率提升,尤其是那些處理視頻、語音和無線通信等實時工作負(fù)載的模型。例如,愛立信研究公司正在應(yīng)用Loihi 2來優(yōu)化電信基礎(chǔ)設(shè)施的效率,正如今年世界移動通信大會所強調(diào)的那樣。
據(jù)英特爾介紹,接下來,Hala Point 將向桑迪亞國家實驗室的交付標(biāo)志著英特爾計劃與其研究合作者共享的新型大型神經(jīng)擬態(tài)研究系統(tǒng)系列的首次部署。進(jìn)一步的開發(fā)將使神經(jīng)擬態(tài)計算應(yīng)用能夠克服功耗和延遲限制,這些限制限制了人工智能功能在現(xiàn)實世界中的實時部署。
英特爾與由 200 多個英特爾神經(jīng)擬態(tài)研究社區(qū) (INRC) 成員組成的生態(tài)系統(tǒng)(包括全球領(lǐng)先的學(xué)術(shù)團(tuán)體、政府實驗室、研究機構(gòu)和公司)一起,致力于推動類腦 AI 的界限,并在未來幾年內(nèi)將這項技術(shù)從研究原型發(fā)展為行業(yè)領(lǐng)先的商業(yè)產(chǎn)品。
本站所有文章、數(shù)據(jù)、圖片均來自互聯(lián)網(wǎng),一切版權(quán)均歸源網(wǎng)站或源作者所有。
如果侵犯了你的權(quán)益請來信告知我們刪除。郵箱:business@qudong.com