終結(jié)閉源霸權(quán) Meta Llama 3.1橫空出世!Intel第一時(shí)間適配并提供加速
快科技7月25日消息,日前Meta正式發(fā)布了Llama 3.1開(kāi)源大模型,以其龐大的參數(shù)量和卓越性能,首次在多項(xiàng)基準(zhǔn)測(cè)試中擊敗了GPT-4o等業(yè)界領(lǐng)先的閉源模型。
允許開(kāi)發(fā)者自由地進(jìn)行微調(diào)、蒸餾,甚至在任何地方部署,這種開(kāi)放性為AI技術(shù)的普及和創(chuàng)新提供了無(wú)限可能。
Llama 3.1支持128k的上下文長(zhǎng)度和多語(yǔ)言能力,無(wú)論是在基本常識(shí)、可操作性還是數(shù)學(xué)、工具使用和多語(yǔ)言翻譯方面,都展現(xiàn)出了行業(yè)領(lǐng)先的能力。
緊隨其后,芯片巨頭Intel迅速響應(yīng),宣布其AI產(chǎn)品組合已全面適配Llama 3.1,并針對(duì)Intel AI硬件進(jìn)行了軟件優(yōu)化。
包括了數(shù)據(jù)中心、邊緣計(jì)算以及客戶端AI產(chǎn)品,確保用戶能夠在Intel平臺(tái)上獲得最佳的性能體驗(yàn)。
Intel的適配工作涵蓋了PyTorch及Intel PyTorch擴(kuò)展包、DeepSpeed、Hugging Face Optimum庫(kù)和vLLM等,確保了從研發(fā)到部署的全流程支持。
目前,Intel AI PC及數(shù)據(jù)中心AI產(chǎn)品組合和解決方案已面向全新Llama 3.1模型實(shí)現(xiàn)優(yōu)化,OPEA(企業(yè)AI開(kāi)放平臺(tái))亦在基于Intel至強(qiáng)等產(chǎn)品上全面啟用。
根據(jù)基準(zhǔn)測(cè)試,在第五代Intel至強(qiáng)平臺(tái)上以1K token輸入和128 token輸出運(yùn)行80億參數(shù)的Llama 3.1模型,可以達(dá)到每秒176 token的吞吐量,同時(shí)保持下一個(gè)token延遲小于50毫秒。
在配備了酷睿Ultra處理器和銳炫顯卡的AI PC上,進(jìn)行輕量級(jí)微調(diào)和應(yīng)用定制比以往更加容易,并且AI工作負(fù)載可無(wú)縫部署于CPU、GPU以及NPU上,同時(shí)實(shí)現(xiàn)性能優(yōu)化。
基于第五代Intel至強(qiáng)可擴(kuò)展處理器的Llama 3.1推理延遲
在配備內(nèi)置Intel銳炫顯卡的Intel酷睿Ultra 7 165H AI PC上,Llama 3.1推理的下一個(gè)token延遲
在使用Intel銳炫A770 16GB限量版顯卡的AI PC上,Llama 3.1推理的下一個(gè)token延遲
基于Llama 3.1的端到端RAG流水線,由Intel Gaudi 2加速器和至強(qiáng)處理器提供支持
本站所有文章、數(shù)據(jù)、圖片均來(lái)自互聯(lián)網(wǎng),一切版權(quán)均歸源網(wǎng)站或源作者所有。
如果侵犯了你的權(quán)益請(qǐng)來(lái)信告知我們刪除。郵箱:business@qudong.com