玩弄放荡人妇系列av在线网站,日韩黄片,人人妻人人添人人爽,欧美一区,日本一区二区三区在线 |观看,日本免费a级毛一片

您當(dāng)前的位置: 首頁 > 新聞 > 其他

騰訊發(fā)布開源MoE大語言模型Hunyuan-large:總參數(shù)398B為業(yè)內(nèi)最大

來源:快科技 編輯:非小米 時間:2024-11-05 17:40人閱讀

快科技11月5日消息,騰訊今日宣布推出業(yè)界參數(shù)規(guī)模最大、效果最好的開源MoE大語言模型Hunyuan-Large。

Huanyuan-large模型的總參數(shù)量為389B、激活參數(shù)為52B、訓(xùn)練token數(shù)量為7T、最大上下文長度為256K、詞表大小為12.8w。

在技術(shù)創(chuàng)新方面,Hunyuan-large通過高質(zhì)量的合成數(shù)據(jù)來增強模型訓(xùn)練,彌補了自然數(shù)據(jù)的不足。

其中,該模型預(yù)訓(xùn)練支持處理高達(dá)256K的文本序列,大幅提升了長文本上下文的處理能力,能夠更高效地完成長文本任務(wù)。

騰訊發(fā)布開源MoE大語言模型Hunyuan-large:總參數(shù)398B為業(yè)內(nèi)最大

據(jù)了解,Hunyuan-large在CMMLU、MMLU、CEva1、MATH等多學(xué)科綜合評測集上表現(xiàn)優(yōu)異,在中英文自然語言處理、代碼生成、數(shù)學(xué)運算等9大能力維度中全面領(lǐng)先,超越了Llama3.1和Mixtral等一流開源模型。

此外,騰訊還宣布將推出自研的長文評測集“企鵝卷軸(PenguinScrolls)”,以填補行業(yè)在真實長文評測集上的空白。

企鵝卷軸基于公開的金融、法律、學(xué)術(shù)論文等長文本構(gòu)建,文本長度從1K到128K不等,覆蓋深度閱讀理解和長文推理任務(wù)。

騰訊發(fā)布開源MoE大語言模型Hunyuan-large:總參數(shù)398B為業(yè)內(nèi)最大

本站所有文章、數(shù)據(jù)、圖片均來自互聯(lián)網(wǎng),一切版權(quán)均歸源網(wǎng)站或源作者所有。

如果侵犯了你的權(quán)益請來信告知我們刪除。郵箱:business@qudong.com

標(biāo)簽: 騰訊 混元大模型

相關(guān)文章