玩弄放荡人妇系列av在线网站,日韩黄片,人人妻人人添人人爽,欧美一区,日本一区二区三区在线 |观看,日本免费a级毛一片

您當(dāng)前的位置: 首頁 > 新聞 > 其他

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

來源:量子位   編輯:非小米 時間:2024-02-01 15:24人閱讀

Mistral-Medium竟然意外泄露?此前僅能通過API獲得,性能直逼GPT-4。

CEO最新發(fā)聲:確有其事,系早期客戶員工泄露。但仍表示敬請期待。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

換句話說,這個版本尚且還是舊的,實(shí)際版本性能還會更好。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

這兩天,這個名叫“Miqu”的神秘模型在大模型社區(qū)里炸了鍋,不少人還懷疑這是LIama的微調(diào)版本。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

對此Mistral CEO也做出了解釋, Mistral Medium是在Llama 2基礎(chǔ)上重新訓(xùn)練的,因?yàn)樾璞M快向早期客戶提供更接近GPT-4性能的API, 預(yù)訓(xùn)練在Mistral 7B發(fā)布當(dāng)天完成。

如今真相大白,CEO還賣關(guān)子,不少網(wǎng)友在底下戳戳手期待。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

Mistral-Medium意外泄露

我們還是重新來回顧一下整個事件。1月28日,一個名叫Miqu Dev的神秘用戶在HuggingFace上發(fā)布一組文件“miqu-1-70b”。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

文件指出新LLM的“提示格式”以及用戶交互方式同Mistral相同。

同一天,4chan上一個匿名用戶發(fā)布了關(guān)于miqu-1-70b文件的鏈接。

于是乎一些網(wǎng)友注意到了這個神秘的模型,并且開始進(jìn)行一些基準(zhǔn)測試。

結(jié)果驚人發(fā)現(xiàn),它在EQ-Bench 上獲得83.5 分(本地評估),超過世界上除GPT-4之外的所有其他大模型。

一時間,網(wǎng)友們強(qiáng)烈呼吁將這個大模型添加到排行榜中,并且找出背后的真實(shí)模型。

大致懷疑方向主要有三個:

與Mistral-Medium是同一個模型。

有網(wǎng)友曬出了對比效果:它知道標(biāo)準(zhǔn)答案還說得過去,但不可能連俄語措辭也跟Mistral-Medium完全相同吧。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

Miqu應(yīng)該是LIama 2的微調(diào)版本。

但另外的網(wǎng)友發(fā)現(xiàn),它并不是MoE模型,并且同LIama 2架構(gòu)相同、參數(shù)相同、層數(shù)相同,。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

不過馬上就受到其他網(wǎng)友的質(zhì)疑,Mistral 7b也具有與 llama 7B 相同的參數(shù)和層數(shù)。

相反,這更像是Mistral早期非MoE版本模型。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

不過討論來討論去,不可否認(rèn)的是在不少人心中,這已經(jīng)是最接近GPT-4的模型了。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

如今,Mistral 聯(lián)合創(chuàng)始人兼首席執(zhí)行官 Arthur Mensch承認(rèn)泄露,是他們一位早期客戶員工過于熱情,泄露了他們訓(xùn)練并公開發(fā)布的一個舊模型量化版本。

至于Perplexity這邊CEO也澄清說,他們從未獲得過Mistral Medium的權(quán)重。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

網(wǎng)友擔(dān)心是否會撤下這個版本。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

有趣的是,Mensch并沒有要求刪除HuggingFace上的帖子。

媲美GPT-4的開源模型泄露!正式版本還會更強(qiáng)

而是留下評論說:可能會考慮歸屬問題。

參考鏈接:

[1]https://www.reddit.com/r/LocalLLaMA/comments/1af4fbg/llm_comparisontest_miqu170b/

[2]https://twitter.com/teortaxesTex/status/1752427812466593975

[3]https://twitter.com/N8Programs/status/1752441060133892503

[4]https://twitter.com/AravSrinivas/status/1752803571035504858

本站所有文章、數(shù)據(jù)、圖片均來自互聯(lián)網(wǎng),一切版權(quán)均歸源網(wǎng)站或源作者所有。

如果侵犯了你的權(quán)益請來信告知我們刪除。郵箱:business@qudong.com

標(biāo)簽: ChatGPT 小費(fèi)

相關(guān)文章