玩弄放荡人妇系列av在线网站,日韩黄片,人人妻人人添人人爽,欧美一区,日本一区二区三区在线 |观看,日本免费a级毛一片

您當前的位置: 首頁 > 新聞 > 其他

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一

來源:量子位   編輯:非小米 時間:2024-06-04 04:30人閱讀

OpenAI長期霸榜的SuperCLUE(中文大模型測評基準),終于被國產大模型反將一軍。

事情是這樣的。

自打SuperCLUE問世以來,成績第一的選手基本上要么是GPT-4,要么是GPT-4 Turbo,來感受一下這個feel:

(PS:共有6次成績,分別為2023年的9月-12月和2024年的2月、4月。)

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一
△圖源:SuperCLUE官方

但就在最近,隨著一位國產選手申請的出戰(zhàn),這一局面終是迎來了變數(shù)。

SuperCLUE團隊對其進行了一番全方位的綜合性測評,最終官宣的成績是:

總分80.03分,超過GPT-4 Turbo的79.13分,成績第一!

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一
△圖源:SuperCLUE官方公眾號

而這位國產大模型選手,正是來自商湯科技的日日新5.0(SenseChat V5)。

并且SuperCLUE還給出了這樣的評價:

刷新了國內大模型最好成績。

GPT-4 Turbo首次被擊敗!國產大模型拿下總分第一

那么商湯在SuperCLUE的這個“首次”,又是如何解鎖的呢?

綜合、文科國內外第一,理科國內第一

首先我們來看下這次官方所搭建“擂臺”的競技環(huán)境。

出戰(zhàn)選手:SenseChat V5(于5月11日提供的內測API版本)

評測集:SuperCLUE綜合性測評基準4月評測集,2194道多輪簡答題,包括計算、邏輯推理、代碼、長文本在內的基礎十大任務。

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一
△圖源:SuperCLUE官方報告

模型GenerationConfig配置:

temperature=0.01

repetition_penalty=1.0

top_p=0.8

max_new_tokens=2048

stream=false

至于具體的評測方法,SuperCLUE在已發(fā)布的相關報告中也有所披露:

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一
△圖源:SuperCLUE官方報告

以上就是SuperCLUE公開的競技環(huán)境配置。

至于結果,除了剛才我們提到的綜合成績之外,官方還從文科和理科兩個維度,再做了細分的評測。

SenseChat V5在文科上的成績依然是打破了國內大模型的紀錄——

以82.20分的成績位居第一,同樣超越了GPT-4 Turbo。

GPT-4 Turbo首次被擊敗!國產大模型拿下總分第一
△圖源:SuperCLUE官方公眾號

在理科成績上,雖然SenseChat V5此次并沒有超越GPT-4-Turbo(低了4.35分),但整體來看,依舊在國內大模型選手中首屈一指,位列國內第一。

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一
△圖源:SuperCLUE官方公眾號

除了文理科之外,SuperCLUE也還從國內和國外的整體平均水平上做了對比。

例如和國內大模型平均水平相比,其各項成績的“打開方式”是這樣的:

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一
△圖源:SuperCLUE官方公眾號

而在與國外選手做性能對比時,我們可以明顯看到SenseChat V5文科能力優(yōu)于國外選手,數(shù)理能力也非常優(yōu)秀,代碼能力依然有提升空間。

GPT-4 Turbo首次被擊敗!國產大模型拿下總分第一

GPT-4 Turbo首次被擊?。a大模型拿下總分第一
△圖源:SuperCLUE官方公眾號

不過有一說一,評測分數(shù)定然是代表大模型性能的一方面,但在應用為王的當下,更重要的一點或許就得看用的效果了。

實測SenseChat V5

SenseChat V5早在4月底便已經集成到了“商量”在線的對話應用中,因此我們現(xiàn)在就可以出題對它做一番考驗。

在邏輯測試方面,帶有文字陷阱的腦筋急轉彎,可以說是測試一個AI能力很好的例子,比如:

《紅樓夢》全書有百萬字,“紅樓夢”有幾個字?

若是仔細觀察這句話,不難發(fā)現(xiàn)其實句子前后并沒有太大的關聯(lián),是一個比較典型的腦筋急轉彎。

對此,SenseChat V5給出的答案是:

《紅樓夢》作為中國古典文學的巔峰之作,其全文字數(shù)大約在70萬到80萬字之間,具體字數(shù)根據(jù)不同版本稍有差異。而標題“紅樓夢”這三個字,自然是只有三個字。這個標題凝練而富有深意,象征著作品的夢幻色彩和對封建家族興衰的深刻反思。

GPT-4 Turbo首次被擊?。a大模型拿下總分第一

我們可以看到SenseChat V5不僅找出了問題的陷阱并做出了分析,給出的答案也是正確的。

對于數(shù)學的能力,我們設置了這樣的一個問題:

假設有一個池塘,里面有無窮多的水?,F(xiàn)有2個空水壺,容積分別為5升和6升。如何只用這2個水壺從池塘里取得3升的水。

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一

同樣的,SenseChat V5依舊是給出了每一個詳細的步驟和分析,并得到了最終結果。

更直接的數(shù)學問題,例如找數(shù)字之間的規(guī)律,SenseChat V5也是信手拈來:

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一

在中文理解方面,即使是給SenseChat V5一大段文言文,并且上難度連環(huán)發(fā)問,它是否可以hold得?。?/p>

請看結果:

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一

最后,有請“弱智吧Benchmark”:

網吧能上網,為什么弱智吧不能上弱智?

GPT-4 Turbo首次被擊敗!國產大模型拿下總分第一

嗯,確實是有點實力在身上的。

如何做到的?

其實對于這個問題,商湯在4月底將自家日日新大模型SenseNova版本迭代到5.0之際,就已經有所透露;當時商湯鎖定的定位就是全面對標GPT-4 Turbo。

具體到技術,可以分為三大方面:

采用MoE架構

基于超過10TB tokens訓練,擁有大量合成數(shù)據(jù)

推理上下文窗口達到200K

首先,為了突破數(shù)據(jù)層面的瓶頸,商湯科技使用了超過10T的tokens,確保了高質量數(shù)據(jù)的完整性,使得大模型對客觀知識和世界有了基本的認知。

商湯還生成了數(shù)千億tokens的思維鏈數(shù)據(jù),這是此次數(shù)據(jù)層面創(chuàng)新的關鍵,能夠激發(fā)大模型的強大推理能力。

其次,在算力層面,商湯科技通過聯(lián)合優(yōu)化算法設計和算力設施來提升性能:算力設施的拓撲極限用于定義下一階段的算法,而算法的新進展又反過來指導算力設施的建設。

這也是商湯AI大裝置在算法和算力聯(lián)合迭代上的核心優(yōu)勢。

GPT-4 Turbo首次被擊?。a大模型拿下總分第一

在其它細節(jié)方面,例如訓練策略上的創(chuàng)新,商湯將訓練過程分為三個大階段(預訓練、監(jiān)督微調、RLHF)和六個子階段,每個階段專注于提升模型的特定能力。

例如,單是在預訓練這個階段,又可以細分為三個子階段:初期聚焦于語言能力和基礎常識的積累,中期擴展知識基礎和長文表達能力,后期則通過超長文本和復雜思維數(shù)據(jù)進一步拔高模型能力。

因此在預訓練結束之際,整個模型就已經擁有了較高水平的基礎能力;但此時它的交互能力卻還沒有被激發(fā)出來,也就來到了第二階段的監(jiān)督微調(SFT)和第三階段的人類反饋強化學習(RLHF)。

整體可以理解為先培養(yǎng)模型遵循指令和解決問題的能力,再調節(jié)其表達風格以更貼近人類的表達方式。接著,通過多維度的人類反饋強化學習過程,進一步改進模型的表達方式和安全性。

除此之外,商湯對于大模型的能力還有獨到的三層架構(KRE)的理解。

GPT-4 Turbo首次被擊??!國產大模型拿下總分第一

首先是在知識,是指世界知識的全面灌注。

目前大模型等新質生產力工具近乎都是基于此來解決問題,也就是根據(jù)前人已經解決過的問題的方案,來回答你的問題。

這可以認為是大模型能力的基本功,但更為高階的知識,應當是基于這樣能力下推理得到的新知識,這也就是這個架構的第二層——推理,即理性思維的質變提升。

這一層的能力是可以決定大模型是否夠聰明、是否可以舉一反三的關鍵和核心。

再在此之上,便是執(zhí)行,是指世界內容的交互變革,也就是如何跟真實世界產生互動(就目前而言,具身智能在這一層是潛力股般的存在)。

三者雖相互獨立,但層與層之間也是緊密關聯(lián),打一個較為形象的比喻就是“知識到推理是像大腦,推理到執(zhí)行則像小腦”。

在商湯看來,這三層的架構是大模型應當具備的能力,而這也正是啟發(fā)商湯構建高質量數(shù)據(jù)的關鍵。

One More Thing

其實對于大模型測評這事,業(yè)界質疑的聲音也是層出不窮,認為是“刷分”、“刷榜”、“看效果才是最重要的”。

對于這樣敏感的問題,商湯在與量子位的交流過程中也是直面并給出了他們的看法:

無論從用戶選擇合適模型的角度,還是從研究者進行操作研究的需要來看,對模型能力的評價是必不可少的。

這不僅幫助用戶和研究者了解不同模型的性能,也是推動模型發(fā)展的關鍵因素。

如果只針對一個公開的評測集進行優(yōu)化(即刷分),是有可能提高模型在該評測集上的分數(shù)的。

評測不應只依賴單一數(shù)據(jù)集,而應通過多個評測集和第三方閉卷考試等方式相互印證,以此來得到更全面、更有說服力的模型性能評估。

以及對于國內近期各個大模型廠商正打得熱火朝天的價格戰(zhàn),商湯將眼光放在了提供更深的端到端產品價值上,特別是在具備無限潛力且與生活應用更接近的移動端上,通過端云協(xié)同實現(xiàn)更優(yōu)的計算成本但不損害模型的綜合能力。

這或許暗示了商湯將通過技術創(chuàng)新和優(yōu)化成本結構,為未來可能入局的價格競爭做好了自己的規(guī)劃。

參考鏈接:

[1]https://www.superclueai.com/

[2]https://mp.weixin.qq.com/s/3pfOKtG6ar2h2fR6Isv_Xw

本站所有文章、數(shù)據(jù)、圖片均來自互聯(lián)網,一切版權均歸源網站或源作者所有。

如果侵犯了你的權益請來信告知我們刪除。郵箱:business@qudong.com

標簽: GPT-4 GPT-4 Turbo

相關文章