10月9日凌晨,螞蟻集團(tuán)發(fā)布萬億參數(shù)的通用語言模型 Ling-1T。Ling-1T是螞蟻百靈大模型Ling 2.0 系列的第一款旗艦?zāi)P停彩俏浵伆凫`團(tuán)隊迄今為止推出的規(guī)模最大、能力最強(qiáng)的非思考大模型。測評顯示,在有限輸出 Token 條件下,Ling-1T于多項復(fù)雜推理基準(zhǔn)中取得 SOTA 表現(xiàn),展示出在高效思考與精確推理之間的卓越平衡。另外,在代碼生成、軟件開發(fā)、競賽數(shù)學(xué)、專業(yè)數(shù)學(xué)、邏輯推理等多項高難度基準(zhǔn)測試上,Ling-1T 均取得領(lǐng)先成績,多項指標(biāo)位居開源模型的榜首。
以競賽數(shù)學(xué)榜單 AIME 25 (American Invitation Math Examination 25)為例,Ling-1T以平均4000+ Token的消耗達(dá)到了70.42%的準(zhǔn)確率,優(yōu)于Gemini-2.5-Pro(平均5000+ Token,準(zhǔn)確率70.10%)。Ling-1T用更少的Token實(shí)現(xiàn)了更高的準(zhǔn)確率,展現(xiàn)出在推理精度和思考效率綜合能力上的優(yōu)勢。

以 AIME 25 為例,Ling-1T 拓展了推理準(zhǔn)確率和平均推理長度的帕累托前沿
據(jù)螞蟻百靈團(tuán)隊透露,Ling-1T 沿用 Ling 2.0 架構(gòu),在 20T+ tokens 高質(zhì)量、高推理濃度的語料上完成預(yù)訓(xùn)練,支持最高 128K 上下文窗口,通過“中訓(xùn)練+后訓(xùn)練”的演進(jìn)式思維鏈(Evo-CoT)極大提升模型高效思考和精準(zhǔn)推理能力。
值得一提的是,Ling-1T 全程采用 FP8 混合精度訓(xùn)練(部分技術(shù)已開源),是目前已知規(guī)模最大的使用 FP8 訓(xùn)練的基座模型。這一設(shè)計為訓(xùn)練帶來了顯著的顯存節(jié)省、更靈活的并行切分策略和 15%+ 的端到端加速。
在強(qiáng)化學(xué)習(xí)階段,螞蟻百靈團(tuán)隊創(chuàng)新性地提出了LPO方法(Linguistics-Unit Policy Optimization,LingPO) ,這是一種以“句子”為粒度的策略優(yōu)化算法,為萬億參數(shù)模型的穩(wěn)定訓(xùn)練提供了關(guān)鍵支持。這種方法既避免了詞元級別的破碎感,也克服了序列級別的籠統(tǒng)性,使得獎勵信號與模型行為在語義層面實(shí)現(xiàn)了更精準(zhǔn)的對齊。
另外,螞蟻百靈團(tuán)隊提出了“語法-功能-美學(xué)”的混合獎勵機(jī)制,在確保代碼正確、功能完善的同時持續(xù)提升這個萬億基座對視覺美學(xué)的認(rèn)知。在 ArtifactsBench 前端能力基準(zhǔn)上,Ling-1T 得分59.31,在可視化和前端開發(fā)任務(wù)領(lǐng)域,僅次于Gemini-2.5-Pro-lowthink的得分60.28。并以顯著優(yōu)勢位居開源模型榜首。
