來源:環(huán)球網(wǎng)

在人工智能競賽進(jìn)入“下半場”的今天,模型性能的比拼已不再是唯一焦點(diǎn),高效、低成本、強(qiáng)推理能力正成為定義下一代AI核心競爭力的關(guān)鍵。6月17日凌晨,總部位于上海的AI獨(dú)角獸企業(yè)MiniMax突然向開源社區(qū)投下一枚重磅炸彈,正式發(fā)布其自主研發(fā)的MiniMax-M1系列模型。

重磅開源!全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型MiniMax-M1發(fā)布

M1被定義為“全球首個開源的大規(guī)模混合架構(gòu)推理模型”,它不僅在多個核心生產(chǎn)力場景中展現(xiàn)出比肩甚至超越業(yè)界頂尖模型的實(shí)力,更以驚人的成本效益和技術(shù)創(chuàng)新,為AI的規(guī)模化應(yīng)用和未來發(fā)展路徑提供了全新的想象空間。

技術(shù)報告顯示,M1模型在處理百萬級Token的長文本上實(shí)現(xiàn)了重大突破,成為上下文最長的推理模型;其RL(強(qiáng)化訓(xùn)練)成本下降一個量級,成本僅53萬美金,推理效率則數(shù)倍于競爭對手;在工具使用場景(TAU-bench)中MiniMax-M1-40k同樣領(lǐng)跑所有開源權(quán)重模型,超過Gemini-2.5 Pro。毫無疑問,MiniMax-M1已經(jīng)成為Agent時代的首選開源基座模型。

重磅開源!全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型MiniMax-M1發(fā)布

(開源技術(shù)報告截圖)

市場影響:重塑性價比,倒逼行業(yè)“真開源”

“性能比肩DeepSeek-R1,性價比新王”、“又一次卷到硅谷了”……M1發(fā)布后,技術(shù)社區(qū)和行業(yè)觀察者迅速給出高度評價。除了關(guān)注模型參數(shù)以及長文本SOTA等技術(shù)指標(biāo),更有夸贊M1帶來的極致性價比。

(MiniMax-01模型發(fā)布快速引起海外X、Huggingface 等業(yè)內(nèi)人士關(guān)注)

MiniMax不僅開源了模型權(quán)重,還以極具競爭力的價格提供了API服務(wù)。其定價策略清晰地體現(xiàn)了其成本優(yōu)勢:

0-32k Token:輸入0.8元/百萬Token,輸出8元/百萬Token

32k-128k Token:輸入1.2元/百萬Token,輸出16元/百萬Token

128k-1M Token:輸入2.4元/百萬Token,輸出24元/百萬Token

前兩個檔位的定價均低于DeepSeek-R1,而第三個超長文本檔位則是DeepSeek模型目前尚未覆蓋的領(lǐng)域。此外,MiniMax宣布,在其自有的App和Web端,M1模型將保持不限量免費(fèi)使用,這無疑將極大地推動其技術(shù)的普及和應(yīng)用。

性能實(shí)測:生產(chǎn)力場景的“開源新王”

性能上,MiniMax在業(yè)內(nèi)公認(rèn)的17個主流評測集上對M1進(jìn)行了全面“大考”,結(jié)果顯示,M1在軟件工程、長文本理解和工具使用等面向生產(chǎn)力的復(fù)雜場景中,優(yōu)勢尤為突出。

代碼能力(SWE-bench):M1-40k和M1-80k版本分別取得了55.6%和56.0%的優(yōu)異成績,顯著超越其他所有開源模型,穩(wěn)居第一梯隊。

長文本(MRCR):依托百萬級上下文窗口,M1系列在此項任務(wù)中表現(xiàn)驚艷,不僅全面超越了所有開源對手,甚至擊敗了OpenAI的GPT-4o和Anthropic的Claude 3 Opus,在全球范圍內(nèi)僅以微弱差距落后于谷歌的Gemini 2.5 Pro,位列全球第二。

工具調(diào)用(TAU-bench):在模擬真實(shí)世界工具調(diào)用的復(fù)雜場景中,M1-40k模型再次領(lǐng)跑所有開源模型,其實(shí)力甚至超越了閉源的Gemini-2.5 Pro,展現(xiàn)了其作為AI智能體基座模型的巨大潛力。

值得注意的是,在絕大多數(shù)基準(zhǔn)測試中,擁有更長推理能力的M1-80k版本始終優(yōu)于M1-40k,這充分證明了其架構(gòu)在擴(kuò)展計算資源時的有效性和可塑性。

技術(shù)突破:線性注意力混合構(gòu)架與CISPO算法

MiniMax-M1的卓越性能,根植于其獨(dú)特的架構(gòu)設(shè)計和算法創(chuàng)新。其中,兩大核心技術(shù)——線性注意力機(jī)制(Lightning Attention)混合構(gòu)架和更快的強(qiáng)化學(xué)習(xí)算法CISPO,構(gòu)成了其高效能、低成本的基石。

線性注意力機(jī)制混合構(gòu)架:業(yè)內(nèi)最高的100萬上下文的輸入

長文本處理能力是衡量現(xiàn)代大模型先進(jìn)性的“試金石”。M1模型原生支持高達(dá)100萬Token的上下文窗口,這一數(shù)字與谷歌最新的Gemini 2.5 Pro持平,是國內(nèi)另一開源強(qiáng)手DeepSeek R1(12.8萬Token)的近8倍。同時,它還支持業(yè)內(nèi)最長的8萬Token推理輸出,為處理復(fù)雜文檔分析、長篇代碼生成等任務(wù)提供了前所未有的可能性。

重磅開源!全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型MiniMax-M1發(fā)布

實(shí)現(xiàn)這一突破的關(guān)鍵,在于MiniMax獨(dú)創(chuàng)的Lightning Attention混合構(gòu)架。傳統(tǒng)Transformer模型在處理長序列時,注意力機(jī)制的計算量會隨序列長度呈平方級增長,成為制約性能和成本的主要瓶頸。M1的混合架構(gòu),特別是注意力機(jī)制,能夠顯著優(yōu)化長下文輸入的計算效率。

重磅開源!全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型MiniMax-M1發(fā)布

報告提到,在進(jìn)行8萬Token的深度推理時,M1所需的算力僅為DeepSeek R1的約30%;生成10萬token時,推理算力只需要DeepSeek R1的25%。這種極致的效率提升,直接轉(zhuǎn)化為訓(xùn)練和推理階段巨大的成本優(yōu)勢。

CISPO算法:強(qiáng)化訓(xùn)練成本僅53.5萬美金

MiniMax此次提出的CISPO算法,另辟蹊徑,通過裁剪重要性采樣權(quán)重,而非傳統(tǒng)算法中調(diào)整Token的更新方式,來提升強(qiáng)化學(xué)習(xí)的效率和穩(wěn)定性。實(shí)驗數(shù)據(jù)顯示,在AIME(AI-powered Moral Evaluator)等測試中,CISPO的收斂性能比字節(jié)跳動近期提出的DAPO算法快一倍,也顯著優(yōu)于DeepSeek早期使用的GRPO算法。

重磅開源!全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型MiniMax-M1發(fā)布

更快的收斂意味著更少的訓(xùn)練時間和資源消耗。得益于CISPO的高效,M1模型的整個強(qiáng)化學(xué)習(xí)階段僅使用了512塊英偉達(dá)H800 GPU,耗時三周,成本僅為53.5萬美元。MiniMax官方表示,這一成本“比最初的預(yù)期少了一個數(shù)量級”,展示了其技術(shù)路線在成本控制上的巨大潛力。

重磅開源!全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型MiniMax-M1發(fā)布

(在 AIME 2024 測試集上,CISPO 的性能同比優(yōu)于 GRPO 和 DAPO)

分析人士認(rèn)為,MiniMax此舉將對國內(nèi)乃至全球的AI大模型市場產(chǎn)生深遠(yuǎn)影響。它不僅為開發(fā)者和企業(yè)提供了一個高性能、低門檻的新選擇,也用事實(shí)證明了通過技術(shù)創(chuàng)新可以有效打破“算力-資本”的壁壘。這種“卷成本、卷效率”的競爭模式,將倒逼更多模型廠商走向真正的技術(shù)驅(qū)動和價值創(chuàng)造,而非停留在參數(shù)和估值的虛假繁榮中。

重磅開源!全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型MiniMax-M1發(fā)布

開放與未來:一場為期五天的“技術(shù)風(fēng)暴”

MiniMax的雄心不止于發(fā)布一個模型。官方表示,完整的M1模型權(quán)重、技術(shù)報告均已在Hugging Face和GitHub上開放獲取。同時,公司正積極與國家超算平臺、vLLM等業(yè)界主流開源框架合作,以確保開發(fā)者能夠輕松、高效地部署和使用M1模型。

重磅開源!全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型MiniMax-M1發(fā)布

更令人期待的是,M1的發(fā)布僅僅是MiniMax“開源周”的序幕。在接下來的四個工作日里,MiniMax計劃每天發(fā)布一項新的技術(shù)或產(chǎn)品更新,持續(xù)為AI社區(qū)帶來驚喜。

標(biāo)題:重磅開源!全球首個開源大規(guī)?;旌霞軜?gòu)的推理模型MiniMax-M1發(fā)布

地址:http://www.sme-os.com/weixiu/291478.html