來源:環球網
在人工智能競賽進入“下半場”的今天,模型性能的比拼已不再是唯一焦點,高效、低成本、強推理能力正成為定義下一代AI核心競爭力的關鍵。6月17日凌晨,總部位于上海的AI獨角獸企業MiniMax突然向開源社區投下一枚重磅炸彈,正式發布其自主研發的MiniMax-M1系列模型。
M1被定義為“全球首個開源的大規模混合架構推理模型”,它不僅在多個核心生產力場景中展現出比肩甚至超越業界頂尖模型的實力,更以驚人的成本效益和技術創新,為AI的規模化應用和未來發展路徑提供了全新的想象空間。
技術報告顯示,M1模型在處理百萬級Token的長文本上實現了重大突破,成為上下文最長的推理模型;其RL(強化訓練)成本下降一個量級,成本僅53萬美金,推理效率則數倍于競爭對手;在工具使用場景(TAU-bench)中MiniMax-M1-40k同樣領跑所有開源權重模型,超過Gemini-2.5 Pro。毫無疑問,MiniMax-M1已經成為Agent時代的首選開源基座模型。
(開源技術報告截圖)
市場影響:重塑性價比,倒逼行業“真開源”
“性能比肩DeepSeek-R1,性價比新王”、“又一次卷到硅谷了”……M1發布后,技術社區和行業觀察者迅速給出高度評價。除了關注模型參數以及長文本SOTA等技術指標,更有夸贊M1帶來的極致性價比。
(MiniMax-01模型發布快速引起海外X、Huggingface 等業內人士關注)
MiniMax不僅開源了模型權重,還以極具競爭力的價格提供了API服務。其定價策略清晰地體現了其成本優勢:
0-32k Token:輸入0.8元/百萬Token,輸出8元/百萬Token
32k-128k Token:輸入1.2元/百萬Token,輸出16元/百萬Token
128k-1M Token:輸入2.4元/百萬Token,輸出24元/百萬Token
前兩個檔位的定價均低于DeepSeek-R1,而第三個超長文本檔位則是DeepSeek模型目前尚未覆蓋的領域。此外,MiniMax宣布,在其自有的App和Web端,M1模型將保持不限量免費使用,這無疑將極大地推動其技術的普及和應用。
性能實測:生產力場景的“開源新王”
性能上,MiniMax在業內公認的17個主流評測集上對M1進行了全面“大考”,結果顯示,M1在軟件工程、長文本理解和工具使用等面向生產力的復雜場景中,優勢尤為突出。
代碼能力(SWE-bench):M1-40k和M1-80k版本分別取得了55.6%和56.0%的優異成績,顯著超越其他所有開源模型,穩居第一梯隊。
長文本(MRCR):依托百萬級上下文窗口,M1系列在此項任務中表現驚艷,不僅全面超越了所有開源對手,甚至擊敗了OpenAI的GPT-4o和Anthropic的Claude 3 Opus,在全球范圍內僅以微弱差距落后于谷歌的Gemini 2.5 Pro,位列全球第二。
工具調用(TAU-bench):在模擬真實世界工具調用的復雜場景中,M1-40k模型再次領跑所有開源模型,其實力甚至超越了閉源的Gemini-2.5 Pro,展現了其作為AI智能體基座模型的巨大潛力。
值得注意的是,在絕大多數基準測試中,擁有更長推理能力的M1-80k版本始終優于M1-40k,這充分證明了其架構在擴展計算資源時的有效性和可塑性。
技術突破:線性注意力混合構架與CISPO算法
MiniMax-M1的卓越性能,根植于其獨特的架構設計和算法創新。其中,兩大核心技術——線性注意力機制(Lightning Attention)混合構架和更快的強化學習算法CISPO,構成了其高效能、低成本的基石。
線性注意力機制混合構架:業內最高的100萬上下文的輸入
長文本處理能力是衡量現代大模型先進性的“試金石”。M1模型原生支持高達100萬Token的上下文窗口,這一數字與谷歌最新的Gemini 2.5 Pro持平,是國內另一開源強手DeepSeek R1(12.8萬Token)的近8倍。同時,它還支持業內最長的8萬Token推理輸出,為處理復雜文檔分析、長篇代碼生成等任務提供了前所未有的可能性。
實現這一突破的關鍵,在于MiniMax獨創的Lightning Attention混合構架。傳統Transformer模型在處理長序列時,注意力機制的計算量會隨序列長度呈平方級增長,成為制約性能和成本的主要瓶頸。M1的混合架構,特別是注意力機制,能夠顯著優化長下文輸入的計算效率。
報告提到,在進行8萬Token的深度推理時,M1所需的算力僅為DeepSeek R1的約30%;生成10萬token時,推理算力只需要DeepSeek R1的25%。這種極致的效率提升,直接轉化為訓練和推理階段巨大的成本優勢。
CISPO算法:強化訓練成本僅53.5萬美金
MiniMax此次提出的CISPO算法,另辟蹊徑,通過裁剪重要性采樣權重,而非傳統算法中調整Token的更新方式,來提升強化學習的效率和穩定性。實驗數據顯示,在AIME(AI-powered Moral Evaluator)等測試中,CISPO的收斂性能比字節跳動近期提出的DAPO算法快一倍,也顯著優于DeepSeek早期使用的GRPO算法。
更快的收斂意味著更少的訓練時間和資源消耗。得益于CISPO的高效,M1模型的整個強化學習階段僅使用了512塊英偉達H800 GPU,耗時三周,成本僅為53.5萬美元。MiniMax官方表示,這一成本“比最初的預期少了一個數量級”,展示了其技術路線在成本控制上的巨大潛力。
(在 AIME 2024 測試集上,CISPO 的性能同比優于 GRPO 和 DAPO)
分析人士認為,MiniMax此舉將對國內乃至全球的AI大模型市場產生深遠影響。它不僅為開發者和企業提供了一個高性能、低門檻的新選擇,也用事實證明了通過技術創新可以有效打破“算力-資本”的壁壘。這種“卷成本、卷效率”的競爭模式,將倒逼更多模型廠商走向真正的技術驅動和價值創造,而非停留在參數和估值的虛假繁榮中。
開放與未來:一場為期五天的“技術風暴”
MiniMax的雄心不止于發布一個模型。官方表示,完整的M1模型權重、技術報告均已在Hugging Face和GitHub上開放獲取。同時,公司正積極與國家超算平臺、vLLM等業界主流開源框架合作,以確保開發者能夠輕松、高效地部署和使用M1模型。
更令人期待的是,M1的發布僅僅是MiniMax“開源周”的序幕。在接下來的四個工作日里,MiniMax計劃每天發布一項新的技術或產品更新,持續為AI社區帶來驚喜。
標題:重磅開源!全球首個開源大規模混合架構的推理模型MiniMax-M1發布
地址:http://www.sme-os.com/weixiu/291478.html