在人工智能竞赛进入“下半场”的今天,模型性能的比拼已不再是唯一焦点,高效、低成本、强推理能力正成为定义下一代AI核心竞争力的关键。6月17日,上海AI独角兽企业MiniMax正式发布其自主研发的MiniMax-M1系列模型。
据了解,M1被定义为“全球首个开源的大规模混合架构推理模型”,技术报告显示,M1模型在处理百万级Token的长文本上实现了重大突破;其RL(强化训练)成本下降一个量级,成本仅53万美金;在工具使用场景(TAU-bench)中,MiniMax-M1-40k同样领跑所有开源权重模型。
除了开源模型权重,MiniMax的API服务也具有较高性价比。
具体来看,其API服务根据上下文长度分为三档:对于0-32k Token以内,定价为输入0.8元/百万Token、输出8元/百万Token;对于32k至128k Token的较长文本,定价为输入1.2元/百万Token、输出16元/百万Token;而对于128k至1M Token的超长文本处理,定价则为输入2.4元/百万Token、输出24元/百万Token。
前两个档位的定价均低于DeepSeek-R1,而第三个超长文本档位则是DeepSeek模型目前尚未覆盖的领域。此外,MiniMax宣布,在其自有的App和Web端,M1模型将保持不限量免费使用,这将有效推动技术的普及和应用。
好性能与低成本,源于M1的两大核心技术创新:线性注意力机制(Lightning Attention)混合架构和更快的强化学习算法CISPO。
首先,Lightning Attention混合架构是实现百万级上下文窗口的关键。它有效解决了传统Transformer模型在处理长序列时计算量呈平方级增长的瓶颈,显著优化了长文本输入的计算效率。
报告指出,在处理8万Token的深度推理时,M1所需的算力仅为DeepSeek R1的约30%;而在生成10万Token时,推理算力更是低至DeepSeek R1的25%,这种效率提升,转化为训练和推理阶段的成本优势。
其次,CISPO强化学习算法通过优化采样权重,而非传统方式调整Token,大幅提升了学习效率和稳定性。得益于此,M1模型的整个强化学习阶段仅用512块英伟达H800 GPU、耗时三周,成本便控制在53.5万美元。MiniMax官方表示,这一成本“比最初的预期少了一个数量级”。
业内人士认为,M1系列模型的推出,不仅为开发者提供了高性能、低门槛的新选择,更证明了通过技术创新可以有效打破“算力-资本”的壁垒。这种“卷成本、卷效率”的竞争模式,将倒逼更多模型厂商走向真正的技术驱动和价值创造。
更新时间:2025-06-19
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号