MiniMax-M1:4560亿参数的混合注意力推理模型

2025-06-18
MiniMax-M1:4560亿参数的混合注意力推理模型

MiniMax-M1是一个具有4560亿参数的开放权重大型混合注意力推理模型,它结合了混合专家(MoE)架构和闪电注意力机制。与之前的MiniMax-Text-01模型一样,M1原生支持百万级token的上下文长度,并通过高效的强化学习训练,在数学推理、软件工程等复杂任务上超越了DeepSeek R1和Qwen3-235B等模型。其高效的测试时间计算能力使其成为下一代大型语言模型的强大基础。