Alibaba dévoile Qwen2.5-Max : un modèle linguistique MoE à grande échelle

2025-01-28
Alibaba dévoile Qwen2.5-Max : un modèle linguistique MoE à grande échelle

Alibaba a dévoilé Qwen2.5-Max, un modèle linguistique Mixture-of-Experts (MoE) à grande échelle, pré-entraîné sur plus de 20 000 milliards de jetons et affiné avec un apprentissage supervisé et un apprentissage par renforcement à partir de retours humains. Des benchmarks comme MMLU-Pro, LiveCodeBench, LiveBench et Arena-Hard montrent que Qwen2.5-Max surpasse des modèles tels que DeepSeek V3. Le modèle est accessible via Qwen Chat et une API Alibaba Cloud. Cette publication représente une avancée significative dans la mise à l'échelle des grands modèles linguistiques et ouvre la voie à de futures améliorations de l'intelligence du modèle.