Alibaba präsentiert Qwen2.5-Max: Ein großes MoE-Sprachmodell

2025-01-28
Alibaba präsentiert Qwen2.5-Max: Ein großes MoE-Sprachmodell

Alibaba hat Qwen2.5-Max vorgestellt, ein großes Mixture-of-Experts (MoE)-Sprachmodell, das mit über 20 Billionen Token vortrainiert und mit überwachtem Feintuning und Reinforcement Learning aus menschlichem Feedback verfeinert wurde. Benchmarks wie MMLU-Pro, LiveCodeBench, LiveBench und Arena-Hard zeigen, dass Qwen2.5-Max Modelle wie DeepSeek V3 übertrifft. Das Modell ist über Qwen Chat und eine Alibaba Cloud API zugänglich. Diese Veröffentlichung stellt einen bedeutenden Fortschritt bei der Skalierung großer Sprachmodelle dar und ebnet den Weg für zukünftige Verbesserungen der Modellintelligenz.