アリババ、大規模MoE言語モデルQwen2.5-Maxを発表

2025-01-28
アリババ、大規模MoE言語モデルQwen2.5-Maxを発表

アリババは、20兆トークン以上で事前学習され、教師ありファインチューニングと人間のフィードバックからの強化学習によってさらに洗練された、大規模なMixture-of-Experts (MoE)モデルであるQwen2.5-Maxを発表しました。MMLU-Pro、LiveCodeBench、LiveBench、Arena-Hardなどのベンチマークで、Qwen2.5-MaxはDeepSeek V3などの他のモデルを上回ることが示されています。このモデルは、Qwen ChatとアリババクラウドAPIを通じてアクセスできます。このリリースは、大規模言語モデルのスケーリングにおける重要な進歩を表しており、将来のモデルインテリジェンスの向上への道を拓きます。