علي بابا تكشف النقاب عن نموذج Qwen2.5-Max: نموذج لغوي ضخم من نوع MoE
2025-01-28
أعلنت شركة علي بابا عن إطلاقها لنموذج Qwen2.5-Max، وهو نموذج لغوي ضخم من نوع Mixture-of-Experts (MoE) تم تدريبه مسبقًا على أكثر من 20 تريليون رمز، ثم تم تنقيحه باستخدام ضبط دقيق تحت إشراف وتعلم تقوية من خلال ردود فعل بشرية. تُظهر المقاييس المعيارية مثل MMLU-Pro وLiveCodeBench وLiveBench وArena-Hard تفوق Qwen2.5-Max على نماذج أخرى مثل DeepSeek V3. ويتوفر النموذج عبر Qwen Chat وواجهة برمجة التطبيقات API من علي بابا كلاود. يمثل هذا الإصدار تقدمًا كبيرًا في توسيع نطاق النماذج اللغوية الكبيرة، ويمهد الطريق لتحسينات مستقبلية في ذكاء النموذج.