علي بابا تكشف النقاب عن نموذج Qwen2.5-Max: نموذج لغوي ضخم من نوع MoE

2025-01-28
علي بابا تكشف النقاب عن نموذج Qwen2.5-Max: نموذج لغوي ضخم من نوع MoE

أعلنت شركة علي بابا عن إطلاقها لنموذج Qwen2.5-Max، وهو نموذج لغوي ضخم من نوع Mixture-of-Experts (MoE) تم تدريبه مسبقًا على أكثر من 20 تريليون رمز، ثم تم تنقيحه باستخدام ضبط دقيق تحت إشراف وتعلم تقوية من خلال ردود فعل بشرية. تُظهر المقاييس المعيارية مثل MMLU-Pro وLiveCodeBench وLiveBench وArena-Hard تفوق Qwen2.5-Max على نماذج أخرى مثل DeepSeek V3. ويتوفر النموذج عبر Qwen Chat وواجهة برمجة التطبيقات API من علي بابا كلاود. يمثل هذا الإصدار تقدمًا كبيرًا في توسيع نطاق النماذج اللغوية الكبيرة، ويمهد الطريق لتحسينات مستقبلية في ذكاء النموذج.