Deepseek v3: نموذج LLM مفتوح المصدر بـ 607 مليار معلمة يتفوق على GPT-4 بتكلفة أقل بكثير؟

2025-01-02

كشفت Deepseek عن نموذجها الرائد، v3، وهو نموذج خليط من الخبراء (MoE) يحتوي على 607 مليار معلمة و 37 مليار معلمة نشطة. تُظهر المقاييس المعيارية أنه تنافسي، بل ويتفوق أحيانًا، على GPT-4o من OpenAI و Claude 3.5 Sonnet، مما يجعله أفضل نموذج مفتوح المصدر حاليًا، متفوقًا على Llama 3.1 403b و Qwen و Mistral. بشكل ملحوظ، حقق Deepseek v3 هذا الأداء مقابل حوالي 6 ملايين دولار فقط، وذلك باستخدام هندسة متطورة: هندسة MoE، وتدريب دقة مختلطة FP8، وإطار عمل HAI-LLM مخصص. إنه يتميز بقدرات استثنائية في الاستدلال والرياضيات، متجاوزًا حتى GPT-4 و Claude 3.5 Sonnet، على الرغم من أنه أقل شأنًا قليلاً في الكتابة والترميز. تجعله نسبة الأداء إلى التكلفة الاستثنائية خيارًا جذابًا للمطورين الذين ينشئون تطبيقات الذكاء الاصطناعي الموجهة للعملاء.