Deepseek v3: نموذج LLM مفتوح المصدر بـ 607 مليار معلمة يتفوق على GPT-4 بتكلفة أقل بكثير؟
2025-01-02
كشفت Deepseek عن نموذجها الرائد، v3، وهو نموذج خليط من الخبراء (MoE) يحتوي على 607 مليار معلمة و 37 مليار معلمة نشطة. تُظهر المقاييس المعيارية أنه تنافسي، بل ويتفوق أحيانًا، على GPT-4o من OpenAI و Claude 3.5 Sonnet، مما يجعله أفضل نموذج مفتوح المصدر حاليًا، متفوقًا على Llama 3.1 403b و Qwen و Mistral. بشكل ملحوظ، حقق Deepseek v3 هذا الأداء مقابل حوالي 6 ملايين دولار فقط، وذلك باستخدام هندسة متطورة: هندسة MoE، وتدريب دقة مختلطة FP8، وإطار عمل HAI-LLM مخصص. إنه يتميز بقدرات استثنائية في الاستدلال والرياضيات، متجاوزًا حتى GPT-4 و Claude 3.5 Sonnet، على الرغم من أنه أقل شأنًا قليلاً في الكتابة والترميز. تجعله نسبة الأداء إلى التكلفة الاستثنائية خيارًا جذابًا للمطورين الذين ينشئون تطبيقات الذكاء الاصطناعي الموجهة للعملاء.
اقرأ المزيد