Mistral Small 3: نموذج مفتوح المصدر بـ 24 مليار معلمة، مُحسّن للسرعة

2025-01-30
Mistral Small 3: نموذج مفتوح المصدر بـ 24 مليار معلمة، مُحسّن للسرعة

كشفت Mistral AI عن Mistral Small 3، وهو نموذج يحتوي على 24 مليار معلمة، مُحسّن من أجل السرعة والأداء، تحت رخصة Apache 2.0. يتفوق على نماذج أكبر مثل Llama 3.3 70B و Qwen 32B بأكثر من 3 أضعاف من حيث السرعة، مع تحقيق أكثر من 81% من الدقة على MMLU، وهو مثالي لمهام الذكاء الاصطناعي التوليدي التي تتطلب أوقات استجابة سريعة. يمكن تشغيله على بطاقة RTX 4090 واحدة أو جهاز Macbook بذاكرة وصول عشوائي سعتها 32 جيجابايت، ويتوفر Mistral Small 3 على Hugging Face ومنصات أخرى.

الذكاء الاصطناعي