علي بابا تكشف النقاب عن نموذج QvQ: نموذج جديد للاستدلال البصري
2024-12-25
أصدرت علي بابا مؤخراً نموذج QvQ-72B-Preview، وهو نموذج جديد للاستدلال البصري برخصة Apache 2.0. صُمّم لتعزيز قدرات الاستدلال البصري للذكاء الاصطناعي، ويعتمد QvQ على نموذج QwQ القائم على توسيع الاستدلال بإضافة معالجة الصور. يقبل النموذج الصور والتعليمات، ويُنتج عمليات استدلال مفصلة خطوة بخطوة. قام المدوّن سيمون ويليسون باختبار QvQ، ووجد أنه ناجح في مهام مثل عد طيور البجع، لكنه أقل دقة في مسائل الاستدلال المعقدة. يتوفر النموذج حاليًا على Hugging Face Spaces، والخطط المستقبلية تشمل النشر المحلي ودعم منصات أوسع.