ورقة بحثية من أبل تطرح تساؤلات حول نماذج اللغات الكبيرة: هل نماذج الاستدلال الضخمة محدودة أساسًا؟

2025-06-16

تدعي ورقة بحثية حديثة من أبل أن نماذج الاستدلال الضخمة (LRMs) لديها قيود في الحساب الدقيق، حيث تفشل في استخدام الخوارزميات الصريحة وتستنتج بشكل غير متسق عبر الألغاز. ويُعتبر هذا ضربة كبيرة للدفع الحالي لاستخدام نماذج اللغات الكبيرة (LLMs) وLRMs كأساس للذكاء الاصطناعي العام (AGI). تحاول ورقة بحثية مضادة على arXiv دحض نتائج أبل، لكنها معيبة. فهي تحتوي على أخطاء رياضية، وتخلط بين التنفيذ الميكانيكي وتعقيد الاستدلال، وبياناتها الخاصة تتناقض مع استنتاجاتها. ومن الناحية الحرجة، تتجاهل الورقة البحثية المضادة الاكتشاف الرئيسي لأبل وهو أن النماذج تقلل بشكل منهجي الجهد الحسابي في المشكلات الأكثر صعوبة، مما يشير إلى قيود أساسية في توسيع نطاق هندسة LRMs الحالية.

الذكاء الاصطناعي قيود الاستدلال