ورقة بحثية من أبل تكشف عن حدود التوسع في نماذج اللغة الكبيرة

2025-06-14
ورقة بحثية من أبل تكشف عن حدود التوسع في نماذج اللغة الكبيرة

أثارت ورقة بحثية من أبل سلطت الضوء على حدود قدرات نماذج اللغة الكبيرة (LLMs) في مجال الاستدلال جدلاً ساخناً في مجتمع الذكاء الاصطناعي. تُظهر الورقة أن حتى النماذج الضخمة تجد صعوبة في أداء مهام استدلالية تبدو بسيطة، مما يُشكك في فرضية "التوسع يحل كل شيء" السائدة لتحقيق الذكاء الاصطناعي العام (AGI). وعلى الرغم من ظهور بعض المحاولات للدحض، إلا أن أياً منها لم يكن مقنعاً. تتمثل المشكلة الرئيسية، وفقاً للمقال، في عدم موثوقية LLMs في تنفيذ الخوارزميات المعقدة بسبب حدود طول المخرجات واعتمادها المفرط على بيانات التدريب. يُشير الكاتب إلى أن تحقيق AGI الحقيقي يتطلب نماذج أفضل ونهجاً هجيناً يجمع بين الشبكات العصبية والخوارزميات الرمزية. تكمن أهمية الورقة في أنها حفزت إعادة تقييم نقدي لمسار تطوير AGI، وكشفت أن التوسع وحده لا يكفي.

الذكاء الاصطناعي