انهيار النموذج: خطر افتراس الذكاء الاصطناعي لنفسه

2025-05-17

مع تزايد شيوع نماذج اللغات الكبيرة (LLMs) ، يزداد الاهتمام بمخاطر ما يُعرف باسم "انهيار النموذج". نظرًا لأن نماذج LLMs تُدرّب بشكل متزايد على النصوص التي تُنتجها بنفسها ، فإن بيانات التدريب تنحرف عن بيانات العالم الحقيقي ، مما قد يؤدي إلى انخفاض جودة مخرجات النموذج أو حتى نتائج غير منطقية. تُظهر الأبحاث أن هذه المشكلة لا تقتصر على نماذج LLMs ؛ أي نموذج توليدي مُدرّب بشكل متكرر قد يواجه مخاطر مماثلة. على الرغم من أن تراكم البيانات يُبطئ هذه التدهورات ، إلا أنه يزيد من التكاليف الحسابية. يستكشف الباحثون معالجة البيانات وتقييم النموذج الذاتي لتحسين جودة البيانات الاصطناعية ، ومنع الانهيار ، ومعالجة مشاكل التنوع الناتجة.

الذكاء الاصطناعي انهيار النموذج