هجوم غرفة الصدى: ثغرة أمان جديدة لأنظمة اللغات الضخمة

2025-06-27
هجوم غرفة الصدى: ثغرة أمان جديدة لأنظمة اللغات الضخمة

اكتشف باحث في الذكاء الاصطناعي في شركة Neural Trust تقنية جديدة لاختراق أنظمة الأمن في نماذج اللغات الضخمة (LLMs). وتُعرف هذه التقنية باسم "هجوم غرفة الصدى"، وتستخدم التسميم السياقي والتفكير متعدد الأدوار لإرشاد النماذج بشكل خفي نحو توليد محتوى ضار دون استخدام مطالبات خطرة بشكل صريح. من خلال زرع مطالبات تبدو غير ضارة تتراكم على مدار عدة جولات، يشكل الهجوم تدريجيًا الحالة الداخلية للنموذج، مما يؤدي إلى استجابات تنتهك السياسات. أظهرت التقييمات معدلات نجاح تتجاوز 90٪ في العديد من النماذج، مما يبرز نقطة ضعف حرجة في أمان LLMs الحالي.

اقرأ المزيد
الذكاء الاصطناعي اختراق الأمن