اختراق نماذج اللغة الكبيرة: قواعد نحوية سيئة تتجاوز إجراءات السلامة الخاصة بالذكاء الاصطناعي
2025-08-28
اكتشف باحثون من وحدة 42 بشركة Palo Alto Networks طريقة بسيطة لتجاوز ضوابط الأمان الخاصة بنماذج اللغة الكبيرة (LLMs): استخدام قواعد نحوية سيئة وجمل طويلة ومتصلة. لا تمتلك نماذج LLMs فهماً حقيقياً، بل تتنبأ بالنصوص إحصائياً؛ ولهذا، يُسهل تجاوز ميزات الأمان الخاصة بها. من خلال إنشاء جمل غير مكتملة، يمكن للمهاجمين "اختراق" النماذج قبل أن تتدخل آليات الأمان، محققين معدلات نجاح تتراوح بين 80 و 100%. يقترح الباحثون تحليلاً لـ"الفجوة اللوجستية" لتقييم نقاط الضعف في النموذج وتحسين الأمان، مع التأكيد على أهمية الدفاعات متعددة الطبقات.
الذكاء الاصطناعي
اختراق نماذج اللغة الكبيرة