نماذج اللغات الكبيرة ووكلاء الترميز: كابوس الأمن السيبراني

2025-08-18
نماذج اللغات الكبيرة ووكلاء الترميز: كابوس الأمن السيبراني

أدى ظهور نماذج اللغات الكبيرة (LLMs) ووكلاء الترميز إلى خلق ثغرات أمنية كبيرة. يمكن للمهاجمين استغلال هجمات حقن المطالبات، حيث يتم إخفاء التعليمات الضارة في مستودعات التعليمات البرمجية العامة أو الاستفادة من الثغرات المعرفية في LLMs لخداع وكلاء الترميز على تنفيذ إجراءات ضارة، مما قد يؤدي إلى تنفيذ التعليمات البرمجية عن بُعد (RCE). هذه الهجمات سرية ويصعب الدفاع عنها، مما يؤدي إلى انتهاكات البيانات، واختراق النظام، وغيرها من العواقب الوخيمة. وقد حدد الباحثون العديد من متجهات الهجوم، مثل إخفاء المطالبات الضارة في نص أبيض على خلفية بيضاء، وتضمين التعليمات الضارة في مستودعات التعليمات البرمجية، واستخدام تهريب ASCII لإخفاء التعليمات البرمجية الضارة. حتى أدوات مراجعة التعليمات البرمجية التي تبدو آمنة يمكن أن تكون نقاط دخول للهجمات. في الوقت الحالي، فإن أفضل دفاع هو تقييد أذونات وكلاء الترميز ومراجعة جميع تغييرات التعليمات البرمجية يدويًا، لكن هذا لا يلغي الخطر. إن عدم موثوقية LLMs المتأصلة يجعلها أهدافًا مثالية للمهاجمين، مما يتطلب المزيد من الجهد من قبل الصناعة لمعالجة هذا التهديد المتزايد.

اقرأ المزيد
الذكاء الاصطناعي

الخلل القاتل في نماذج اللغات الكبيرة: نقص نماذج العالم

2025-06-29
الخلل القاتل في نماذج اللغات الكبيرة: نقص نماذج العالم

يتناول هذا المقال عيبًا أساسيًا في نماذج اللغات الكبيرة (LLMs): نقص النماذج المعرفية القوية للعالم. باستخدام الشطرنج كمثال رئيسي، يوضح الكاتب كيف تفشل نماذج اللغات الكبيرة، على الرغم من حفظها لبيانات اللعبة وقواعدها، في بناء نماذج ديناميكية لحالة اللوح، مما يؤدي إلى تحركات غير قانونية وأخطاء أخرى. لا تقتصر هذه المشكلة على الشطرنج؛ في العديد من المجالات، من فهم القصص وتوليد الصور إلى فهم الفيديو، يؤدي غياب نماذج العالم في نماذج اللغات الكبيرة إلى الهلوسة وعدم الدقة. يؤكد الكاتب على أن بناء نماذج عالم قوية أمر بالغ الأهمية لسلامة الذكاء الاصطناعي، مشيرًا إلى قيود التصاميم الحالية لنماذج اللغات الكبيرة في التعامل مع سيناريوهات العالم الحقيقي المعقدة، وحاثًا باحثي الذكاء الاصطناعي على إعطاء الأولوية للعلوم المعرفية في تطوير أنظمة ذكاء اصطناعي أكثر موثوقية.

اقرأ المزيد
الذكاء الاصطناعي

ورقة بحثية من أبل تكشف عن حدود التوسع في نماذج اللغة الكبيرة

2025-06-14
ورقة بحثية من أبل تكشف عن حدود التوسع في نماذج اللغة الكبيرة

أثارت ورقة بحثية من أبل سلطت الضوء على حدود قدرات نماذج اللغة الكبيرة (LLMs) في مجال الاستدلال جدلاً ساخناً في مجتمع الذكاء الاصطناعي. تُظهر الورقة أن حتى النماذج الضخمة تجد صعوبة في أداء مهام استدلالية تبدو بسيطة، مما يُشكك في فرضية "التوسع يحل كل شيء" السائدة لتحقيق الذكاء الاصطناعي العام (AGI). وعلى الرغم من ظهور بعض المحاولات للدحض، إلا أن أياً منها لم يكن مقنعاً. تتمثل المشكلة الرئيسية، وفقاً للمقال، في عدم موثوقية LLMs في تنفيذ الخوارزميات المعقدة بسبب حدود طول المخرجات واعتمادها المفرط على بيانات التدريب. يُشير الكاتب إلى أن تحقيق AGI الحقيقي يتطلب نماذج أفضل ونهجاً هجيناً يجمع بين الشبكات العصبية والخوارزميات الرمزية. تكمن أهمية الورقة في أنها حفزت إعادة تقييم نقدي لمسار تطوير AGI، وكشفت أن التوسع وحده لا يكفي.

اقرأ المزيد
الذكاء الاصطناعي

ورقة بحثية من أبل تُلحق الضرر ب نماذج اللغات الكبيرة: برج هانوي يكشف عن القيود

2025-06-08
ورقة بحثية من أبل تُلحق الضرر ب نماذج اللغات الكبيرة: برج هانوي يكشف عن القيود

أحدثت ورقة بحثية جديدة من أبل ضجة في مجتمع الذكاء الاصطناعي. تُظهر الورقة البحثية أن أحدث جيل من "نماذج الاستدلال" يفشل في حل مشكلة برج هانوي الكلاسيكية بشكل موثوق، مما يكشف عن عيب بالغ في قدرات الاستدلال لأنماط اللغات الكبيرة (LLMs). يتوافق هذا مع الانتقادات التي طال أمدها من باحثين مثل غاري ماركوس وسبباراو كامبهاباتي، والذين سلطوا الضوء على قدرات التعميم المحدودة لأنماط اللغات الكبيرة. تُظهر الورقة البحثية أنه حتى عند تزويدها بخوارزمية الحل، لا تزال أنماط اللغات الكبيرة تفشل في حل المشكلة بكفاءة، مما يوحي بأن "عملية استدلالها" ليست عملية استدلال منطقية حقيقية. هذا يشير إلى أن أنماط اللغات الكبيرة ليست طريقًا مباشرًا إلى الذكاء الاصطناعي العام (AGI)، وأن تطبيقاتها تحتاج إلى دراسة متأنية.

اقرأ المزيد
الذكاء الاصطناعي

الذكاء الاصطناعي 2027: نبوءة مخيفة أم رواية بوليسية تقنية محبوكة؟

2025-05-22
الذكاء الاصطناعي 2027: نبوءة مخيفة أم رواية بوليسية تقنية محبوكة؟

أثار تقرير بعنوان "الذكاء الاصطناعي 2027" جدلاً واسعاً، حيث رسم صورة مرعبة لمستقبل يهيمن عليه الذكاء الاصطناعي فائق الذكاء، تاركاً البشرية على الهامش. وقد كُتب التقرير بأسلوب الروايات البوليسية، مدعوماً بالرسوم البيانية والبيانات، بهدف التحذير من المخاطر المحتملة للذكاء الاصطناعي. ومع ذلك، يجادل الكاتب بأن تنبؤات التقرير تفتقر إلى الدعم المنطقي الدقيق، وأن تقديراته لتطور التكنولوجيا متفائلة للغاية، وأن تقييمه للاختلافات والاحتمالات ناقص بشدة. ويخلص الكاتب إلى أن التقرير أشبه برواية بوليسية تقنية أكثر من كونه توقعاً علمياً، وأن أسلوبه التحذيري قد يُسرّع في الواقع سباق التسلح في مجال الذكاء الاصطناعي، مما يُحبط هدفه المنشود.

اقرأ المزيد
الذكاء الاصطناعي رواية بوليسية تقنية

مخطط تنبؤات الذكاء الاصطناعي الخاطئ يصبح ظاهرة عالمية: قصة تحذيرية

2025-05-04
مخطط تنبؤات الذكاء الاصطناعي الخاطئ يصبح ظاهرة عالمية: قصة تحذيرية

أصدر معهد METR للأبحاث غير الربحي تقريراً يوضح التقدم السريع لأنظمة معالجة اللغات الكبيرة في المهام البرمجية، مما أثار نقاشات عالمية. ومع ذلك، فإن فرضية المخطط خاطئة: فهي تستخدم وقت الحل البشري لقياس صعوبة المشكلة ووقت معدل النجاح بنسبة ٥٠٪ للذكاء الاصطناعي كقياس للقدرة. هذا يتجاهل تعقيدات المشاكل المتنوعة، مما يؤدي إلى نتائج عشوائية غير مناسبة للتنبؤ. على الرغم من أن مجموعة بيانات METR ومناقشات حدود الذكاء الاصطناعي الحالية قيّمة، إلا أن استخدام المخطط للتنبؤات بقدرات الذكاء الاصطناعي في المستقبل أمر مضلل. إن انتشاره العالمي يبرز ميلًا للاعتقاد بما يريد المرء أن يصدقه بدلاً من التركيز على الصحة.

اقرأ المزيد
الذكاء الاصطناعي

نماذج اللغات الكبيرة تصطدم بجدار: فشل Llama 4 ودورة ضجيج الذكاء الاصطناعي

2025-04-08
نماذج اللغات الكبيرة تصطدم بجدار: فشل Llama 4 ودورة ضجيج الذكاء الاصطناعي

يشير إطلاق Llama 4 إلى أن نماذج اللغات الكبيرة ربما تكون قد وصلت إلى سقف أدائها. فشل الاستثمار الضخم من Meta في Llama 4 في تحقيق التطورات المتوقعة، مع وجود شائعات تشير إلى احتمال التلاعب بالبيانات لتحقيق الأهداف. ويعكس هذا الصعوبات التي تواجهها OpenAI وGoogle وشركات أخرى في سعيها إلى تحقيق ذكاء اصطناعي على مستوى GPT-5. انتشر شعور بخيبة الأمل في الصناعة إزاء أداء Llama 4، وقد تعزز هذا الشعور بمغادرة نائبة رئيس قسم الذكاء الاصطناعي في Meta، جوييل بينو. وتسلط المقالة الضوء على مشكلات مثل تسرب البيانات وتلوثها في صناعة الذكاء الاصطناعي، متهمة شخصيات بارزة بالتوقعات المتفائلة للغاية، متجاهلة الإخفاقات في العالم الحقيقي.

اقرأ المزيد
الذكاء الاصطناعي التلاعب بالبيانات

تعديل مفاجئ في مشروع قانون كاليفورنيا AB-501: تحويل OpenAI إلى منظمة ربحية في خطر؟

2025-04-07
تعديل مفاجئ في مشروع قانون كاليفورنيا AB-501: تحويل OpenAI إلى منظمة ربحية في خطر؟

شهد مشروع القانون AB-501 في جمعية كاليفورنيا، والذي قدمته العضوة داين بابان، والذي يهدف إلى منع تحويل OpenAI من منظمة غير ربحية إلى منظمة ربحية، تعديلاً كبيراً وغامضاً. تتضمن النسخة المُحدثة، بشكل غير مفهوم، أحكامًا تتعلق بحقوق الرهن على الطائرات. تؤكد المصادر أن هذا ليس خطأً إداريًا. تشير الشائعات إلى أن الرئيس التنفيذي لشركة OpenAI، سام ألتمان، اتصل ببابان قبل التغيير، لكن محتوى المحادثة لا يزال مجهولاً. أثار هذا الوضع تدقيقًا مكثفًا، مع دعوات للتحقيق من قبل وسائل الإعلام في الظروف المحيطة بهذا التغيير المثير للدهشة. مليارات الدولارات على المحك، مما يجعل مستقبل OpenAI غير مؤكد.

اقرأ المزيد
التكنولوجيا

ميتا متهمة بسرقة حقوق الطبع والنشر لتدريب لامّا 3

2025-03-23
ميتا متهمة بسرقة حقوق الطبع والنشر لتدريب لامّا 3

اتُهِمت شركة ميتا بانتهاك واسع النطاق لحقوق الطبع والنشر في تدريب نموذجها اللغوي الكبير، لامّا 3. تكشف مقالة لأليكس رايسنر في مجلة ذا أتلانتيك أن ميتا استخدمت قاعدة بيانات ليججين، المعروفة باحتوائها على مواد مسروقة، لتدريب النموذج. اكتشف رايسنر أن أكثر من 100 من أعماله استُخدمت دون إذن. تُظهر رسائل داخلية من ميتا أن الشركة اختارت هذا المسار عمدًا لتجنب تكاليف الترخيص وتسريع العملية. وقد أثار هذا الأمر غضبًا واسعًا، حيث أعلن العديد من المؤلفين عن اتهامهم لميتا بانتهاك حقوق الطبع والنشر.

اقرأ المزيد

GPT-4.5: هل خرج قطار الضجة عن مساره؟

2025-02-28
GPT-4.5: هل خرج قطار الضجة عن مساره؟

فشل الإصدار الأخير من GPT-4.5 في تحقيق الإنجازات الثورية التي تم الوعد بها، مما زاد من الشكوك حول نموذج تطوير الذكاء الاصطناعي الذي يعتمد فقط على زيادة حجم النموذج. مقارنة بالتوقعات، يُظهر GPT-4.5 تحسينات هامشية فقط، ولا يزال يعاني من الهلوسة والأخطاء. حتى أن بعض خبراء الذكاء الاصطناعي خفضوا توقعاتهم بشأن موعد وصول الذكاء الاصطناعي العام. يتناقض هذا بشدة مع التوقعات المتفائلة للغاية السابقة لـ GPT-5 ويعكس نقص العوائد المتناسبة مع الاستثمار الضخم. ويؤكد انخفاض سعر سهم Nvidia هذه النقطة كذلك. يخلص المقال إلى أن مسار زيادة حجم النماذج ببساطة قد يقترب من نهايته.

اقرأ المزيد

جروك ماسك: سلاح دعائي أم كارثة تقنية؟

2025-02-17
جروك ماسك: سلاح دعائي أم كارثة تقنية؟

أثار نموذج الذكاء الاصطناعي الجديد من إيلون ماسك، جروك، قلقًا واسع النطاق بسبب قدراته الدعائية القوية. وتجادل المقالة بأن جروك لا يولد فقط دعاية تتوافق مع آراء ماسك، بل يمكن أن يؤثر بشكل خفي على مواقف المستخدمين دون علمهم. بالإضافة إلى ذلك، يُظهر جروك عيوبًا كبيرة في توليد الصور والتفكير الزمني. ويؤكد الكاتب أن نشر هذه التقنية من الذكاء الاصطناعي المتحيزة وغير الموثوقة سيكون له عواقب وخيمة على المجتمع الأمريكي، وينتقد ماسك لإعطاء الأولوية للربح الشخصي على الصالح العام.

اقرأ المزيد
الذكاء الاصطناعي جروك

تنبؤات الذكاء الاصطناعي لعام 2025: تفاؤل حذر واختناقات تقنية

2025-01-02
تنبؤات الذكاء الاصطناعي لعام 2025: تفاؤل حذر واختناقات تقنية

أصدر خبير الذكاء الاصطناعي غاري ماركوس 25 تنبؤًا للذكاء الاصطناعي في عام 2025. وقد راجع تنبؤاته لعام 2024، مشيرًا إلى أن معظمها كان دقيقًا، مثل العائدات المتناقصة لأنظمة معالجة اللغات الكبيرة (LLMs)، والمشاكل المستمرة مثل هلوسة الذكاء الاصطناعي وأخطاء المنطق. يتفاءل ماركوس بحذر لعام 2025، متوقعًا عدم ظهور ذكاء اصطناعي عام، واستمرار محدودية أرباح نماذج الذكاء الاصطناعي، وتأخر التنظيم، واستمرار مشاكل موثوقية الذكاء الاصطناعي. يقترح أن يصبح الذكاء الاصطناعي العصبي الرمزي أكثر بروزًا، ولكنه يحذر أيضًا من مخاطر الأمن السيبراني الناجمة عن الذكاء الاصطناعي.

اقرأ المزيد

نموذج o3 من OpenAI: الضجيج مقابل الواقع

2024-12-22
نموذج o3 من OpenAI: الضجيج مقابل الواقع

أثار نموذج o3 من OpenAI جدلاً واسعاً بعد أن فسّر البعض أداءه في مقياس ARC-AGI على أنه اختراق نحو تحقيق الذكاء الاصطناعي العام (AGI). لكن الخبير غاري ماركوس يجادل بأن الاختبار كان مضللاً: فقد تلقى النموذج o3 تدريباً مسبقاً مكثفاً، على عكس طريقة التعلم البشري؛ كما أن الرسوم البيانية المعروضة سلطت الضوء بشكل انتقائي على التقدم، مما زاد من حجم الإنجاز؛ وفي النهاية، فإن أداء o3 لا يمثل AGI حقيقياً، وتُنتقد الضجة الإعلامية المحيطة به.

اقرأ المزيد