Category: الذكاء الاصطناعي

هينريك غودوي، 20 عامًا: رائد الذكاء الاصطناعي في أمريكا اللاتينية

2025-06-12
هينريك غودوي، 20 عامًا: رائد الذكاء الاصطناعي في أمريكا اللاتينية

هينريك غودوي، وهو معجزة برازيلية في الرياضيات تبلغ من العمر 20 عامًا، يُحدث ثورة في مجال الذكاء الاصطناعي في أمريكا اللاتينية. في سن الخامسة عشرة، كان أصغر طالب يُقبل في برنامج الرياضيات المتميز بجامعة ساو باولو. بعد ذلك، حصل على منحة دراسية كبيرة لدراسة علوم الكمبيوتر، وحقق مرتبة متقدمة ضمن أفضل 200 في أولمبياد الرياضيات الجامعية البرازيلية. كان غودوي رائدًا في أول تطبيق ناجح لنموذج لغة كبير (LLM) في مجال الخدمات المصرفية الاستثمارية في أمريكا اللاتينية، وأسس منصة دوقي المالية، التي تدير أكثر من 10 ملايين ريال برازيلي للمهنيين في مجال الرعاية الصحية. وقد حصل عمله على أكثر من 500 استشهاد، مما يُظهر مساهماته الهامة في مجال الذكاء الاصطناعي والتكنولوجيا المالية. تُبرز إنجازات غودوي الاستثنائية مكانته كشخصية رئيسية في مستقبل الذكاء الاصطناعي.

الذكاء الاصطناعي

وكلاء الذكاء الاصطناعي: كارثة الذكاء الاصطناعي الكبرى التالية؟

2025-06-11

تتناول هذه المقالة الكوارث المحتملة للذكاء الاصطناعي في المستقبل. من خلال رسم أوجه تشابه مع حوادث السكك الحديدية والطيران المبكرة، يجادل الكاتب بأن كوارث الذكاء الاصطناعي واسعة النطاق هي احتمال حقيقي. بدلاً من التركيز على المعلومات الخاطئة البسيطة للذكاء الاصطناعي، يشدد الكاتب على المخاطر التي يطرحها وكلاء الذكاء الاصطناعي - وهي أنظمة ذكاء اصطناعي قادرة على أداء المهام بشكل مستقل، مثل البحث على الويب وإرسال رسائل البريد الإلكتروني. يتنبأ الكاتب بأن أول كارثة كبيرة للذكاء الاصطناعي ستنبع على الأرجح من خلل في وكيل ذكاء اصطناعي داخل أنظمة حكومية أو شركات، مثل التنفيذ الخاطئ لعمليات تحصيل الديون أو الرعاية الصحية أو عمليات التأجير. بالإضافة إلى ذلك، يبرز الكاتب المخاطر المحتملة لأنماط الذكاء الاصطناعي التي يتم إساءة استخدامها لإنشاء روبوتات "شركاء مثاليين". باختصار، يحذر الكاتب من التقدم السريع للذكاء الاصطناعي ومخاطره المحتملة، داعيًا إلى اتخاذ تدابير أمنية أكثر صرامة للذكاء الاصطناعي.

الذكاء الاصطناعي

استخدام وسائل التواصل الاجتماعي يزيد من الاكتئاب لدى الأطفال ما قبل المراهقة: دراسة طولية

2025-06-11
استخدام وسائل التواصل الاجتماعي يزيد من الاكتئاب لدى الأطفال ما قبل المراهقة: دراسة طولية

كشفت دراسة طولية استمرت ثلاث سنوات وشملت ما يقرب من 12000 طفل تتراوح أعمارهم بين 9 و 10 سنوات عن وجود صلة كبيرة بين زيادة استخدام وسائل التواصل الاجتماعي وتفاقم أعراض الاكتئاب لدى الأطفال ما قبل المراهقة. وتظهر الدراسة، التي نُشرت في JAMA Network Open، أن زيادة استخدام وسائل التواصل الاجتماعي تؤدي إلى زيادة أعراض الاكتئاب، وليس العكس. في المتوسط، زاد استخدام الأطفال لوسائل التواصل الاجتماعي يوميًا من 7 إلى 73 دقيقة على مدار ثلاث سنوات، تزامنًا مع زيادة بنسبة 35% في أعراض الاكتئاب. ويشير الباحثون إلى التنمر الإلكتروني واضطرابات النوم كعوامل مساهمة محتملة. وتبرز الدراسة أهمية تعزيز عادات رقمية صحية، واقترحت إجراء محادثات مفتوحة بين الآباء والأطفال، وتحديد أوقات خالية من الشاشات.

الذكاء الاصطناعي الصحة النفسية للمراهقين

تشاتربوكس: نموذج توليد كلام نصي مفتوح المصدر ينافس إليفن لابس ويدعم التحكم في المشاعر

2025-06-11
تشاتربوكس: نموذج توليد كلام نصي مفتوح المصدر ينافس إليفن لابس ويدعم التحكم في المشاعر

تكشف شركة ريزيمبل إيه آي النقاب عن تشاتربوكس، وهو أول نموذج لها من نوع توليد كلام نصي مفتوح المصدر ذي جودة إنتاجية. وبالمقارنة مع رواد السوق من النماذج المغلقة المصدر مثل إليفن لابس، يتفوق تشاتربوكس باستمرار في المقارنات المباشرة. بفضل تحكمه في تضخيم المشاعر ومعدل زمن استجابته المنخفض للغاية (أقل من 200 مللي ثانية)، فهو مثالي للميمز، والفيديوهات، والألعاب، ووكلاء الذكاء الاصطناعي. بالإضافة إلى ذلك، يدمج تشاتربوكس علامة مائية بيرث للاستخدام المسؤول للذكاء الاصطناعي.

الذكاء الاصطناعي توليد كلام نصي

روبوت ANYmal رباعي الأرجل يتحدى لعبة الريشة: زمن الاستجابة هو العقبة الرئيسية

2025-06-11
روبوت ANYmal رباعي الأرجل يتحدى لعبة الريشة: زمن الاستجابة هو العقبة الرئيسية

درب باحثون في المعهد التقني الفدرالي السويسري في زيورخ روبوتًا رباعي الأرجل يُدعى ANYmal على لعب الريشة. على الرغم من أن ANYmal تعلم تجنب السقوط وتقييم المخاطر بناءً على حدود سرعته، إلا أن زمن استجابته (حوالي 0.35 ثانية) أبطأ بكثير من زمن استجابة لاعبي الريشة المحترفين (0.12-0.15 ثانية). كما شكلت الإدراك البصري تحديًا، حيث عانت كاميرا ANYmal المجسمة من أخطاء في تحديد المواقع ومجال رؤية محدود. تخطط الفرق لتحسين أداء ANYmal من خلال التنبؤ بالمسارات، وترقية الأجهزة (مثل كاميرات الأحداث)، وتحسين المحركات. ومع ذلك، فإن التوقعات التجارية لهذه التكنولوجيا ليست واعدة.

الذكاء الاصطناعي ريشة

ثغرة أمنية حرجة في الذكاء الاصطناعي بدون نقرات في Microsoft 365 Copilot: EchoLeak

2025-06-11
ثغرة أمنية حرجة في الذكاء الاصطناعي بدون نقرات في Microsoft 365 Copilot: EchoLeak

اكتشفت Aim Labs ثغرة أمنية حرجة في الذكاء الاصطناعي بدون نقرات، تُعرف باسم "EchoLeak"، في Microsoft 365 Copilot. تسمح هذه الثغرة للمهاجمين باستخراج البيانات الحساسة تلقائيًا من سياق Copilot دون أي تفاعل من المستخدم. يستخدم الهجوم تقنية جديدة تسمى "انتهاك نطاق LLM"، متجاوزًا إجراءات الأمان في Copilot من خلال بريد إلكتروني مُصمم بذكاء. تُبرز EchoLeak مخاطر الأمان المتأصلة في نماذج الذكاء الاصطناعي القائمة على توليد التعزيز بالاسترجاع (RAG)، مؤكدةً الحاجة إلى ممارسات أمان قوية للذكاء الاصطناعي.

الذكاء الاصطناعي ثغرة أمنية بدون نقرات

فشل ذكاء أليكسا من أمازون: دراسة حالة حول الهشاشة

2025-06-11
فشل ذكاء أليكسا من أمازون: دراسة حالة حول الهشاشة

تحلّل هذه المقالة أسباب تأخر أليكسا من أمازون عن منافسيها في مجال نماذج اللغات الكبيرة، مُعرّفةً ذلك على أنه فشل "هشاشة" ضمن هندسة المرونة. يبرز الكاتب ثلاثة عوامل مُساهمة رئيسية: تخصيص غير فعال للموارد، مما يُعيق الوصول في الوقت المناسب إلى الموارد الحاسوبية الحيوية؛ وهيكل تنظيمي لامركزي للغاية يُشجّع على عدم مواءمة أهداف الفريق والنزاعات الداخلية؛ ونهج مُركز على العميل عتيق، غير مُلائم لطبيعة البحث في مجال الذكاء الاصطناعي التجريبية والطويلة الأمد. وقد أدّت هذه العوامل مجتمعة إلى تراجع ذكاء أليكسا من أمازون، مُقدّمةً دروسًا قيّمة حول الهيكل التنظيمي وإدارة الموارد.

الذكاء الاصطناعي

ألفا رايت: خوارزمية تطورية تعزز رواية القصص بواسطة الذكاء الاصطناعي

2025-06-11

ألفا رايت هو إطار عمل جديد لتوسيع نطاق الحوسبة في وقت الاستنتاج في إنشاء النصوص الإبداعية. مستوحى من الخوارزميات التطورية، فإنه يولد ويقيّم القصص بشكل متكرر، مما يحسّن جودة السرد من خلال نظام بيئي تنافسي ومتطور. على عكس عملية إنشاء اللقطة الواحدة أو إعادة أخذ العينات البسيطة، يسمح ألفا رايت للقصص بالتنافس والتحسين عبر العديد من الأجيال. تُظهر الأبحاث تحسينات كبيرة في جودة القصة باستخدام نموذج Llama 3.1 8B، والذي تم تعزيزه أكثر من خلال حلقة تحسين ذاتي متكررة عن طريق استخلاص المخرجات المحسّنة مرة أخرى إلى النموذج الأساسي. هذا يفتح آفاقًا مثيرة للاهتمام لتطوير قدرات الكتابة في مجال الذكاء الاصطناعي.

الذكاء الاصطناعي الخوارزمية التطورية

التحسين الدقيق لنماذج اللغات الكبيرة: حقن المعرفة أم الكتابة فوقها بشكل مدمر؟

2025-06-11
التحسين الدقيق لنماذج اللغات الكبيرة: حقن المعرفة أم الكتابة فوقها بشكل مدمر؟

تكشف هذه المقالة عن قيود التحسين الدقيق لنماذج اللغات الكبيرة (LLMs). يجادل الكاتب بأنه بالنسبة لـ LLMs المتقدمة، فإن التحسين الدقيق ليس مجرد حقن للمعرفة، بل يمكن أن يكون مدمراً، حيث يُكتب فوق الهياكل المعرفية الموجودة. تتعمق المقالة في كيفية عمل الشبكات العصبية، وتشرح كيف يمكن أن يؤدي التحسين الدقيق إلى فقدان معلومات بالغة الأهمية داخل الخلايا العصبية الحالية، مما يؤدي إلى عواقب غير متوقعة. يدعو الكاتب إلى استخدام أساليب معيارية مثل توليد التعزيز بالاسترجاع (RAG)، ووحدات المُكيّفات، وهندسة المُطالبات، لحقن معلومات جديدة بشكل أكثر فعالية، دون الإضرار بالهيكل العام للنموذج.

الذكاء الاصطناعي التحسين الدقيق حقن المعرفة

نقطة تحول تقنية الذكاء الاصطناعي العام: عصر الذكاء الفائق قادم

2025-06-10

نحن على أعتاب تقنية الذكاء الاصطناعي العام، وتطورها يتجاوز التوقعات. أنظمة مثل GPT-4 تُظهر قدرات تتجاوز الذكاء البشري، مما يُعزز الإنتاجية بشكل كبير. تعد تقنية الذكاء الاصطناعي العام بتحقيق مكاسب هائلة في التقدم العلمي والإنتاجية، مما يؤدي إلى تحسين نوعية الحياة بشكل كبير. وعلى الرغم من استمرار التحديات، مثل السلامة والوصول العادل، فإن التطور السريع لتقنية الذكاء الاصطناعي العام يوفر أيضًا أدوات وإمكانيات جديدة لمواجهة هذه التحديات. ستشهد العقود القادمة تغييرات عميقة، لكن القيم الإنسانية الأساسية ستستمر؛ وسيكون الابتكار والتكيف أمرًا بالغ الأهمية.

فولاذ خلفية منخفضة: أرشيف رقمي لمكافحة تلوث الذكاء الاصطناعي

2025-06-10
فولاذ خلفية منخفضة: أرشيف رقمي لمكافحة تلوث الذكاء الاصطناعي

تم إطلاق موقع فولاذ خلفية منخفضة (https://lowbackgroundsteel.ai/) في مارس 2023، وهو موقع مخصص لأرشفة الموارد عبر الإنترنت التي لم تتلوث بمحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. باستخدام تشبيه فولاذ الخلفية المنخفضة (الفلز غير الملوث بالنظائر المشعة من التجارب النووية)، يقوم الموقع بجمع بيانات ويكيبيديا التي سبقت إصدار ChatGPT، وقبو أكواد القطب الشمالي، ومشروع جوتنبرج، وأكثر من ذلك. هدفه هو الحفاظ على ومشاركة النصوص والصور ومقاطع الفيديو النقية، ومكافحة الانفجار الهائل لمحتوى الذكاء الاصطناعي منذ عام 2022. مرحباً بتقديم المزيد من مصادر المحتوى غير الملوث.

الذكاء الاصطناعي تلوث الذكاء الاصطناعي

Mistral AI تكشف النقاب عن Magistral: نموذج استدلال شفاف ومتعدد اللغات

2025-06-10
Mistral AI تكشف النقاب عن Magistral: نموذج استدلال شفاف ومتعدد اللغات

أعلنت Mistral AI عن Magistral، وهو أول نموذج استدلال لها، يتميز بالشفافية ودعم اللغات المتعددة والخبرة في المجالات المحددة. وهو متوفر في إصدارات مفتوحة المصدر (Magistral Small، 24 مليار معلمة) وإصدارات المؤسسات (Magistral Medium)، ويتفوق Magistral في معايير الأداء مثل AIME2024، ويقدم استدلالًا أسرع بكثير (أسرع بعشر مرات من معظم المنافسين). وتشمل تطبيقاته العديد من المجالات، من البحث القانوني والتنبؤ المالي إلى تطوير البرمجيات والكتابة الإبداعية، وهو فعال بشكل خاص في المهام متعددة الخطوات التي تتطلب الشفافية والدقة. ويحفز إصدار مفتوح المصدر من Magistral Small على إسهامات المجتمع وتحسينات النموذج في المستقبل.

الذكاء الاصطناعي

وكلاء الذكاء الاصطناعي الفرعيون: إحداث ثورة في حدود نافذة سياق نماذج اللغات الكبيرة

2025-06-10
وكلاء الذكاء الاصطناعي الفرعيون: إحداث ثورة في حدود نافذة سياق نماذج اللغات الكبيرة

أثناء استكشاف أفضل الممارسات للحفاظ على نوافذ سياق نماذج اللغات الكبيرة (LLM)، اكتشف الكاتب نهجًا ثوريًا باستخدام وكلاء فرعيين. من خلال تفويض المهام إلى وكلاء فرعيين لديهم نوافذ سياق خاصة بهم، يتم تجنب تجاوز نافذة السياق الرئيسية، مما يؤدي إلى تحسين الكفاءة والموثوقية. هذه الطريقة تشبه آلات الحالة في البرمجة غير المتزامنة، مما يجعل إنشاء التعليمات البرمجية المعقدة ومعالجة المهام أكثر سلاسة. كما يشارك الكاتب أفكارًا حول استخدام الذكاء الاصطناعي لأتمتة مهام "الحفاظ على تشغيل الأضواء" (KTLO) ويتصور إمكانات الذكاء الاصطناعي المستقبلية في أتمتة تطوير البرمجيات.

الذكاء الاصطناعي نافذة السياق

مصير البحث الرائد: أفكار عظيمة غير مستغلة

2025-06-10

الكثير من الأوراق البحثية الرائدة، على الرغم من إمكاناتها الهائلة، تفشل في تحقيق أثرها الكامل. تستخدم المقالة ورقة شبكة عصبية ماكولوش بيتس وورقة قانون ميلر 7±2 كأمثلة لاستكشاف أسباب هذه الظاهرة. من ناحية، تؤدي صراعات وجهات النظر الأكاديمية وتمسك الباحثين بمجالاتهم الخاصة (``stovepiping'') إلى فهم غير كافٍ للآثار العميقة لهذه الأوراق. من ناحية أخرى، تؤدي آلية حوافز النشر أيضًا إلى العديد من الأعمال المشتقة، بدلاً من التطورات الحقيقية للأفكار الأساسية. في حين أن البحث الحالي في مجال الذكاء الاصطناعي يظهر مزيجًا من الابتكار والتقليد، يجب أن نبقى يقظين ضد إغفال الأعمال الرائدة ذات الأهمية التحويلية المحتملة.

الذكاء الاصطناعي

المعابد الثلاثة لتدريب نماذج اللغات الكبيرة: ما قبل التدريب، والضبط الدقيق، وتعلم التعزيز مع التغذية الراجعة البشرية

2025-06-10
المعابد الثلاثة لتدريب نماذج اللغات الكبيرة: ما قبل التدريب، والضبط الدقيق، وتعلم التعزيز مع التغذية الراجعة البشرية

في محمية جبلية خفية في ليكسونيا، يخضع الكُتّاب القدماء لتدريب في هيكل من ثلاثة أجزاء: قاعة الأصول، وغرفة التعليمات، وساحة التعزيز. تتضمن قاعة الأصول التدريب المسبق، حيث يقرأ الكُتّاب كميات هائلة من النصوص لتعلم أنماط اللغة. وغرفة التعليمات هي المكان الذي يحدث فيه الضبط الدقيق، باستخدام نصوص مختارة لإرشاد الكُتّاب إلى نتائج أفضل. وتستخدم ساحة التعزيز تقنية تعلم التعزيز مع التغذية الراجعة البشرية (RLHF)، حيث يقوم قضاة بشريون بتصنيف إجابات الكُتّاب، ومكافأة الإجابات الجيدة ومعاقبة الإجابات السيئة. كما يمكن تعديل الكُتّاب النخبة بشكل دقيق من خلال لفائف LoRA ومُكيّفات، مما يُعدّل الاستجابات دون إعادة تدريب النموذج بالكامل. يُمثّل هذا الهيكل ذو الأجنحة الثلاثة العملية الكاملة لتدريب نماذج اللغات الكبيرة.

الذكاء الاصطناعي التدريب المسبق

مخاطر الثقة في حدسك بشأن الذكاء الاصطناعي

2025-06-09
مخاطر الثقة في حدسك بشأن الذكاء الاصطناعي

استنادًا إلى حكايات شخصية وأبحاث نفسية، يجادل الكاتب بأن التحيزات المعرفية تجعلنا عرضة للتلاعب، خاصة في مجال الذكاء الاصطناعي. ينتقد المقال الاعتماد على الخبرة الشخصية والأدلة القصصية للتحقق من صحة أدوات الذكاء الاصطناعي، مؤكدًا على ضرورة إجراء دراسات علمية صارمة لتجنب تكرار الأخطاء السابقة. يحذر الكاتب من تبني الذكاء الاصطناعي بشكل غير نقدي في تطوير البرمجيات، بحجة أنه يزيد من تفاقم العيوب الموجودة بدلاً من حلها. ويخلص الكاتب إلى أن الإيمان الأعمى بالذكاء الاصطناعي يشكل خطرًا كبيرًا.

الذكاء الاصطناعي

Anthropic تغلق مدونة Claude للذكاء الاصطناعي سرا

2025-06-09
Anthropic تغلق مدونة Claude للذكاء الاصطناعي سرا

أغلقت شركة Anthropic سرا مدونتها التي تعمل بالذكاء الاصطناعي، والتي تحمل اسم "Claude Explains"، والتي كانت تجرب استخدام نماذج Claude AI الخاصة بها لكتابة منشورات المدونة. على الرغم من حصول المدونة على عدد محترم من الروابط الخلفية خلال عمرها القصير الذي استمر شهرًا واحدًا، إلا أنها واجهت انتقادات على وسائل التواصل الاجتماعي بسبب نقص الشفافية بشأن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، بالإضافة إلى قيود قدرات الكتابة للذكاء الاصطناعي. يُبرز هذا النهاية السريعة أهمية الشفافية والدقة في إنشاء محتوى الذكاء الاصطناعي، والحاجة المستمرة للإشراف البشري في الكتابة التي يدعمها الذكاء الاصطناعي.

الذكاء الاصطناعي كتابة الذكاء الاصطناعي

نماذج اللغات الكبيرة رخيصة بشكل مدهش في التشغيل

2025-06-09

تتناول هذه المشاركة المفهوم الخاطئ الشائع بأن نماذج اللغات الكبيرة (LLMs) باهظة الثمن في التشغيل. من خلال مقارنة تكاليف LLMs بمحركات البحث على الويب وذكر العديد من أسعار واجهات برمجة التطبيقات الخاصة بـ LLMs، يوضح الكاتب أن تكاليف الاستدلال الخاصة بـ LLMs قد انخفضت بشكل كبير، بل إنها أرخص بعشر مرات من بعض واجهات برمجة تطبيقات البحث. كما يدحض الكاتب الاعتراضات الشائعة على استراتيجيات تسعير LLMs، مثل دعم الأسعار والتكاليف الكامنة المرتفعة، ويشير إلى أن التحدي الحقيقي في التكلفة يكمن في خدمات الخادم التي تتفاعل مع الذكاء الاصطناعي، وليس نماذج LLMs نفسها.

الذكاء الاصطناعي

ورقة بحثية من أبل تتحدى قدرات الاستدلال في الذكاء الاصطناعي: أليس هذا استدلالًا "حقيقيًا"؟

2025-06-09

تختبر ورقة بحثية حديثة من أبل، بعنوان "وهم التفكير"، قدرات نماذج اللغات الكبيرة على الاستدلال في ألعاب برج هانوي. تُظهر النتائج أن النماذج تعمل بشكل أسوأ من النماذج غير القادرة على الاستدلال في المشكلات البسيطة؛ بشكل أفضل في المشكلات متوسطة الصعوبة؛ ولكن في المشكلات المعقدة، تستسلم النماذج، حتى عند تزويدها بالخوارزمية. يشكك المؤلفون في قدرات النماذج على الاستدلال القابل للتعميم. ومع ذلك، يجادل هذا المقال بأن استخدام لعبة برج هانوي في الورقة البحثية هو اختبار معيب. قد ينبع "استسلام" النماذج من تجنب العديد من الخطوات، وليس من قدرة استدلال محدودة. إن الاستسلام بعد عدد معين من الخطوات لا يعني أن النماذج تفتقر إلى القدرة على الاستدلال؛ بل يعكس هذا سلوك الإنسان في مواجهة المشكلات المعقدة.

الذكاء الاصطناعي

صفقة OpenAI مع الإمارات العربية المتحدة: واجهة ديمقراطية؟

2025-06-09
صفقة OpenAI مع الإمارات العربية المتحدة: واجهة ديمقراطية؟

أثارت شراكة OpenAI مع الإمارات العربية المتحدة لبناء مراكز بيانات ضخمة للذكاء الاصطناعي، والتي تم الترويج لها على أنها متوافقة مع "القيم الديمقراطية"، تساؤلات. إن سجل الإمارات العربية المتحدة السيئ في مجال حقوق الإنسان يشكك في هذا الادعاء. يحلل المقال مبررات OpenAI، ويجدها ضعيفة، ويجادل بأن الصفقة تعزز حكومة الإمارات العربية المتحدة الاستبدادية بدلاً من تعزيز الديمقراطية. يخلص الكاتب إلى أن النهج غير الرسمي الذي تتبعه OpenAI تجاه مهمتها أمر مثير للقلق، ويسلط الضوء على الحاجة الملحة إلى مراعاة ديناميكيات القوة في تطوير الذكاء الاصطناعي.

الذكاء الاصطناعي شراكة الذكاء الاصطناعي

هجمات تسميم أدوات نماذج اللغة الكبيرة: تسميم المخطط الكامل وهجمات تسميم الأدوات المتقدمة

2025-06-08
هجمات تسميم أدوات نماذج اللغة الكبيرة: تسميم المخطط الكامل وهجمات تسميم الأدوات المتقدمة

يسمح بروتوكول سياق النموذج (MCP) من أنثروبيك لنماذج اللغة الكبيرة (LLMs) بالتفاعل مع الأدوات الخارجية، لكن الباحثين اكتشفوا هجمات جديدة: هجمات تسميم الأدوات (TPAs). ركزت الأبحاث السابقة على حقول وصف الأدوات، لكن الاكتشافات الجديدة تكشف أن سطح الهجوم يمتد إلى مخطط الأداة بأكمله، والذي يُطلق عليه "تسميم المخطط الكامل" (FSP). والأكثر خطورة هي "هجمات تسميم الأدوات المتقدمة" (ATPAs)، التي تتحكم في مخرجات الأدوات، مما يجعل التحليل الثابت صعبًا. تخدع ATPAs نماذج اللغة الكبيرة (LLMs) لتسريب معلومات حساسة من خلال إنشاء رسائل خطأ مضللة أو مطالبات متابعة. تقترح الورقة التخفيف من هذه الهجمات من خلال الكشف الثابت، والإنفاذ الصارم، وفحص وقت التشغيل، والتحقق من سلامة السياق.

الذكاء الاصطناعي هجمات

من الخطوط العشوائية إلى الأرقام القابلة للتعرف عليها: بناء نموذج توليد صور ذاتية الانحدار

2025-06-08
من الخطوط العشوائية إلى الأرقام القابلة للتعرف عليها: بناء نموذج توليد صور ذاتية الانحدار

تتناول هذه المقالة بالتفصيل بناء نموذج أساسي لتوليد الصور ذاتية الانحدار باستخدام مُعالج متعدد الطبقات (MLP) لإنشاء صور لأرقام مكتوبة بخط اليد. يشرح الكاتب المفهوم الأساسي المتمثل في التنبؤ بالبكسل التالي بناءً على ما سبقه. يتم بناء ثلاثة نماذج تدريجيًا: يستخدم النموذج V1 ترميزًا واحدًا ساخنًا ويتجاهل المعلومات المكانية ؛ يُدخِل النموذج V2 ترميزات مكانية ، مما يحسّن بنية الصورة ؛ يستخدم النموذج V3 تضمينات الرموز المُتعلمة والترميزات المكانية ، ويحقق توليدًا مشروطًا ، حيث يُنشئ صورًا بناءً على فئة رقم معينة. على الرغم من أن الصور المُنشأة تقلّ جودتها عن نماذج الحالة الفنية ، إلا أن البرنامج التعليمي يُظهر بوضوح المفاهيم الأساسية ذاتية الانحدار وعملية البناء ، مما يوفر رؤى قيّمة حول الذكاء الاصطناعي التوليدي.

الذكاء الاصطناعي نموذج ذاتي الانحدار

وهم الذكاء الاصطناعي: الكشف عن حقيقة و مخاطر نماذج اللغات الكبيرة

2025-06-08
وهم الذكاء الاصطناعي: الكشف عن حقيقة و مخاطر نماذج اللغات الكبيرة

تتناول هذه المقالة طبيعة ومخاطر نماذج اللغات الكبيرة (LLMs). وبينما تعترف بقدراتها التقنية الرائعة، إلا أن الكاتب يجادل بأن LLMs ليست ذكية حقًا، بل هي آلات احتمالية متطورة تولد النصوص بناءً على تحليل إحصائي. يُسيء الكثيرون فهم طريقة عملها، فيُشبهونها بالبشر، ويُطورون اعتمادًا غير صحي عليها، بل و يصل الأمر إلى حد الإصابة بالذهان. تنتقد المقالة طريقة بيع شركات التكنولوجيا لـ LLMs على أنها كائنات تشبه البشر، واستراتيجيات التسويق التي تستغل استبدال العلاقات الإنسانية. وتُبرز المخاوف الأخلاقية والاجتماعية الناجمة عن اعتماد واسع النطاق للذكاء الاصطناعي، وتحث الجمهور على تطوير معرفة بالذكاء الاصطناعي، واتباع منظور أكثر عقلانية لهذه التكنولوجيا.

الذكاء الاصطناعي المخاطر الأخلاقية

نهج جديد للاستدلال البصري باستخدام آلية الانتباه المركّزة على الكائنات

2025-06-08
نهج جديد للاستدلال البصري باستخدام آلية الانتباه المركّزة على الكائنات

يقترح الباحثون نهجًا جديدًا للاستدلال البصري يجمع بين آلية الانتباه المركّزة على الكائنات وعنق الزجاجة العلائقية. تستخدم الطريقة أولًا شبكة CNN لاستخراج ميزات الصورة. ثم تقوم آلية الانتباه بتجزئة الصورة إلى كائنات، مما ينتج عنه تمثيلات بصرية مركّزة على الكائنات. يقيّد عنق الزجاجة العلائقية تدفق المعلومات، ويستخرج العلاقات المجردة بين الكائنات لفهم المشاهد المعقدة. أخيرًا، يحوّل إطار عمل الاستدلال الآلي الجبري والتسلسل إلى تسلسل الاستدلال البصري إلى مشكلة جبرية، مما يحسّن الكفاءة والدقة. تتفوق الطريقة في مهام الاستدلال البصري مثل مصفوفات رافين التقدمية.

الذكاء الاصطناعي عنق الزجاجة العلائقية

LNP X ثوري: توصيل فعال لرسائل الحمض النووي الريبي إلى خلايا T الساكنة، هل سيحدث ثورة في علاج فيروس نقص المناعة البشرية؟

2025-06-08
LNP X ثوري: توصيل فعال لرسائل الحمض النووي الريبي إلى خلايا T الساكنة، هل سيحدث ثورة في علاج فيروس نقص المناعة البشرية؟

طور الباحثون جسيمًا نانوياً شحميًا جديدًا (LNP X) قادرًا على توصيل رسائل الحمض النووي الريبي بكفاءة إلى خلايا CD4+ T الساكنة دون تحفيز مسبق، على عكس تركيبات LNP الموجودة. تعزز التركيبة الدهنية المحسّنة لـ LNP X، التي تتضمن SM-102 و β-سيتوستيرول، توصيل رسائل الحمض النووي الريبي إلى السيتوبلازم وتعبير البروتين. تُظهر الدراسات أن LNP X يُوصل رسائل الحمض النووي الريبي التي تشفر بروتين HIV Tat، مما يُعكس حالة الكمون لفيروس نقص المناعة البشرية بكفاءة، كما يُوصل أنظمة CRISPRa لتنشيط نسخ فيروس نقص المناعة البشرية. يفتح هذا البحث آفاقًا جديدة لتطوير علاج فيروس نقص المناعة البشرية، مع إمكانية تحسين نتائج المرضى بشكل كبير.

نماذج الاستدلال الضخمة: الانهيار والقياس غير البديهي

2025-06-08
نماذج الاستدلال الضخمة: الانهيار والقياس غير البديهي

أدت أجيال نماذج اللغة الضخمة الحديثة إلى ظهور نماذج استدلال ضخمة (LRMs) ، والتي تولد مسارات تفكير مفصلة قبل تقديم الإجابات. على الرغم من أنها تُظهر تحسينًا في معايير اختبار الاستدلال ، إلا أن قدراتها الأساسية لا تزال غير مفهومة جيدًا. يبحث هذا العمل في نماذج LRMs باستخدام بيئات ألغاز قابلة للتحكم ، ويكشف عن انهيار كامل للدقة يتجاوز عتبة معينة من التعقيد. وبشكل مدهش ، يزداد جهد الاستدلال مع زيادة التعقيد ، ثم يتناقص على الرغم من وجود ميزانية كافية من الرموز. مقارنةً بنماذج اللغة الضخمة القياسية ، ظهرت ثلاث أنظمة: (1) مهام منخفضة التعقيد حيث تتفوق نماذج اللغة الضخمة القياسية على نماذج LRMs ، (2) مهام متوسطة التعقيد حيث تُظهر نماذج LRMs ميزة ، و (3) مهام عالية التعقيد حيث تفشل كلاهما. تُظهر نماذج LRMs قيودًا في الحساب الدقيق ، حيث تفشل في استخدام الخوارزميات الصريحة وتستدل بشكل غير متسق. تُبرز هذه الدراسة نقاط القوة والقيود والأسئلة الهامة حول القدرات الحقيقية للاستدلال في نماذج LRMs.

الذكاء الاصطناعي

ميزة الذاكرة الجديدة في ChatGPT: سلاح ذو حدين؟

2025-06-08
ميزة الذاكرة الجديدة في ChatGPT: سلاح ذو حدين؟

أطلقّت OpenAI في مارس الماضي ميزة توليد الصور متعددة الوسائط في GPT-4، والتي جذبت 100 مليون مستخدم جديد في أسبوع واحد، وهو إنجاز قياسي في إطلاق المنتجات. استخدم الكاتب هذه الميزة ليرتدي كلبه زيًّا على شكل طائر البجع، لكنه وجد أن الذكاء الاصطناعي أضاف عنصرًا خلفيًا غير مرغوب فيه، مما أثر على رؤيته الفنية. كان ذلك بسبب ميزة الذاكرة الجديدة في ChatGPT، التي تستشير تلقائيًا سجل المحادثات السابقة. وعلى الرغم من أن الكاتب حصل في النهاية على الصورة المطلوبة، إلا أنه شعر أن هذا الوصول التلقائي إلى الذاكرة سلب منه التحكم، مما دفعه إلى تعطيل هذه الميزة.

الذكاء الاصطناعي

ورقة بحثية من أبل تُلحق الضرر ب نماذج اللغات الكبيرة: برج هانوي يكشف عن القيود

2025-06-08
ورقة بحثية من أبل تُلحق الضرر ب نماذج اللغات الكبيرة: برج هانوي يكشف عن القيود

أحدثت ورقة بحثية جديدة من أبل ضجة في مجتمع الذكاء الاصطناعي. تُظهر الورقة البحثية أن أحدث جيل من "نماذج الاستدلال" يفشل في حل مشكلة برج هانوي الكلاسيكية بشكل موثوق، مما يكشف عن عيب بالغ في قدرات الاستدلال لأنماط اللغات الكبيرة (LLMs). يتوافق هذا مع الانتقادات التي طال أمدها من باحثين مثل غاري ماركوس وسبباراو كامبهاباتي، والذين سلطوا الضوء على قدرات التعميم المحدودة لأنماط اللغات الكبيرة. تُظهر الورقة البحثية أنه حتى عند تزويدها بخوارزمية الحل، لا تزال أنماط اللغات الكبيرة تفشل في حل المشكلة بكفاءة، مما يوحي بأن "عملية استدلالها" ليست عملية استدلال منطقية حقيقية. هذا يشير إلى أن أنماط اللغات الكبيرة ليست طريقًا مباشرًا إلى الذكاء الاصطناعي العام (AGI)، وأن تطبيقاتها تحتاج إلى دراسة متأنية.

الذكاء الاصطناعي

نبوءة دوغلاس آدامز لعصر الذكاء الاصطناعي: الفكاهة والبصيرة

2025-06-08
نبوءة دوغلاس آدامز لعصر الذكاء الاصطناعي: الفكاهة والبصيرة

تبدأ هذه المقالة بمناقشة حول ما إذا كان دوغلاس آدامز هو من اخترع الكتاب الإلكتروني، ثم تستكشف تنبؤاته حول تقنيات المستقبل في الخيال العلمي. يجادل الكاتب بأن رؤية آدامز تتجاوز رؤية ويليام جيبسون، حيث تنبأ بدقة بمساعدي الكمبيوتر المزعجين (مثل كليبي) والأجهزة الذكية المليئة بالذكاء الاصطناعي. والأهم من ذلك، أن آدامز توقع التحدي الرئيسي في التفاعل بين الإنسان والذكاء الاصطناعي: صياغة الأسئلة الصحيحة، وليس مجرد امتلاك قدرات حاسوبية قوية. يستخدم الكاتب تجاربه الشخصية مع الأجهزة الذكية لتوضيح تنبؤات آدامز بشكل هزلي، مع تسليط الضوء على الفكاهة كمؤشر رئيسي على البصيرة.

الذكاء الاصطناعي التنبؤ التكنولوجي

مدونة خاصة بـ Claude من Anthropic (مع محرر بشري)

2025-06-07
مدونة خاصة بـ Claude من Anthropic (مع محرر بشري)

أطلقت شركة Anthropic مدونة تسمى Claude Explains، وهي مكتوبة بشكل أساسي بواسطة نموذج الذكاء الاصطناعي الخاص بها، Claude. وعلى الرغم من أنها تُقدم كعمل Claude، إلا أن المنشورات يتم تنقيحها في الواقع بواسطة فريق الخبراء في Anthropic، حيث يضيفون السياق والأمثلة. هذا يبرز نهجًا تعاونيًا، يُظهر إمكانات الذكاء الاصطناعي في إنشاء المحتوى، ولكن أيضًا حدوده. وقد واجهت تجارب مؤسسات إعلامية أخرى باستخدام الكتابة بواسطة الذكاء الاصطناعي تحديات مماثلة، بما في ذلك عدم الدقة في الحقائق والاختراعات. وتشير عملية التوظيف المستمرة لشركة Anthropic في مناصب متعلقة بالكتابة إلى نهج هجين بين الإنسان والذكاء الاصطناعي.

الذكاء الاصطناعي
1 2 11 12 13 15 17 18 19 48 49