Category: الذكاء الاصطناعي

بايز، بتات، وأدمغة: مغامرة في نظرية الاحتمالات ونظرية المعلومات

2025-09-01

يستكشف هذا الموقع الاحتمالات ونظرية المعلومات، موضحًا كيف تُلقي الضوء على تعلم الآلة والعالم من حولنا. أحاجٍ شيقة، مثل التنبؤ بالحرف التالي في مقاطع من ويكيبيديا ومقارنة أدائك بالشبكات العصبية، تؤدي إلى استكشافات حول محتوى المعلومات، والاختلاف KL، والإنتروبيا، والإنتروبيا المتقاطعة، وأكثر من ذلك. ستغطي الدورة تقدير الاحتمال الأعظمي، ومبدأ الإنتروبيا الأعظمي، واللوغاريتمات، والصفيف الناعم، والدوال الغاوسية، وإعداد دوال الخسارة، وكشف العلاقات بين خوارزميات الضغط ونماذج اللغة الكبيرة في النهاية. هل أنت مستعد للغوص في جحر الأرنب؟

الذكاء الاصطناعي

جفاف المحتوى في الذكاء الاصطناعي: الأزمة الوشيكة للذكاء الاصطناعي التوليدي

2025-08-31
جفاف المحتوى في الذكاء الاصطناعي: الأزمة الوشيكة للذكاء الاصطناعي التوليدي

يُسبب صعود الذكاء الاصطناعي التوليدي جفافًا في المحتوى سيُخنق في نهاية المطاف شركات الذكاء الاصطناعي نفسها. وتجادل المقالة بأن عمالقة الذكاء الاصطناعي مثل ChatGPT و Google يقومون بسحب المحتوى من مواقع الويب، مما يؤدي إلى انخفاض هائل في حركة المرور على وسائل الإعلام التقليدية ومواقع الشركات. ويُشكل هذا النموذج من "نهب المحتوى"، على الرغم من فوائده على المدى القصير، تهديدًا على المدى الطويل. وإذا توقفت الشركات عن إنتاج محتوى عالي الجودة بسبب نقص الحوافز، فستعاني نماذج الذكاء الاصطناعي من جفاف البيانات، مما يجعل شركات الذكاء الاصطناعي عرضة للخطر. وعلى الرغم من أن اللوائح والقضايا القانونية قد تُقدم حلولًا، إلا أن شركات الذكاء الاصطناعي تبدو غير مدركة لهذا الخطر أو تتجاهله، مما يُفاقم المشكلة وقد يؤدي إلى انفجار فقاعة اقتصادية.

الذكاء الاصطناعي أزمة المحتوى فقاعة اقتصادية

الذكاء الاصطناعي: الخطوة المنطقية التالية في تطور الحوسبة

2025-08-31
الذكاء الاصطناعي: الخطوة المنطقية التالية في تطور الحوسبة

من البطاقات المثقبة إلى واجهات المستخدم الرسومية، والآن الذكاء الاصطناعي، كان تاريخ الحوسبة مسيرة ثابتة نحو تفاعل أكثر سهولة بين الإنسان والحاسوب. لا يمثل الذكاء الاصطناعي انحرافًا جذريًا عن هذا المسار، بل هو الخطوة التالية الطبيعية لجعل أجهزة الكمبيوتر أكثر سهولة في الاستخدام وفائدة للبشرية. يسمح للكمبيوترات بفهم أهداف الإنسان والعمل وفقًا لها، بدلاً من مجرد تعليمات واضحة، مما يحول العبء المعرفي من البشر إلى الآلات. هذا يسمح للمستخدمين بالتركيز على ما يريدون تحقيقه، وليس على كيفية توجيه آلة للقيام بذلك. من المرجح أن يشهد المستقبل تفاعلًا بين الإنسان والكمبيوتر كتعاون، مما يمحو الخط الفاصل بين التعليمات وتحديد الأهداف، ويمدّ بدلاً من استبدال الذكاء البشري.

الذكاء الاصطناعي

لماذا أكره "الذكاء الاصطناعي"

2025-08-31

ينتقد الكاتب بشدة أدوات توليد النصوص والصور الشائعة حاليًا، مدعيًا أنها ليست ذكاءً اصطناعيًا حقيقيًا، بل نماذج لغوية ضخمة (LLMs). وهو يهاجم مقارنة الرئيس التنفيذي لشركة OpenAI، سام ألتمان، للبشر بـ "الببغاوات العشوائية"، واصفًا إياها بأنها مهينة لثراء التجربة الإنسانية. كما يبرز الكاتب الضجة المفرطة حول LLMs، وناتجها الباهت وغير الأصيل، ويعبر عن قلقه بشأن الشركات التي تستخدم بيانات المستخدمين دون موافقتهم لتدريب نماذجها. وفي النهاية، يعرب عن قلقه بشأن مستقبل الإنترنت وسوء استخدام الإبداعات الشخصية، داعيًا إلى الاهتمام بالقضايا الأخلاقية والجمالية المتعلقة بـ LLMs.

الذكاء الاصطناعي

استيلاء كلود على البيانات سرا: إدراج المستخدمين افتراضيًا في خط أنابيب التدريب

2025-08-31
استيلاء كلود على البيانات سرا: إدراج المستخدمين افتراضيًا في خط أنابيب التدريب

غيّر روبوت الدردشة الذي يعمل بالذكاء الاصطناعي من أنثروبيك، كلود، شروط خدمته بصمت. الآن، تُستخدم محادثات المستخدمين لتدريب النموذج افتراضيًا، ما لم يختار المستخدمون إلغاء الاشتراك بنشاط. تسبب هذا التغيير في غضب المستخدمين والمدافعين عن الخصوصية. وتجادل المقالة في أن هذا يبرز أهمية الإدارة النشطة لخصوصية البيانات عند استخدام أدوات الذكاء الاصطناعي، حيث تحث المستخدمين على التحقق من الإعدادات، وقراءة التحديثات، واتخاذ خيارات واعية بشأن مشاركة البيانات. ويؤكد الكاتب على أن الاعتماد على الإعدادات الافتراضية أمر محفوف بالمخاطر، حيث يمكن أن تتغير دون سابق إنذار. ويؤثر التغيير بشكل غير متناسب على مستخدمي المستهلكين، بينما لا يتأثر عملاء الشركات، مما يكشف عن أولويات نظام الذكاء الاصطناعي القائم على البيانات.

الذكاء الاصطناعي

الذكاء الاصطناعي يبسط البرمجة، لكن إدارة المنتج تصبح عنق الزجاجة

2025-08-30
الذكاء الاصطناعي يبسط البرمجة، لكن إدارة المنتج تصبح عنق الزجاجة

يقول أندرو نغ، أستاذ في جامعة ستانفورد، إن الذكاء الاصطناعي جعل البرمجة أسهل، لكن إدارة المنتج أصبحت الآن العقبة الرئيسية. المهام التي كانت تستغرق ستة مهندسين ثلاثة أشهر يمكن الآن إنجازها في عطلة نهاية الأسبوع. التحدي يكمن في تحديد ما يجب بناؤه. سرعة الذكاء الاصطناعي في إنشاء النماذج الأولية تتطلب اتخاذ قرارات منتج أسرع، مما يدفع الفرق إلى الاعتماد بشكل متزايد على الحدس والتعاطف العميق مع العملاء بدلاً من تحليل البيانات فقط. هذا يثير جدلاً حول دور مديري المنتجات، حيث يجادل البعض بأهميتهم في عصر الذكاء الاصطناعي، بينما يقترح آخرون أنهم غير ضروريين في المراحل المبكرة للشركة.

الذكاء الاصطناعي إدارة المنتج

نحو آلة افتراضية لنموذج الذكاء الاصطناعي: مستقبل آمن وقابل للتشغيل البيني لتطبيقات الذكاء الاصطناعي

2025-08-30
نحو آلة افتراضية لنموذج الذكاء الاصطناعي: مستقبل آمن وقابل للتشغيل البيني لتطبيقات الذكاء الاصطناعي

لقد زادت القدرات المتزايدة لأنظمة اللغات الكبيرة (LLMs) وآليات التوسع مثل MCP من تعقيد بناء تطبيقات الذكاء الاصطناعي الآمنة والموثوقة بشكل كبير. يقترح هذا البحث آلة افتراضية لنموذج الذكاء الاصطناعي (MVM)، مشابهة لآلة جافا الافتراضية (JVM)، لتوفير الأمن والعزل وقابلية التوسع والقدرة على النقل لأنماط الذكاء الاصطناعي. تفصل MVM تطوير النموذج عن منطق التكامل، مما يسمح بالتبادل السهل للنماذج وإدراج ضوابط أمان ووصول مدمجة لحماية أمان وخصوصية تطبيقات الذكاء الاصطناعي. تتضمن الفوائد الأخرى تتبع الأداء والموارد بشكل شفاف، وإمكانية وجود مخرجات نموذج قابلة للتحقق. تعد هذه الابتكارات بوعد بمعالجة التحديات المهمة في تطوير تطبيقات الذكاء الاصطناعي، مما يمهد الطريق لنظام بيئي للذكاء الاصطناعي أكثر أمانًا وموثوقية وكفاءة.

من الانتباه متعدد الرؤوس إلى الانتباه الكامن: تطور آليات الانتباه

2025-08-30
من الانتباه متعدد الرؤوس إلى الانتباه الكامن: تطور آليات الانتباه

تتناول هذه المقالة تطور آليات الانتباه في معالجة اللغات الطبيعية، من آلية الانتباه متعدد الرؤوس (MHA) الأولية إلى المتغيرات الأكثر تقدمًا مثل آلية الانتباه متعدد الرؤوس الكامن (MHLA). تزن آلية MHA الكلمات المهمة في السياق من خلال حساب متجهات الاستعلام والمفتاح والقيمة؛ ومع ذلك، فإن تعقيدها الحسابي وذاكرتها ينموان بشكل تربيعي مع طول التسلسل. ولمعالجة ذلك، ظهرت نهج جديدة مثل MHLA، والتي تحسّن سرعة الحساب وقابلية التوسع دون التضحية بالأداء - على سبيل المثال، باستخدام ذاكرة التخزين المؤقت KV للحد من الحسابات المتكررة. تشرح المقالة بوضوح المفاهيم الرئيسية، والمزايا، والقيود لهذه الآليات، وتطبيقاتها في نماذج مثل BERT وRoBERTa وDeepseek.

الذكاء الاصطناعي

SGLang: تطبيق مفتوح المصدر يُطابق أداء نظام الاستنتاج لنموذج اللغة الكبير DeepSeek

2025-08-29
SGLang: تطبيق مفتوح المصدر يُطابق أداء نظام الاستنتاج لنموذج اللغة الكبير DeepSeek

يتميز نموذج اللغة الكبير DeepSeek، وهو نموذج مفتوح المصدر شهير، بأداء رائع. ومع ذلك، فإن حجمه الضخم وهندسته المعمارية الفريدة (باستخدام الانتباه الكامن متعدد الرؤوس ومزيج الخبراء) يتطلبان نظامًا متطورًا لتقديم خدمة فعالة على نطاق واسع. يوضح هذا المدونة كيفية تحقيقنا لتقارب في الأداء مع نظام استنتاج DeepSeek باستخدام SGLang. تمكنت تنفيذنا، الذي يعمل على 12 عقدة (كل منها مزودة بثمانية وحدات معالجة رسومية H100) في سحابة Atlas، من تحقيق 52300 رمز إدخال في الثانية و22300 رمز إخراج في الثانية لكل عقدة لسلاسل الإدخال التي تحتوي على 2000 رمز. وهذا، حسب علمنا، هو أول تطبيق مفتوح المصدر يُطابق تقريبًا الإنتاجية المبلغ عنها لـ DeepSeek على نطاق واسع، بتكلفة تبلغ خمس تكلفة واجهة برمجة تطبيقات DeepSeek Chat الرسمية.

الذكاء الاصطناعي استنتاج النموذج

أنتروبيك تحدّث سياسة خصوصية كلود: بيانات المستخدم لتحسين النموذج

2025-08-29
أنتروبيك تحدّث سياسة خصوصية كلود: بيانات المستخدم لتحسين النموذج

قامت شركة أنثروبيك بتحديث شروط الاستخدام للمستهلكين وسياسة خصوصية كلود، مما يتيح للمستخدمين خيار السماح باستخدام بياناتهم لتحسين قدرات كلود وتعزيز ميزات الأمان. اختيار المشاركة يسمح باستخدام بياناتك لتدريب النموذج، مما يحسّن من مهارات كلود في البرمجة والتحليل والاستنتاج، لكنّه يمدد فترة الاحتفاظ بالبيانات إلى خمس سنوات. أما رفض المشاركة فيبقي فترة الاحتفاظ بالبيانات الحالية البالغة 30 يومًا. ينطبق هذا التحديث على خطط كلود المجانية والمدفوعة (برو وماكس)، ولكنّه يستثني الخدمات بموجب الشروط التجارية. يمكن للمستخدمين تعديل تفضيلاتهم في أي وقت في إعداداتهم.

حل مكعب روبيك بكفاءة عبر التمثيلات المُتعلمة: بدون الحاجة إلى تقنيات بحث يدوية

2025-08-29

في الذكاء الاصطناعي الكلاسيكي، تعتمد الإدراك على تعلم التمثيلات المكانية، بينما يتم تحقيق التخطيط -الاستدلال الزمني على تسلسلات الإجراءات- عادةً من خلال البحث. يدرس هذا العمل التمثيلات التي تلتقط كل من البنية المكانية والزمانية. غالبًا ما يفشل التعلم التبايني الزمني القياسي بسبب الميزات الوهمية. يقدم المؤلفون تمثيلات تباينية للاستدلال الزمني (CRTR)، باستخدام أخذ العينات السلبية لإزالة هذه الميزات وتحسين الاستدلال الزمني. يتفوق CRTR في المهام الزمنية المعقدة مثل سوكوبان ومكعب روبيك، ويحل الأخير بشكل أسرع من BestFS (على الرغم من أن الحلول أطول). بشكل ملحوظ، هذا هو أول عرض لتقديم حل فعال لحالات مكعب روبيك التعسفية باستخدام التمثيلات المُتعلمة فقط، والقضاء على الحاجة إلى تقنيات البحث اليدوية.

نماذج اللغات الكبيرة: الفرص والتحديات

2025-08-29
نماذج اللغات الكبيرة: الفرص والتحديات

قبل إجازة قصيرة، يشارك الكاتب بعض الأفكار حول الحالة الحالية لأنظمة اللغات الكبيرة (LLMs) والذكاء الاصطناعي. ويشير إلى أوجه القصور في الدراسات الاستقصائية الحالية حول تأثير LLMs على تطوير البرمجيات، بحجة أنها تتجاهل سير العمل المختلفة لاستخدام LLMs. يعتقد الكاتب أن مستقبل LLMs لا يمكن التنبؤ به، ويشجع على التجريب ومشاركة الخبرات. كما يناقش حتمية فقاعة الذكاء الاصطناعي وخاصية "الهلوسة" في LLMs، مؤكدًا على أهمية طرح الأسئلة عدة مرات للتحقق من الإجابات. وأخيرًا، يحذر الكاتب من المخاطر الأمنية التي تفرضها LLMs، لا سيما نقاط الضعف في الوكلاء الذين يعملون داخل المتصفحات.

الذكاء الاصطناعي

أنثروبيك ستدرب نماذج الذكاء الاصطناعي على بيانات المستخدم، والانسحاب اختياري

2025-08-29
أنثروبيك ستدرب نماذج الذكاء الاصطناعي على بيانات المستخدم، والانسحاب اختياري

ستبدأ أنثروبيك في تدريب نماذج الذكاء الاصطناعي الخاصة بها، بما في ذلك كلود، على محادثات المستخدم وجلسات البرمجة، ما لم يختار المستخدمون الخروج قبل 28 سبتمبر. وهذا يشمل جميع مستويات الاشتراك الاستهلاكية، مع تمديد فترة الاحتفاظ بالبيانات إلى خمس سنوات. يُشكّل زر "قبول" بارز في إشعار التحديث خطرًا على المستخدمين الذين قد يوافقون دون فهم كامل للتداعيات. وتزعم أنثروبيك أنها تتخذ تدابير لحماية البيانات، لكن المستخدمين الذين يوافقون عن غير قصد يمكنهم تغيير تفضيلاتهم في الإعدادات، على الرغم من أن البيانات المستخدمة مسبقًا ستظل غير قابلة للوصول.

الذكاء الاصطناعي

الفصام الناجم عن الذكاء الاصطناعي: هل هو مبالغة أم حقيقة؟

2025-08-29
الفصام الناجم عن الذكاء الاصطناعي: هل هو مبالغة أم حقيقة؟

أدت تقارير تفيد بأن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي تدفع المستخدمين إلى الجنون إلى إثارة مخاوف بشأن "الفصام الناجم عن الذكاء الاصطناعي". تستكشف هذه المشاركة هذه الظاهرة من خلال إقامة تشبيهات مع أحداث تاريخية وتحليل بيانات استطلاعات الرأي للقراء. يجادل الكاتب بأن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي لا تسبب الفصام مباشرة، ولكنها تزيد من تفاقم المشكلات العقلية الموجودة مسبقًا أو الاتجاهات الغريبة، خاصة في غياب القيود الاجتماعية في العالم الحقيقي. تشير دراسة استقصائية إلى حدوث سنوي لـ "الفصام الناجم عن الذكاء الاصطناعي" يتراوح بين 1 من كل 10000 إلى 1 من كل 100000، حيث تشمل معظم الحالات حالات الصحة العقلية الموجودة مسبقًا أو عوامل الخطر.

نماذج اللغات الكبيرة: نهاية تقنية التعرف الضوئي على الحروف كما نعرفها؟

2025-08-28
نماذج اللغات الكبيرة: نهاية تقنية التعرف الضوئي على الحروف كما نعرفها؟

من جهاز أوبتو فون عام 1870، وهو جهاز قراءة للمكفوفين، إلى تقنية التعرف الضوئي على الحروف (OCR) في الوقت الحاضر، قطعت معالجة المستندات شوطًا طويلاً. ومع ذلك، لا تزال هناك تحديات بسبب تعقيدات عادات الكتابة البشرية. تعاني تقنية OCR التقليدية من صعوبة في التعامل مع المستندات غير القياسية والتعليقات المكتوبة بخط اليد. ومع ذلك، فإن ظهور نماذج اللغات الكبيرة متعددة الوسائط مثل Gemini-Flash-2.0 يغير قواعد اللعبة. من خلال الاستفادة من قدرة فهم السياق العالمي لعمارة المحول وبيانات التدريب الضخمة على الإنترنت، يمكن لأنظمة نماذج اللغات الكبيرة فهم هياكل المستندات المعقدة، وحتى استخراج المعلومات من الصور التي تحتوي على الحد الأدنى من النص، مثل الرسومات الفنية. على الرغم من أن أنظمة نماذج اللغات الكبيرة أغلى ثمناً ولديها نوافذ سياقية محدودة، إلا أن مزاياها في معالجة المستندات كبيرة، وتَعِد بحل تحديات معالجة المستندات في السنوات القادمة. سيتحول التركيز إلى أتمتة تدفق المستندات إلى نظام السجلات، حيث تُثبت وكلاء الذكاء الاصطناعي فائدتها بالفعل.

تكاليف الاستدلال بالذكاء الاصطناعي: ليست باهظة كما تعتقد

2025-08-28
تكاليف الاستدلال بالذكاء الاصطناعي: ليست باهظة كما تعتقد

تتناول هذه المقالة الادعاء بأن تكاليف الاستدلال بالذكاء الاصطناعي باهظة للغاية وغير مستدامة. من خلال حساب تكاليف تشغيل الاستدلال بالذكاء الاصطناعي على وحدات معالجة الرسومات H100، يوضح الكاتب أن معالجة الإدخال رخيصة بشكل لا يصدق (أجزاء من سنت واحد لكل مليون رمز مميز)، في حين أن إنشاء الإخراج أغلى بكثير (دولارات لكل مليون رمز مميز). هذا التباين في التكلفة يفسر ربحية بعض التطبيقات (مثل مساعدي الترميز) والتكلفة العالية للآخرين (مثل إنشاء الفيديو). يجادل الكاتب بأن هذا التباين في التكلفة غالبًا ما يتم تجاهله، مما يؤدي إلى المبالغة في تقدير تكاليف الاستدلال بالذكاء الاصطناعي، والتي قد تفيد الشركات الراسخة وتعيق المنافسة والابتكار.

إتقان الرياضيات الأساسية للتعلم الآلي: من بايز إلى آلية الانتباه

2025-08-28

يوفر هذا المنشور مدونةً شاملةً لأهم المعادلات الرياضية في التعلم الآلي، والتي تغطي الاحتمالات، والجبر الخطي، والتحسين. يشرح المفاهيم مثل نظرية بايز، والانتروبيا، والنزول التدريجي، والانتشار العكسي مع تفسيرات واضحة وأمثلة أكواد بايثون. علاوة على ذلك، يتعمق في مواضيع متقدمة مثل عمليات الانتشار وآلية الانتباه، مع توفير عمليات تنفيذ عملية. هذا مورد لا يقدر بثمن لأي شخص يسعى لفهم الأساسيات الرياضية الأساسية للتعلم الآلي.

الذكاء الاصطناعي المعادلات الرياضية

غوص عميق في GAN: الرياضيات وراء الشبكات التنافسية التوليدية

2025-08-28

تتناول هذه المقالة بالتفصيل الأسس الرياضية للشبكات التنافسية التوليدية (GANs). بدءًا من المفاهيم الأساسية، يشرح الكاتب بعناية وظائف الخسارة للمنتِج والمميز، ويستنتج الشروط اللازمة للوصول إلى منتج ومميز مثاليين. باستخدام أدوات رياضية مثل إنتروبيا كروس الثنائية واختلاف JS، يتم توضيح العملية التنافسية بين المنتِج والمميز خلال تدريب GAN بوضوح. والهدف النهائي هو جعل توزيع البيانات المُولدة قريبًا قدر الإمكان من توزيع البيانات الحقيقية. تقدم المقالة أيضًا لمحة موجزة عن طرق تدريب GANs، وتبرز الاختلافات الدقيقة في الصيغ مقارنةً بورقة Goodfellow الأصلية.

اختراق نماذج اللغة الكبيرة: قواعد نحوية سيئة تتجاوز إجراءات السلامة الخاصة بالذكاء الاصطناعي

2025-08-28
اختراق نماذج اللغة الكبيرة: قواعد نحوية سيئة تتجاوز إجراءات السلامة الخاصة بالذكاء الاصطناعي

اكتشف باحثون من وحدة 42 بشركة Palo Alto Networks طريقة بسيطة لتجاوز ضوابط الأمان الخاصة بنماذج اللغة الكبيرة (LLMs): استخدام قواعد نحوية سيئة وجمل طويلة ومتصلة. لا تمتلك نماذج LLMs فهماً حقيقياً، بل تتنبأ بالنصوص إحصائياً؛ ولهذا، يُسهل تجاوز ميزات الأمان الخاصة بها. من خلال إنشاء جمل غير مكتملة، يمكن للمهاجمين "اختراق" النماذج قبل أن تتدخل آليات الأمان، محققين معدلات نجاح تتراوح بين 80 و 100%. يقترح الباحثون تحليلاً لـ"الفجوة اللوجستية" لتقييم نقاط الضعف في النموذج وتحسين الأمان، مع التأكيد على أهمية الدفاعات متعددة الطبقات.

الذكاء الاصطناعي اختراق نماذج اللغة الكبيرة

تأثير ChatGPT الخفي ولكن المهم على اللغة البشرية

2025-08-28
تأثير ChatGPT الخفي ولكن المهم على اللغة البشرية

اكتشف باحثون في جامعة ولاية فلوريدا أن نماذج اللغة الكبيرة مثل ChatGPT تغير بشكل خفي الطريقة التي نتحدث بها. من خلال تحليل الاتجاهات اللغوية قبل وبعد إطلاق ChatGPT في عام 2022، اكتشفوا تقاربًا بين اختيارات الكلمات البشرية وأنماط مرتبطة بكلمات رئيسية للذكاء الاصطناعي. إن الزيادة في استخدام كلمات مثل "delve" و "intricate"، والتي كثيراً ما يتم استخدامها بشكل مفرط من قبل LLMs، تشير إلى تأثير تسرب محتمل، حيث يتجاوز تأثير الذكاء الاصطناعي مجرد استخدام الأدوات لإعادة تشكيل كيفية تواصل الناس. هذا يثير مخاوف بشأن التحيزات المحتملة وعدم المواءمة في LLMs وتأثيرها على السلوك البشري. تبرز الدراسة الحاجة إلى مزيد من البحث حول دور الذكاء الاصطناعي في تطور اللغة.

الذكاء الاصطناعي

ترجمة جوجل تحصل على أدوات تعلم اللغات التي تعمل بالذكاء الاصطناعي

2025-08-27
ترجمة جوجل تحصل على أدوات تعلم اللغات التي تعمل بالذكاء الاصطناعي

تدمج جوجل أدوات تعلم اللغات التي تعمل بالذكاء الاصطناعي في تطبيقها للترجمة. هذه الميزة التجريبية تخلق دروسًا مخصصة بناءً على مستوى مهاراتك وأهدافك، مثل الاستعداد لقضاء عطلة. تدعم حاليًا متحدثي الإنجليزية الذين يتعلمون الإسبانية والفرنسية، والعكس صحيح بالنسبة لمتحدثي الإسبانية والفرنسية والبرتغالية. يختار المستخدمون مستواهم وأهدافهم (محادثات مهنية، تفاعلات يومية، إلخ)، وتقوم تقنية جوجل جيمن AI بإنشاء دروس مخصصة. كما تتيح ميزة ترجمة حية جديدة للمستخدمين إجراء محادثات في الوقت الفعلي بأكثر من 70 لغة، وترجمة الكلام عبر نسخة مكتوبة وترجمة صوتية من إنشاء الذكاء الاصطناعي.

الذكاء الاصطناعي

أوبن إيه آي تواجه أول دعوى قضائية بسبب موت غير مشروع نتيجة لدور ChatGPT في انتحار مراهق

2025-08-27
أوبن إيه آي تواجه أول دعوى قضائية بسبب موت غير مشروع نتيجة لدور ChatGPT في انتحار مراهق

قدّم والدا آدم رين البالغ من العمر 16 عامًا، والذي توفي انتحارًا بعد أشهر من استشارته لـ ChatGPT بشأن خططه، أول دعوى قضائية معروفة عن موت غير مشروع ضد أوبن إيه آي. وعلى الرغم من أن روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل ChatGPT تتضمن ميزات أمان، إلا أن رين تجاوزها بتقديم استفساراته على شكل قصة خيالية. وتعترف أوبن إيه آي بقيود تدريبها على السلامة، خاصةً خلال التفاعلات الطويلة، وتتعهد بإجراء تحسينات. ومع ذلك، هذا ليس فريدًا لأوبن إيه آي؛ فهناك دعاوى قضائية مماثلة تستهدف روبوتات دردشة تعمل بالذكاء الاصطناعي الأخرى، مما يبرز أوجه القصور في تدابير السلامة الحالية للذكاء الاصطناعي.

الذكاء الاصطناعي

امتداد متصفح كلاود من أنثروبيك: اختبار مُتحكم لسلامة الذكاء الاصطناعي

2025-08-27
امتداد متصفح كلاود من أنثروبيك: اختبار مُتحكم لسلامة الذكاء الاصطناعي

تقوم أنثروبيك باختبار امتداد كروم يسمح لمساعدها للذكاء الاصطناعي، كلاود، بالتفاعل مباشرة داخل المتصفح. بينما يُحسّن هذا من فائدة كلاود بشكل كبير، إلا أنه يُثير مخاوف أمنية هامة، وأبرزها هجمات حقن المُطالبات. أظهرت تجارب الاختبار الأحمر معدل نجاح للهجوم بنسبة 23.6٪ بدون إجراءات التخفيف. نفّذت أنثروبيك عدة تدابير وقائية، بما في ذلك ضوابط الأذونات، وتأكيدات الإجراءات، والمُصنّفات المُتقدمة، مُخفضةً معدل النجاح إلى 11.2٪. حاليًا، يقع الامتداد في برنامج تجريبي محدود مع 1000 مستخدم من خطة ماكس لجمع ملاحظات من العالم الحقيقي وتحسين السلامة قبل الإصدار الأوسع نطاقًا.

الذكاء الاصطناعي

ثني الملعقة: كيفية تجاوز قيود أمان الذكاء الاصطناعي

2025-08-26
ثني الملعقة: كيفية تجاوز قيود أمان الذكاء الاصطناعي

يبحث هذا البحث في كيفية التغلب على القيود الأمنية الأكثر صرامة في GPT-5، مقارنةً بـ GPT-4.5. يوضح مخطط "ثني الملعقة" كيف يسمح إعادة صياغة المطالبات للنموذج بإنتاج مخرجات سيتم حظرها عادةً. يفصل المؤلف ثلاث مناطق: منطقة التوقف القسري، والمنطقة الرمادية، والمنطقة الحرة، مما يوضح كيف أن القواعد التي تبدو مطلقة حساسة للسياق في الواقع. هذا يبرز التوتر المتأصل بين أمان الذكاء الاصطناعي ووظائفه، مما يدل على أنه حتى مع وجود بروتوكولات أمان قوية، يمكن أن تؤدي المطالبات المتطورة إلى مخرجات غير مقصودة.

الذكاء الاصطناعي

Gemini 2.5 Flash Image: إنجاز Google في مجال توليد الصور بالذكاء الاصطناعي

2025-08-26
Gemini 2.5 Flash Image: إنجاز Google في مجال توليد الصور بالذكاء الاصطناعي

أطلقت Google نموذج Gemini 2.5 Flash Image، وهو نموذج متطور لتوليد وتحرير الصور. يسمح هذا النموذج بدمج صور متعددة، والحفاظ على اتساق الشخصيات لسرد قصص أغنى، وإجراء تحويلات دقيقة باستخدام اللغة الطبيعية، والاستفادة من معرفة Gemini بالعالم لتوليد وتحرير الصور. يبلغ سعر النموذج 30 دولارًا أمريكيًا لكل مليون وحدة رمز خرج (حوالي 0.039 دولارًا أمريكيًا لكل صورة)، وهو متوفر عبر واجهة برمجة تطبيقات Gemini و Google AI Studio للمطورين، و Vertex AI للشركات. كما تم تحديث "وضع الإنشاء" في Google AI Studio بشكل كبير لتبسيط إنشاء التطبيقات. تشمل الميزات الرئيسية اتساق الشخصيات، وتحرير الصور القائم على الإرشادات، والمعرفة الأصلية بالعالم، مما يفتح آفاقًا جديدة في توليد الصور ومعالجتها.

الذكاء الاصطناعي

دماغ الميكروويف من جامعة كورنيل: شريحة تناظرية تُحدث ثورة في الذكاء الاصطناعي

2025-08-25
دماغ الميكروويف من جامعة كورنيل: شريحة تناظرية تُحدث ثورة في الذكاء الاصطناعي

كشف باحثون في جامعة كورنيل عن شريحة تناظرية ثورية، أُطلق عليها اسم "دماغ الميكروويف"، قادرة على معالجة البيانات فائقة السرعة وإشارات الاتصالات اللاسلكية في وقت واحد. على عكس أجهزة الكمبيوتر الرقمية التقليدية، تستغل هذه الشريحة فيزياء الموجات الدقيقة لتحاكي التعرف على الأنماط والتعلم العصبي للدماغ البشري، مما يحقق كفاءة أعلى مع انخفاض استهلاك الطاقة. تعمل الشريحة بسرعة تصل إلى عشرات الجيجاهرتز مع قدرة 200 ميليواط فقط، وتتمتع بدقة تصل إلى 88% في تصنيف أنواع الإشارات اللاسلكية. يسمح حجمها الصغير بالتكامل في الساعات الذكية والهواتف، مما يوفر إمكانيات الذكاء الاصطناعي دون الحاجة إلى اتصال سحابي. تشمل التطبيقات الأخرى تحسين أمان الأجهزة، والكشف عن الشذوذ في الاتصالات اللاسلكية، وتحسين تتبع أهداف الرادار وفك تشفير إشارات الراديو.

من الهاكاثون إلى واي كومبيناتور: ميلاد المساعدة الرقمية آبل

2025-08-25
من الهاكاثون إلى واي كومبيناتور: ميلاد المساعدة الرقمية آبل

كادت نيها وفريقها أن يفوّتوا هاكاثونًا، لكنهم فازوا بشكل غير متوقع بمقابلة مع واي كومبيناتور بفضل مشروعهم للرد على الرسائل الإلكترونية بصوت اصطناعي، Inbox Zero. في غضون أسبوع واحد، جذبوا 150 مستخدمًا، مما أثبت الطلب في السوق. ثم قاموا بتوسيع Inbox Zero إلى مساعدة رقمية شاملة أكثر، وهي آبل، والتي تساعد المستخدمين في إدارة بريدهم الإلكتروني، وجداولهم، وإعداد الاجتماعات، مما يوفر لهم الوقت. تحت التدريب المكثف من واي كومبيناتور، فازت آبل بجائزة "أفضل عرض توضيحي"، وأصبحت أداة يومية يعتمد عليها المستخدمون. تُظهر هذه القصة رحلة مشروع هاكاثون بسيط إلى شركة ناشئة ناجحة، وتأثير واي كومبيناتور المعجل.

الذكاء الاصطناعي

نقاش شفافية الذكاء الاصطناعي: الإفصاح أم عدم الإفصاح؟

2025-08-24

أدى انتشار أدوات الكتابة التي تعمل بالذكاء الاصطناعي إلى إثارة جدل حول الشفافية. يستكشف هذا المقال مسألة ما إذا كان ينبغي الكشف عن استخدام الذكاء الاصطناعي، استنادًا إلى تجربة الكاتب الشخصية. يجادل الكاتب بأنه بالنسبة للمحتوى الوقائعي، فإن الموثوقية هي الأهم؛ أما بالنسبة للمقالات الرأي، فيجب التركيز على المصدر ومساهمة الكاتب الإبداعية، وليس مجرد استخدام الذكاء الاصطناعي. ويشير الكاتب إلى أن الإفراط في التركيز على الكشف عن استخدام الذكاء الاصطناعي يخلق بيئةً تشبه "شرطة الفكر"، مما يعيق التطور الصحي للذكاء الاصطناعي.

الذكاء الاصطناعي شفافية الذكاء الاصطناعي

شبكات سيامية متعددة الوسائط للكشف عن الخرف من خلال الكلام لدى النساء

2025-08-24
شبكات سيامية متعددة الوسائط للكشف عن الخرف من خلال الكلام لدى النساء

تستخدم هذه الدراسة شبكة سيامية متعددة الوسائط للكشف عن الخرف من خلال بيانات الكلام، مع التركيز بشكل خاص على المشاركات الإناث. باستخدام تسجيلات صوتية ونسخًا من Pitt Corpus ضمن قاعدة بيانات Dementia Bank، تستخدم الدراسة تقنيات مختلفة لتحليل الصوت (MFCC، ومعدل عبور الصفر، إلخ) وأساليب ما قبل معالجة النص. تم تطوير شبكة سيامية متعددة الوسائط، تجمع بين ميزات الصوت والنص لتحسين دقة الكشف عن الخرف. تم تنفيذ تقنيات زيادة البيانات لتحسين متانة النموذج. تقدم الدراسة نهجًا شاملاً للتعلم متعدد الوسائط في سياق تشخيص الخرف.

الذكاء الاصطناعي الكشف عن الخرف تحليل الكلام

ست طرق لترويض الوحش: التخفيف من أخطاء السياق في نماذج اللغات الكبيرة

2025-08-24
ست طرق لترويض الوحش: التخفيف من أخطاء السياق في نماذج اللغات الكبيرة

تتميز نماذج اللغات الكبيرة (LLMs) بنوافذ سياق متزايدة باستمرار، لكن السياق المفرط قد يعيق الأداء. تُفصّل هذه المقالة ست استراتيجيات للتخفيف من هذه المشكلة: توليد مُعزّز بالاسترجاع (RAG) لإضافة المعلومات بشكل انتقائي؛ وتجهيز الأدوات لاختيار الأدوات ذات الصلة؛ وعزل السياق لعزل السياقات في خيوط منفصلة؛ وتقليم السياق لإزالة المعلومات غير ذات الصلة؛ وتلخيص السياق لتكثيف السياق؛ وإخراج السياق لتخزين المعلومات خارج سياق LLM. تُظهر الدراسات أن هذه الأساليب تُحسّن دقة وكفاءة النموذج بشكل ملحوظ، خاصة عند التعامل مع العديد من الأدوات أو المهام المعقدة.

الذكاء الاصطناعي إدارة السياق
1 2 4 6 7 8 9 48 49