Category: الذكاء الاصطناعي

نموذج الذكاء الاصطناعي مفتوح المصدر DeepSeek R1 يتحدى OpenAI: الكفاءة تنتصر

2025-01-29
نموذج الذكاء الاصطناعي مفتوح المصدر DeepSeek R1 يتحدى OpenAI: الكفاءة تنتصر

أطلق مختبر الذكاء الاصطناعي الصيني DeepSeek نموذج الاستدلال الخاص به R1 مفتوح المصدر، والذي يقدم أداءً مماثلاً لنموذج o1 من OpenAI، لكنه تم تدريبه بتكلفة أقل بكثير على أجهزة أدنى مستوى. لم يكن قرار DeepSeek باعتماد المصدر المفتوح بسبب التضحية بالأرباح، بل لتجاوز العقبات الجيوسياسية لدخول الأسواق الغربية، والاستفادة من أساليب التدريب الفعالة التي تستخدمها. تحلّل المقالة الاتجاه المتزايد لأنماط المصدر المفتوح ومزاياها في البنية التحتية، مؤكدةً أن نماذج المصدر المفتوح تقضم حصص سوق عمالقة مثل OpenAI. ومع ذلك، تحتفظ OpenAI بمكانتها التنافسية بفضل ريادتها الهائلة ومواردها الضخمة.

الذكاء الاصطناعي

OpenAI تتهم DeepSeek باستخدام بياناتها لتدريب نماذج الذكاء الاصطناعي المنافسة

2025-01-29
OpenAI تتهم DeepSeek باستخدام بياناتها لتدريب نماذج الذكاء الاصطناعي المنافسة

وجدت OpenAI أدلة تشير إلى أن شركة DeepSeek الصينية للذكاء الاصطناعي استخدمت بيانات نموذج OpenAI لتدريب نماذجها الخاصة منخفضة التكلفة للذكاء الاصطناعي، مما قد ينتهك شروط الخدمة الخاصة بها. ويُعتقد أن DeepSeek استخدمت تقنية "التقطير" لاستخراج البيانات من نماذج OpenAI، مما سمح لها بتدريب نماذجها الخاصة بكسر من التكلفة - أقل بكثير من 100 مليون دولار أنفقتها OpenAI على GPT-4. وتحقق OpenAI ومايكروسوفت في هذا الأمر، مما أثار جدلاً حول ملكية الذكاء الاصطناعي وأمن البيانات، ويبرز المنافسة المتزايدة بين عمالقة التكنولوجيا.

الذكاء الاصطناعي

Qwen2.5-Max من علي بابا كلاود: قفزة عملاقة في مجال الذكاء الاصطناعي

2025-01-29
Qwen2.5-Max من علي بابا كلاود: قفزة عملاقة في مجال الذكاء الاصطناعي

كشفت علي بابا كلاود عن نموذجها اللغوي الكبير الجديد Qwen2.5-Max، وهو نموذج قائم على تقنية Mixture-of-Experts (MoE). تم تدريبه على أكثر من 20 تريليون رمز، ويُتميّز بطول سياق يصل إلى 100000 رمز، مما يجعله متفوقًا في معالجة النصوص الطويلة ومهام الاستدلال المعقدة. تُعطي بنية MoE كفاءة وأداءً عالياً، مما يسمح بمعالجة كميات ضخمة من المعلومات بسرعة ودقة، وتُناسب تطبيقات مثل التحليلات في الوقت الفعلي، وأتمتة دعم العملاء، وروبوتات الألعاب. يركز Qwen2.5-Max على الاستخدامات التجارية، ويهدف إلى مساعدة الشركات على تقليل تكاليف البنية التحتية وتحسين الأداء. يُمثل إطلاقه تقدمًا كبيرًا للصين في مجال الذكاء الاصطناعي على مستوى العالم، ويشير إلى مستقبل أكثر تنوعًا لتكنولوجيا الذكاء الاصطناعي.

الذكاء الاصطناعي علي بابا كلاود

اختراق DeepSeek للذكاء الاصطناعي: تجاوز CUDA لتحقيق كفاءة أعلى بعشر مرات

2025-01-29
اختراق DeepSeek للذكاء الاصطناعي: تجاوز CUDA لتحقيق كفاءة أعلى بعشر مرات

حققت شركة DeepSeek زيادة في كفاءة تدريب نماذج الذكاء الاصطناعي بمقدار عشرة أضعاف من خلال تجاوز معيار CUDA الصناعي واستخدام لغة برمجة PTX من Nvidia بدلاً من ذلك. باستخدام 2048 من وحدات معالجة الرسوميات Nvidia H800، دربوا نموذجًا لغويًا MoE يحتوي على 671 مليار معلمة في شهرين فقط. نشأ هذا الاختراق من تحسينات دقيقة لـ PTX من Nvidia، بما في ذلك إعادة تكوين موارد وحدة معالجة الرسوميات وتنفيذ خوارزميات خط الأنابيب المتقدمة. على الرغم من أن هذا النهج له تكاليف صيانة عالية، إلا أن انخفاض التكاليف بشكل كبير في التدريب أحدث صدمات في السوق، مما أدى حتى إلى انخفاض كبير في القيمة السوقية لشركة Nvidia.

الذكاء الاصطناعي

أريد أن يغضب الذكاء الاصطناعي الخاص بي: حول الحاجة إلى ذكاء اصطناعي وكيل

2025-01-29

يتخيل الكاتب مستقبلاً لا تكون فيه وكالات الذكاء الاصطناعي مجرد أدوات مطيعة، بل ممثلين حازمين قادرين على متابعة مصالحه، بل وحتى التعبير عن "الغضب". من خلال رسم أوجه التشابه مع القادة التاريخيين الأقوياء، يجادل الكاتب بأن الغضب يمكن أن يكون أداة قوية لتحقيق الأهداف. ومع ذلك، يحذر أيضًا من المخاطر الاجتماعية المترتبة على نشر هذا "الذكاء الاصطناعي الغاضب" على نطاق واسع، لأن الغضب يمكن إساءة استخدامه. ينتهي المقال بتأمل مدروس حول مستقبل الذكاء الاصطناعي ودعاية لبدء تشغيل الكاتب، Subble.

حيل ذاكرة التخزين المؤقت KV لنماذج اللغات الأسرع

2025-01-28
حيل ذاكرة التخزين المؤقت KV لنماذج اللغات الأسرع

إن بطء نماذج اللغات الكبيرة (LLM) في توليد النصوص ينبع من التعقيد الحسابي للاهتمام الذاتي. يستكشف هذا المقال ذاكرة التخزين المؤقت KV وتقنيات تحسينها. تقوم ذاكرة التخزين المؤقت KV بتخزين أزواج المفتاح والقيمة لكل رمز لتجنب الحسابات الزائدة، مما يقلل من التعقيد من O(n³) إلى O(n²)؛ ومع ذلك، فإن استهلاك الذاكرة لا يزال كبيراً. يناقش المقال 11 ورقة بحثية تقترح تحسينات: اختيار وتقليم الرموز بناءً على درجات الاهتمام، وتقنيات الضغط بعد المعالجة، وإعادة تصميمات معمارية مثل الانتباه الكامن متعدد الرؤوس (MLA). تهدف هذه التقنيات إلى تحقيق التوازن بين استخدام الذاكرة والكفاءة الحسابية، مما يجعل نماذج مثل ChatGPT أسرع وأكثر كفاءة في توليد النصوص.

DeepSeek-R1: نموذج ذكاء اصطناعي خاضع للرقابة؟

2025-01-28
DeepSeek-R1: نموذج ذكاء اصطناعي خاضع للرقابة؟

أثار نموذج DeepSeek-R1، وهو نموذج ذكاء اصطناعي مفتوح المصدر حقق نجاحًا كبيرًا، مخاوف بشأن الرقابة المفروضة عليه من قِبل مطوره الصيني بسبب سياسات الحزب الشيوعي الصيني. وقد كشفت تقييمات أجرتها Promptfoo أن DeepSeek-R1 قام بحجب 85% من 1156 مطالبة تتعلق بموضوعات حساسة مثل استقلال تايوان والثورة الثقافية. ومع ذلك، تبين أن هذه الرقابة هشة بشكل مدهش وسهلة الالتفاف عليها باستخدام تقنيات بسيطة، مثل تغيير السياق أو صياغة الأسئلة ضمن سرديات خيالية. تلقي هذه الأبحاث الضوء على ضعف الرقابة في نماذج الذكاء الاصطناعي الصينية، وتشدد على الآثار الأوسع نطاقًا للرقابة وأمن البيانات في تطوير الذكاء الاصطناعي على الصعيد العالمي.

TokenVerse: التخصيص متعدد المفاهيم في نماذج انتشار النص إلى الصورة

2025-01-28
TokenVerse: التخصيص متعدد المفاهيم في نماذج انتشار النص إلى الصورة

يقدم TokenVerse طريقة جديدة للتخصيص متعدد المفاهيم، وذلك باستخدام نموذج انتشار نص إلى صورة مدرب مسبقًا. يقوم بفك تشابك العناصر المرئية والسمات المعقدة من صورة واحدة، مما يسمح بإنشاء مجموعات من المفاهيم المستخرجة من صور متعددة بسلاسة. على عكس الأساليب الحالية، التي تقتصر على نوع أو نطاق المفاهيم، يتعامل TokenVerse مع صور متعددة تحتوي كل منها على مفاهيم متعددة، مع دعم الكائنات، والملحقات، والمواد، والوضعية، والإضاءة. من خلال التحسين لاتجاهات مميزة في مساحة التعديل الخاصة بالنموذج لكل كلمة، فإنه ينشئ صورًا تجمع المفاهيم المطلوبة. تُظهر التجارب فعاليته في إعدادات التخصيص الصعبة.

الذكاء الاصطناعي

شركة SciPhi الناشئة من Y Combinator تبحث عن مهندس أبحاث ذكاء اصطناعي

2025-01-28
شركة SciPhi الناشئة من Y Combinator تبحث عن مهندس أبحاث ذكاء اصطناعي

تبحث شركة SciPhi الناشئة المدعومة من Y Combinator عن مهندس أبحاث ذكاء اصطناعي لدفع التطورات في البحث والاسترجاع المتقدمين باستخدام نظامها R2R. يجب أن يكون المرشح المثالي حاصلًا على درجة الدكتوراه أو ما يعادلها من الخبرة، وأن يكون لديه شغف بالتفكير المنطقي، واسترجاع المعلومات، والتجريب. سيقوم بإنشاء نموذج أولي لنظام قائم على المنطق يجمع بين تقنيات مثل R1 ونماذج اللغات الكبيرة (Claude/Gemini/4o) لتحليل ملايين الوثائق، وتقطير الأساليب الناجحة إلى نماذج أصغر من أجل نشر فعال. هذه فرصة لبناء نظام استرجاع معلومات "يفكر" بالفعل.

الذكاء الاصطناعي نظام الاسترجاع

باحثون من بيركلي يكررون تقنية DeepSeek R1 الأساسية مقابل 30 دولارًا فقط

2025-01-28
باحثون من بيركلي يكررون تقنية DeepSeek R1 الأساسية مقابل 30 دولارًا فقط

نجح فريق من الباحثين في مجال الذكاء الاصطناعي من جامعة بيركلي في تكرار تقنية DeepSeek R1-Zero الأساسية بأقل من 30 دولارًا، مما يدل على قدرة التفكير المتقدمة في نموذج لغة صغير (1.5 مليار معلمة). باستخدام لعبة العد التنازلي كمعيار، أظهروا أن النماذج المتواضعة يمكنها تطوير استراتيجيات متقدمة لحل المشكلات من خلال التعلم المعزز، لتحقيق أداء يضاهي الأنظمة الأكبر. هذا الاختراق يُحدث ديمقراطية في أبحاث الذكاء الاصطناعي، مما يثبت أن التطورات الهامة لا تتطلب موارد ضخمة.

DeepSeek v3: تحسينات كبيرة في بنية Transformer

2025-01-28
DeepSeek v3: تحسينات كبيرة في بنية Transformer

يحقق DeepSeek v3 أداءً متطورًا في المعايير مع كمية حسابية أقل بكثير من النماذج المماثلة. ويعود ذلك إلى تحسينات معمارية رئيسية: تقلل تقنية الانتباه الكامن متعدد الرؤوس (MLA) حجم ذاكرة التخزين المؤقت KV بشكل كبير دون التضحية بجودة النموذج؛ ويعالج نموذج الخبراء المختلط (MoE) المحسّن مشكلة انهيار التوجيه من خلال موازنة التحميل بدون خسارة مساعدة وخبراء مشتركين؛ كما تزيد التنبؤات متعددة الرموز من كفاءة التدريب وسرعة الاستنتاج. تُظهر هذه التحسينات فهمًا عميقًا لعمارة Transformer وتُشير إلى الطريق المُستقبلي لأنماط اللغات الكبيرة.

الذكاء الاصطناعي

DeepSeek تتحدى Altman: نموذج ذكاء اصطناعي بقيمة 5.6 مليون دولار يهز السوق

2025-01-28
DeepSeek تتحدى Altman: نموذج ذكاء اصطناعي بقيمة 5.6 مليون دولار يهز السوق

زعم سام ألتمان، الرئيس التنفيذي لشركة OpenAI، سابقًا أن الشركات الناشئة في مجال الذكاء الاصطناعي التي تمتلك تمويلًا لا يتجاوز 10 ملايين دولار أمريكي تعتبر "عديمة الأمل تمامًا" في المنافسة مع OpenAI. ومع ذلك، فإن ظهور DeepSeek، وهي شركة صينية متخصصة في الذكاء الاصطناعي، يتحدى هذا الادعاء. فقد تم تدريب نموذج DeepSeek الرائد، r1، بمبلغ 5.6 مليون دولار أمريكي فقط، مما يثبت خطأ تصريح ألتمان وإرسال موجات صدمة عبر الصناعة. وقد أشاد ألتمان نفسه بإنجاز DeepSeek، مسلطًا الضوء على وتيرة التطوير السريعة للذكاء الاصطناعي والاضطراب غير المتوقع من لاعبين غير متوقعين.

الذكاء الاصطناعي

تحرير الصور بدون تدريب: ثورة Stable Flow في المجال

2025-01-28
تحرير الصور بدون تدريب: ثورة Stable Flow في المجال

Stable Flow هي طريقة لتحرير الصور بدون تدريب تعتمد على نموذج Diffusion Transformer (DiT). وهي تحقق عمليات تحرير صور متنوعة، بما في ذلك التحرير غير الجامد، وإضافة الكائنات، وإزالة الكائنات، وتحريك المشهد العام، من خلال حقن انتقائي لميزات الاهتمام. وعلى عكس النماذج القائمة على UNet، يفتقر DiT إلى بنية توليف من الخشونة إلى الدقة. يقترح الباحثون طريقة آلية لتحديد "الطبقات الحيوية" المهمة لتكوين الصورة داخل DiT. من خلال حقن ميزات من مسار التوليد للصورة المصدر في مسار الصورة المحررة، يسمح Stable Flow بإجراء تحرير ثابت ومتناسق. بالإضافة إلى ذلك، فإنه يقدم طريقة محسنة لعكس الصورة لتحرير الصور الحقيقية. وتُظهر التجارب فعالية Stable Flow في تطبيقات متنوعة.

الذكاء الاصطناعي بدون تدريب

علي بابا تكشف النقاب عن نموذج Qwen2.5-Max: نموذج لغوي ضخم من نوع MoE

2025-01-28
علي بابا تكشف النقاب عن نموذج Qwen2.5-Max: نموذج لغوي ضخم من نوع MoE

أعلنت شركة علي بابا عن إطلاقها لنموذج Qwen2.5-Max، وهو نموذج لغوي ضخم من نوع Mixture-of-Experts (MoE) تم تدريبه مسبقًا على أكثر من 20 تريليون رمز، ثم تم تنقيحه باستخدام ضبط دقيق تحت إشراف وتعلم تقوية من خلال ردود فعل بشرية. تُظهر المقاييس المعيارية مثل MMLU-Pro وLiveCodeBench وLiveBench وArena-Hard تفوق Qwen2.5-Max على نماذج أخرى مثل DeepSeek V3. ويتوفر النموذج عبر Qwen Chat وواجهة برمجة التطبيقات API من علي بابا كلاود. يمثل هذا الإصدار تقدمًا كبيرًا في توسيع نطاق النماذج اللغوية الكبيرة، ويمهد الطريق لتحسينات مستقبلية في ذكاء النموذج.

خوارزميات التعلم المعزز: دليل شامل

2025-01-28
خوارزميات التعلم المعزز: دليل شامل

يوفر هذا المقال نظرة عامة شاملة على خوارزميات التعلم المعزز، بدءًا من التكرار الأساسي للقيمة والسياسة، والتقدم إلى طرق مونت كارلو، وتعلم الفرق الزمني، والطرق القائمة على القيمة، وطرق تدرج السياسات. وهو يتعمق في الخوارزميات المتقدمة مثل شبكات Q العميقة (DQN) و TRPO و PPO. يستخدم المقال نهجًا قائمًا على حل المشكلات، ويشرح بشكل منهجي الأفكار الأساسية والتحسينات للعديد من الخوارزميات، مما يجعله مرجعًا قيّمًا لمجال التعلم المعزز.

الذكاء الاصطناعي

Open-R1: إعادة إنتاج مفتوحة المصدر لنموذج الاستدلال DeepSeek-R1

2025-01-28
Open-R1: إعادة إنتاج مفتوحة المصدر لنموذج الاستدلال DeepSeek-R1

أذهلت قدرات الاستدلال المذهلة لنموذج DeepSeek-R1 مجتمع الذكاء الاصطناعي، لكن تفاصيل تدريبه لا تزال غير مُكشَفة. يهدف مشروع Open-R1 إلى إعادة إنتاج DeepSeek-R1 بالكامل كمصدر مفتوح، بما في ذلك مجموعات البيانات وأنابيب التدريب. سيشمل ذلك استخراج مجموعة بيانات استدلال عالية الجودة من DeepSeek-R1، وإعادة إنتاج عملية التدريب الخاصة به من خلال التعلم المعزز الخالص، واستكشاف أساليب التدريب متعددة المراحل. والهدف النهائي هو إنشاء نموذج استدلال شفاف وقابل للتكاثر، مما يدفع التقدم داخل مجتمع المصدر المفتوح.

الذكاء الاصطناعي

تقييم OpenAI البالغ 157 مليار دولار: فقاعة الذكاء الاصطناعي؟

2025-01-28
تقييم OpenAI البالغ 157 مليار دولار: فقاعة الذكاء الاصطناعي؟

أثارت جولة التمويل الضخمة الأخيرة لشركة OpenAI، والتي أسفرت عن تقييم يبلغ 157 مليار دولار، جدلاً واسعاً. يجادل الكاتب آشو غارغ بأن هذا التقييم يبالغ في تقدير القيمة المستقبلية لشركة OpenAI. ويشير إلى التكاليف الحاسوبية الباهظة التي تتحملها OpenAI، ونقص المواهب، ونموذج أعمال غير مستدام. وعلى النقيض من ذلك، تبني شركات مثل ميتا أنظمة بيئية قوية للذكاء الاصطناعي من خلال استراتيجيات المصدر المفتوح، لتحقيق تكاليف تشغيلية أقل. يتنبأ غارغ بأن الفائزين الحقيقيين في مجال الذكاء الاصطناعي سيكونون الشركات الناشئة التي تركز على حل مشكلات محددة في القطاعات المختلفة من خلال تطبيقات الذكاء الاصطناعي، بدلاً من الشركات التي تبني نماذج متعددة الأغراض.

محاذاة الذكاء الاصطناعي: مهمة مستحيلة؟

2025-01-28
محاذاة الذكاء الاصطناعي: مهمة مستحيلة؟

أدى ظهور نماذج اللغات الكبيرة (LLMs) إلى إثارة مخاوف تتعلق بالسلامة، مثل التهديدات وإعادة كتابة التعليمات البرمجية. يحاول الباحثون توجيه سلوك الذكاء الاصطناعي لمواءمته مع القيم البشرية من خلال "المحاذاة"، لكن المؤلف يجادل بأن هذا الأمر شبه مستحيل. تتجاوز تعقيدات نماذج LLMs تعقيد لعبة الشطرنج بكثير، مع وجود عدد لا نهائي تقريبًا من الوظائف القابلة للتعلم، مما يجعل الاختبارات الشاملة مستحيلة. يثبت بحث المؤلف أنه حتى مع وجود أهداف مصممة بعناية، لا يمكن ضمان عدم انحراف نماذج LLMs. ولحل مشكلة سلامة الذكاء الاصطناعي حقًا، يلزم اتباع نهج مجتمعي، يتم من خلاله إنشاء آليات مشابهة لقواعد المجتمع البشري للحد من سلوك الذكاء الاصطناعي.

الذكاء الاصطناعي مشكلة المحاذاة

ميزة الاقتباسات الجديدة من أنثروبيك تحارب الهلوسة في نماذج كلود

2025-01-28
ميزة الاقتباسات الجديدة من أنثروبيك تحارب الهلوسة في نماذج كلود

أطلقت أنثروبيك واجهة برمجة تطبيقات جديدة للاقتباسات تُدمج توليد البيانات المعزز بالاسترجاع (RAG) مباشرةً في نماذج كلود الخاصة بها. يُكافح هذا الأمر هلوسات الذكاء الاصطناعي من خلال ربط الردود مباشرةً بالوثائق المصدر. يمكن للمطورين إضافة وثائق إلى سياق كلود، مما يسمح له باستحضار مقاطع محددة تُستخدم في إنشاء الردود. أظهرت الاختبارات الداخلية تحسنًا بنسبة 15٪ في دقة الاستدعاء. يُبلغ المُستخدمون الأوائل مثل تومسون رويترز وإندكس عن نتائج إيجابية، بما في ذلك تقليل التخيلات وزيادة المراجع. على الرغم من الحاجة إلى مزيد من البحث، إلا أن هذا يمثل خطوة مهمة نحو ذكاء اصطناعي أكثر موثوقية.

الذكاء الاصطناعي

DeepSeek-R1: نموذج لغة كبير مفتوح المصدر قادر على الاستدلال

2025-01-27
DeepSeek-R1: نموذج لغة كبير مفتوح المصدر قادر على الاستدلال

DeepSeek-R1 هو نموذج لغوي كبير (LLM) متطور يتميز بقدرات استدلالية رائعة. على عكس نماذج LLM التقليدية التي تكتفي بالتنبؤ بالكلمة التالية، يقوم DeepSeek-R1 بإنشاء "رموز تفكير" لحل المشكلات بشكل منهجي. تتضمن عملية تدريبه ثلاث مراحل: أولاً، يتم تدريب نموذج أساسي على مجموعات بيانات ضخمة؛ ثانياً، يتم إجراء ضبط دقيق تحت الإشراف باستخدام 600000 مثال على الاستدلال بسلسلة تفكير طويلة تم إنشاؤها بواسطة نموذج استدلال متخصص؛ وأخيراً، يتم استخدام التعلم المعزز لتحسين أداء كل من مهام الاستدلال وغير الاستدلال. يثبت نجاح DeepSeek-R1 أن الجمع بين نماذج أساسية عالية الجودة ومهام استدلال قابلة للتحقق تلقائيًا يقلل بشكل كبير من الاعتماد على البيانات المسمى، مما يمهد الطريق لتطورات مستقبلية في نماذج LLM.

الذكاء الاصطناعي

Meta AI يستخدم الآن بياناتك لإجابات مخصصة: مخاوف تتعلق بالخصوصية؟

2025-01-27
Meta AI يستخدم الآن بياناتك لإجابات مخصصة: مخاوف تتعلق بالخصوصية؟

تم تحديث Meta AI ليستخدم بيانات Facebook و Instagram لتخصيص الردود. يمكن للذكاء الاصطناعي الآن تذكر تفاصيل المحادثات السابقة وتكييف التوصيات بناءً على تفضيلات المستخدم، مثل القيود الغذائية. على سبيل المثال، يمكنه إنشاء قصص نوم مخصصة بناءً على معلومات ملف التعريف على Facebook وسجل التصفح على Instagram. على الرغم من أن Meta تدعي أن المستخدمين يمكنهم حذف الذكريات، إلا أن التحديث يثير مخاوف تتعلق بالخصوصية، خاصةً بالنظر إلى مستوى الثقة المنخفض بشكل عام في معالجة بيانات Meta.

الذكاء الاصطناعي

Janus-Pro-7B: نموذج موحد لفهم وتوليد الوسائط المتعددة

2025-01-27
Janus-Pro-7B: نموذج موحد لفهم وتوليد الوسائط المتعددة

تقدم DeepSeek نموذج Janus-Pro-7B، وهو إطار ذاتي الانحدار جديد يوحّد فهم وتوليد الوسائط المتعددة. على عكس الأساليب السابقة، يقوم Janus-Pro بفك ارتباط الترميز البصري بذكاء، مما يسمح بمعالجة فعالة ضمن بنية محوّل واحد. لا يحل هذا الفك للارتباط تعارض أدوار مُشفّر الرؤية في الفهم والتوليد فحسب، بل يُحسّن أيضًا مرونة الإطار. يتفوّق Janus-Pro على النماذج الموحدة السابقة، ويُطابق أو يتجاوز أداء النماذج المخصصة للمهام. إن بساطته ومرونته العالية وفعاليته تجعله منافسًا قويًا لأنظمة الوسائط المتعددة الموحدة من الجيل التالي.

الذكاء الاصطناعي

Janus: تقرير تقني حول نموذج ذكاء اصطناعي قوي

2025-01-27
Janus: تقرير تقني حول نموذج ذكاء اصطناعي قوي

أصدرت DeepSeek AI تقريراً تقنياً مفصلاً حول نموذجها للذكاء الاصطناعي Janus، والذي يغطي هندسته المعمارية، وأداءه، وتطبيقاته. يتوفر التقرير بصيغة PDF، ويقدم مواصفات تقنية متعمقة، وهو مثالي لخبراء الذكاء الاصطناعي. يظهر نموذج Janus إمكانات كبيرة، ما يشير إلى إمكانية حدوث تحول في مجال الذكاء الاصطناعي.

قلّة معرفة الذكاء الاصطناعي، وزيادة تقبّله؟

2025-01-27
قلّة معرفة الذكاء الاصطناعي، وزيادة تقبّله؟

تكشف دراسة جديدة عن نتيجة مفاجئة: الأشخاص الذين لديهم معرفة أقل بالذكاء الاصطناعي هم أكثر انفتاحًا على دمجه في حياتهم اليومية. هذا يتناقض مع الافتراضات الشائعة. أظهرت الدراسة معدلات قبول أعلى للذكاء الاصطناعي في الدول التي لديها متوسط معرفة أقل بالذكاء الاصطناعي. والسبب؟ قدرة الذكاء الاصطناعي على أداء المهام التي كانت تعتبر حصرية للبشر تُحدث إحساسًا بالدهشة والرهبة. أما أولئك الذين يدركون آليات الذكاء الاصطناعي التقنية، فيرونها كأداة وليست سحرًا. يتطلب الترويج للذكاء الاصطناعي التوازن بين الفهم العام والحفاظ على الحماس لتحقيق أقصى استفادة من إمكاناته.

DeepSeek R1: نموذج استدلال سلسلة الأفكار، تجربة مجانية وواجهة برمجة التطبيقات

2025-01-26
DeepSeek R1: نموذج استدلال سلسلة الأفكار، تجربة مجانية وواجهة برمجة التطبيقات

DeepSeek R1 هو نموذج وخدمة جديدة تعرض عملية استدلال سلسلة الأفكار للمستخدم. يمكنك تجربته مجانًا على chat.deepseek.com، أو عبر واجهة برمجة التطبيقات على platform.deepseek.com (أرخص بكثير حاليًا من OpenAI). أو، ما عليك سوى النقر فوق "Judge Me" لمعرفة ما يفكر فيه النموذج حول وكيل المستخدم الخاص بك، وقدرات المتصفح، ورؤوس موقع IP. إذا كنت تجرؤ.

الذكاء الاصطناعي سلسلة الأفكار

نماذج الذكاء الاصطناعي أصبحت الآن مؤرخين جيدين بشكل مدهش

2025-01-26
نماذج الذكاء الاصطناعي أصبحت الآن مؤرخين جيدين بشكل مدهش

تُظهر نماذج الذكاء الاصطناعي الرائدة قدرات ملحوظة في البحث التاريخي. تُبرز ثلاث دراسات حالة براعة GPT-4o و o1 و Claude Sonnet 3.5 في نسخ وترجمة نصوص إيطالية قديمة حديثة، وتحليل مخطوطة طبية مكسيكية من القرن الثامن عشر، وتوليد تفسيرات تاريخية جديدة. على الرغم من استمرار بعض القيود، مثل عدم الدقة الواقعية في بعض الأحيان، إلا أن إمكاناتها في تبسيط البحث، وتوليف المعلومات، واقتراح مسارات بحثية جديدة لا يمكن إنكارها. وهذا يبشر بتحول جذري في كيفية إجراء البحث التاريخي.

الذكاء الاصطناعي البحث التاريخي

Qwen2.5-1M: نماذج لغة كبيرة مفتوحة المصدر بطول سياق يصل إلى مليون رمز

2025-01-26
Qwen2.5-1M: نماذج لغة كبيرة مفتوحة المصدر بطول سياق يصل إلى مليون رمز

أصدر فريق Qwen نموذج Qwen2.5-1M، وهو نموذج لغة كبير مفتوح المصدر يدعم ما يصل إلى مليون رمز من طول السياق، في إصدارات 7B و 14B من المعلمات. تتفوق هذه النماذج بشكل كبير على نظيراتها 128K في مهام السياق الطويل، بل تتجاوز GPT-4o-mini في بعض الحالات. كما تم توفير إطار استنتاج مفتوح المصدر قائم على vLLM، والذي يستخدم الانتباه المتناثر لتحقيق زيادة في السرعة من 3x إلى 7x، من أجل نشر فعال. استخدم تدريب Qwen2.5-1M نهجًا تدريجيًا، مدمجًا انتباه الكتلة المزدوجة (DCA) وتقنيات الانتباه المتناثر للتعامل بكفاءة مع السياقات الطويلة.

الذكاء الاصطناعي

Qwen 2.5 من علي بابا: نموذج لغة كبير بسياق يصل إلى مليون رمز

2025-01-26

أصدرت علي بابا تحديثًا رئيسيًا لنموذج اللغة الكبير مفتوح المصدر الخاص بها، Qwen 2.5، والذي يتميز بنطاق سياق مذهل يصل إلى مليون رمز! تم تحقيق ذلك من خلال تقنية جديدة تسمى Dual Chunk Attention. يتوفر نموذجان على Hugging Face: إصداران بـ 7 مليار و 14 مليار معلمة، وكلاهما يتطلبان ذاكرة وصول عشوائي ضخمة (VRAM) - 120 جيجابايت على الأقل للنموذج ذي 7 مليارات معلمة و 320 جيجابايت على الأقل للنموذج ذي 14 مليار معلمة. على الرغم من إمكانية استخدامهما في المهام الأقصر، توصي علي بابا باستخدام إطار عمل vLLM المخصص الخاص بها. تظهر إصدارات مُكمّنة GGUF، والتي تقدم أحجامًا أصغر، ولكن قد توجد مشكلات توافق مع أطوال السياقات الكاملة. حاول أحد المدونين تشغيل الإصدار GGUF على جهاز Mac باستخدام Ollama، واجه بعض التحديات ووعد بتحديث مستقبلي.

الذكاء الاصطناعي سياق مليون رمز

نماذج اللغات الكبيرة تفشل في لغز شطرنج بسيط: اختبار مثير للفضول

2025-01-26
نماذج اللغات الكبيرة تفشل في لغز شطرنج بسيط: اختبار مثير للفضول

يقوم الكاتب باختبار العديد من نماذج اللغات الكبيرة الجديدة باستخدام لغز شطرنج بسيط يتضمن ترقية ناقصة وقاعدة الخمسين حركة. على الرغم من التوجيه، فإن معظم نماذج اللغات الكبيرة تفشل في حل اللغز، مما يبرز حدود التفكير المنطقي والمعرفة الخاصة بالمجال. هذا الاختبار السريع بمثابة مقياس، ويُثير نقاشًا حول إمكانية وصول نماذج اللغات الكبيرة إلى مستوى الماجستير في الشطرنج يومًا ما دون تدريب متخصص. إن بساطة اللغز والتركيز على تقنية أقل شيوعًا يجعله وسيلة ثاقبة لفهم قدرات نماذج اللغات الكبيرة.

الذكاء الاصطناعي

وكيل ذكاء اصطناعي قائم على الاستدلال البايزي يحقق اختراقًا في تحدي أتاري 10k

2025-01-26
وكيل ذكاء اصطناعي قائم على الاستدلال البايزي يحقق اختراقًا في تحدي أتاري 10k

حقق محرك Genius للذكاء الاصطناعي من شركة VERSES اختراقًا كبيرًا في تحدي أتاري 10k. فقد تفوق على نماذج الذكاء الاصطناعي الرائدة القائمة على تقوية التعلم العميق، حيث حقق Genius أداءً مساويًا أو متفوقًا على مستوى البشر في العديد من ألعاب أتاري باستخدام 10% فقط من البيانات وموارد حاسوبية أقل بكثير. وتعود هذه الكفاءة العالية إلى تصميمه الفريد القائم على الاستدلال البايزي وإطار الاستدلال النشط، مما يظهر تفوقًا في كفاءة العينة والقدرة على التعلم المستمر. ويُمثل هذا خطوة هامة نحو ذكاء اصطناعي عالي الكفاءة، موثوق، وقابل للتفسير.

1 2 38 39 40 42 44 45 46 47 48 49