أبيرتوس: نموذج لغوي كبير متعدد اللغات مفتوح المصدر بالكامل

2025-09-06
أبيرتوس: نموذج لغوي كبير متعدد اللغات مفتوح المصدر بالكامل

أبيرتوس هو نموذج لغوي كبير (LLM) متعدد اللغات مفتوح المصدر بالكامل، مع 70 مليار و 8 مليارات معلمة، يدعم أكثر من 1000 لغة وسياقًا طويلًا. تم تدريبه على 15 تريليون رمز من بيانات مفتوحة المصدر ومتوافقة تمامًا، ويحقق أداءً مماثلاً لأنماط المصدر المغلق. يستخدم أبيرتوس دالة تنشيط xIELU الجديدة ومحسن AdEMAMix، ويمر بتحسين دقيق تحت الإشراف ومحاذاة QRPO. الأوزان والبيانات وتفاصيل التدريب متاحة للجمهور، مع احترام موافقة أصحاب البيانات على عدم المشاركة وتجنب حفظ بيانات التدريب. تم دمج أبيرتوس في مكتبة transformers، ويدعم طرق نشر متعددة. على الرغم من قوته، يجب على المستخدمين أن يكونوا على دراية باحتمالية عدم الدقة والتحيزات في مخرجاته.

اقرأ المزيد
الذكاء الاصطناعي

Qwen3-235B-A22B-Thinking-2507: ترقية رئيسية لنماذج الاستدلال مفتوحة المصدر

2025-07-25
Qwen3-235B-A22B-Thinking-2507: ترقية رئيسية لنماذج الاستدلال مفتوحة المصدر

يمثل Qwen3-235B-A22B-Thinking-2507 ترقية كبيرة لنماذج اللغة الكبيرة مفتوحة المصدر، مع إنجازات رائدة في قدرات الاستدلال. يحقق نتائج متطورة في الاستدلال المنطقي، والرياضيات، والعلوم، والترميز، ومعايير الأداء الأكاديمية، مما يدل على أداء متفوق عبر العديد من المهام المعقدة. كما يظهر النموذج قدرات عامة محسنة مثل اتباع التعليمات، واستخدام الأدوات، وتوليد النصوص، والتماشي مع تفضيلات الإنسان، بالإضافة إلى فهم محسن للسياق الطويل 256K. من المهم ملاحظة أن هذا الإصدار يعمل في "وضع التفكير" افتراضيًا، وهو موصى به بشدة للمهام المعقدة المتعلقة بالاستدلال.

اقرأ المزيد
الذكاء الاصطناعي

SmolLM3: نموذج استنتاج صغير، متعدد اللغات، وسياق طويل

2025-07-09
SmolLM3: نموذج استنتاج صغير، متعدد اللغات، وسياق طويل

SmolLM3 هو نموذج لغة مفتوح المصدر ومتعدد اللغات، ويحتوي على 3 مليارات معلمة، ويحقق توازنًا مثيرًا للإعجاب بين الكفاءة والأداء. يتفوق على Llama-3.2-3B و Qwen2.5-3B في العديد من المعايير، وحتى أنه ينافس نماذج أكبر حجمًا تحتوي على 4 مليارات معلمة. يدعم 6 لغات، ويضم طول سياق يصل إلى 128 ألف رمز، ويتميز بقدرة فريدة على الاستنتاج ثنائي الوضع (think/no_think). وبالإضافة إلى النموذج نفسه، يصدر الباحثون المخطط الهندسي الكامل، بما في ذلك تفاصيل البنية، ومزائج البيانات، ومنهجية التدريب - وهو مورد قيّم لأي شخص يبني أو يدرس نماذج على هذا النطاق.

اقرأ المزيد
الذكاء الاصطناعي سياق طويل

Nanonets-OCR-s: ما هو أبعد من تقنية التعرف الضوئي على الحروف التقليدية مع معالجة الوثائق الذكية

2025-06-16
Nanonets-OCR-s: ما هو أبعد من تقنية التعرف الضوئي على الحروف التقليدية مع معالجة الوثائق الذكية

Nanonets-OCR-s هو نموذج متطور للتعرف الضوئي على الحروف من الصور إلى لغة Markdown، يتجاوز تقنية استخراج النصوص التقليدية. فهو يحول الوثائق إلى تنسيق Markdown مُنظم مع التعرف الذكي على المحتوى والوسم الدلالي، وهو مثالي للمعالجة اللاحقة بواسطة نماذج اللغات الكبيرة (LLMs). تشمل الميزات الرئيسية التعرف على معادلات LaTeX، ووصف الصور الذكي، والكشف عن التوقيعات، واستخراج العلامات المائية، ومعالجة خانات الاختيار الذكية، واستخراج الجداول المعقدة. يمكن استخدام النموذج عبر transformers أو vLLM أو docext.

اقرأ المزيد
الذكاء الاصطناعي

Penny-1.7B: نموذج لغة على طراز مجلة البنس الإيرلندية من القرن التاسع عشر

2025-06-02
Penny-1.7B: نموذج لغة على طراز مجلة البنس الإيرلندية من القرن التاسع عشر

Penny-1.7B هو نموذج لغة سببية بـ 1.7 مليار معلمة، تم ضبطه بدقة باستخدام تحسين سياسة المجموعة النسبية (GRPO) لمحاكاة أسلوب النثر في القرن التاسع عشر من مجلة البنس الإيرلندية لعام 1840. نموذج المكافأة يميز بين نص المجلة الأصلي والترجمات الحديثة، مما يزيد من الأصالة. مثالي للكتابة الإبداعية، والمحتوى التعليمي، أو التقليد الأسلوبي باللغة الإنجليزية الأيرلندية الفيكتورية، ولكن لا يُنصح به للتحقق من الحقائق المعاصرة.

اقرأ المزيد
الذكاء الاصطناعي

نموذج DeepSeek-R1-0528 للغة الضخمة الجديد من 685 مليار معلمة على Hugging Face

2025-05-28
نموذج DeepSeek-R1-0528 للغة الضخمة الجديد من 685 مليار معلمة على Hugging Face

تم إصدار نموذج لغة كبير جديد، DeepSeek-R1-0528، يضم 685 مليار معلمة، على Hugging Face. يتوفر النموذج بتنسيق Safetensors ويدعم أنواع المصفوفات بما في ذلك BF16 و F8_E4M3 و F32. حاليًا، لم يقم أي مورد للخوارزميات بنشر النموذج، ولكن صفحته على Hugging Face توفر تفاصيل مثل بطاقة النموذج والملفات والإصدارات.

اقرأ المزيد
الذكاء الاصطناعي

Hugging Face تطلق دورة مجانية حول MCP: بوابتك إلى بروتوكول سياق النموذج

2025-05-21
Hugging Face تطلق دورة مجانية حول MCP: بوابتك إلى بروتوكول سياق النموذج

أطلقت Hugging Face دورة مجانية حول بروتوكول سياق النموذج (MCP) مصممة لجعل المتعلمين ينتقلون من المبتدئين إلى الخبراء. تغطي الدورة النظرية وتصميم وممارسة MCP، بالإضافة إلى بناء تطبيقات باستخدام أدوات تطوير البرامج (SDKs) وأطر عمل MCP الراسخة. يمكن للمشاركين الحصول على شهادة إتمام من خلال إكمال المهام والمشاركة في التحديات. يتضمن المنهج أيضًا وحدات بالتعاون مع شركاء Hugging Face، مما يوفر الوصول إلى أحدث عمليات تنفيذ MCP وأدواتها. تتضمن المتطلبات الأساسية فهمًا أساسيًا للذكاء الاصطناعي و نماذج اللغة الكبيرة (LLMs)، ومبادئ تطوير البرامج وواجهات برمجة التطبيقات (APIs)، وخبرة في لغة برمجة واحدة على الأقل (يتم توفير أمثلة بلغات Python أو TypeScript).

اقرأ المزيد
الذكاء الاصطناعي

تحليل نقدي: الحجة ضد وكلاء الذكاء الاصطناعي المستقلين تمامًا

2025-02-08
تحليل نقدي: الحجة ضد وكلاء الذكاء الاصطناعي المستقلين تمامًا

تُحلل هذه الورقة نقديًا الحجة ضد تطوير وكلاء الذكاء الاصطناعي المستقلين تمامًا. على الرغم من أنها منظمة ودقيقة وتسلط الضوء على المخاطر الحقيقية مثل مخاطر السلامة وانتهاكات الخصوصية، إلا أنها تعاني من موقف مطلق للغاية، وتعريف غامض لـ "مستقل تمامًا"، وتحليل غير متوازن للمخاطر والفوائد، واستكشاف غير كافٍ لاستراتيجيات التخفيف. كما أنها تُظهر مؤشرات على الحتمية التكنولوجية. يمكن أن تشمل التحسينات تخفيف الرفض المطلق، وتوضيح تعريف الاستقلالية، وتوازن التحليل، وتطوير استراتيجيات التخفيف، وتعزيز الأساس التجريبي. في النهاية، إنها مساهمة قيّمة في النقاش المستمر حول أخلاقيات الذكاء الاصطناعي، لكنها ليست خاتمة نهائية.

اقرأ المزيد
الذكاء الاصطناعي

Open-R1: إعادة إنتاج مفتوحة المصدر لنموذج الاستدلال DeepSeek-R1

2025-01-28
Open-R1: إعادة إنتاج مفتوحة المصدر لنموذج الاستدلال DeepSeek-R1

أذهلت قدرات الاستدلال المذهلة لنموذج DeepSeek-R1 مجتمع الذكاء الاصطناعي، لكن تفاصيل تدريبه لا تزال غير مُكشَفة. يهدف مشروع Open-R1 إلى إعادة إنتاج DeepSeek-R1 بالكامل كمصدر مفتوح، بما في ذلك مجموعات البيانات وأنابيب التدريب. سيشمل ذلك استخراج مجموعة بيانات استدلال عالية الجودة من DeepSeek-R1، وإعادة إنتاج عملية التدريب الخاصة به من خلال التعلم المعزز الخالص، واستكشاف أساليب التدريب متعددة المراحل. والهدف النهائي هو إنشاء نموذج استدلال شفاف وقابل للتكاثر، مما يدفع التقدم داخل مجتمع المصدر المفتوح.

اقرأ المزيد
الذكاء الاصطناعي

Janus-Pro-7B: نموذج موحد لفهم وتوليد الوسائط المتعددة

2025-01-27
Janus-Pro-7B: نموذج موحد لفهم وتوليد الوسائط المتعددة

تقدم DeepSeek نموذج Janus-Pro-7B، وهو إطار ذاتي الانحدار جديد يوحّد فهم وتوليد الوسائط المتعددة. على عكس الأساليب السابقة، يقوم Janus-Pro بفك ارتباط الترميز البصري بذكاء، مما يسمح بمعالجة فعالة ضمن بنية محوّل واحد. لا يحل هذا الفك للارتباط تعارض أدوار مُشفّر الرؤية في الفهم والتوليد فحسب، بل يُحسّن أيضًا مرونة الإطار. يتفوّق Janus-Pro على النماذج الموحدة السابقة، ويُطابق أو يتجاوز أداء النماذج المخصصة للمهام. إن بساطته ومرونته العالية وفعاليته تجعله منافسًا قويًا لأنظمة الوسائط المتعددة الموحدة من الجيل التالي.

اقرأ المزيد
الذكاء الاصطناعي

DeepSeek-R1: نموذج استنتاج مدرب بتقنية التعلم المعزز وإصداراته المقطرة

2025-01-20
DeepSeek-R1: نموذج استنتاج مدرب بتقنية التعلم المعزز وإصداراته المقطرة

أصدرت DeepSeek نماذج الاستنتاج من الجيل الأول، DeepSeek-R1. تم تدريب DeepSeek-R1 باستخدام تقنية التعلم المعزز على نطاق واسع بدون ضبط دقيق مُشرف، مما يحلّ مشكلات مثل التكرار اللامتناهي وقابلية القراءة المنخفضة الموجودة في النموذج السابق، DeepSeek-R1-Zero، من خلال دمج بيانات بدء التشغيل البارد قبل تقنية التعلم المعزز. يُحقق DeepSeek-R1 أداءً مُقارباً لـ OpenAI-o1 عبر معايير مُختلفة. علاوةً على ذلك، أصدرت DeepSeek نماذج DeepSeek-R1 وستة نماذج مُقطّرة مُستندة إلى Llama وQwen كرموز مفتوحة المصدر. يتفوّق DeepSeek-R1-Distill-Qwen-32B على OpenAI-o1-mini في العديد من معايير الأداء، مُحققاً نتائج مُتقدّمة جديدة للنماذج المُقطّرة. هذه النماذج، بالإضافة إلى واجهة برمجة التطبيقات وواجهة الدردشة سهلة الاستخدام، متاحة على Hugging Face.

اقرأ المزيد
الذكاء الاصطناعي نماذج مُقطّرة

نماذج تضمين ثابتة أسرع بـ 400 مرة مع Sentence Transformers

2025-01-15
نماذج تضمين ثابتة أسرع بـ 400 مرة مع Sentence Transformers

تقدم هذه المدونة طريقة لتدريب نماذج تضمين ثابتة تعمل بسرعة أكبر بـ 100 إلى 400 مرة على وحدة المعالجة المركزية من نماذج التضمين المتطورة، مع الحفاظ على معظم الجودة. هذا يفتح العديد من حالات الاستخدام المثيرة للاهتمام، بما في ذلك التنفيذ على الجهاز وفي المتصفح، والحوسبة الطرفية، والتطبيقات منخفضة الطاقة والمدمجة. نطبق هذه الوصفة لتدريب نموذجين من نماذج التضمين عالية الكفاءة: sentence-transformers/static-retrieval-mrl-en-v1 للاسترجاع باللغة الإنجليزية، و sentence-transformers/static-similarity-mrl-multilingual-v1 لمهام التشابه متعدد اللغات.

اقرأ المزيد
الذكاء الاصطناعي التضمين الثابت

ModernBERT: بديل ثوري لـ BERT

2024-12-19
ModernBERT: بديل ثوري لـ BERT

تقدم Answer.AI و LightOn ModernBERT، وهي عائلة من نماذج المُشفّر فقط الأحدث من نوعها والتي تتفوق على BERT من حيث السرعة والدقة. يدمج ModernBERT العديد من التطورات الحديثة في أبحاث LLM، مع طول سياق مُمتد (8192 رمزًا)، ومعالجة أسرع، وأداءً أفضل عبر معايير مُختلفة. إن قدرات استرجاع الكود القوية بشكل خاص تُفتح أبواب تطبيقات جديدة مثل البحث عن الكود على نطاق واسع وميزات IDE مُحسّنة. يعد ModernBERT بديلاً مُباشرًا لنماذج BERT وهو مُتاح على Hugging Face.

اقرأ المزيد

Hugging Face Spaces تطلق ZeroGPU: تخصيص ديناميكي لوحدات معالجة الرسومات لتعزيز كفاءة نماذج الذكاء الاصطناعي

2024-12-15
Hugging Face Spaces تطلق ZeroGPU: تخصيص ديناميكي لوحدات معالجة الرسومات لتعزيز كفاءة نماذج الذكاء الاصطناعي

أطلقت Hugging Face Spaces تقنية ZeroGPU، وهي بنية تحتية مشتركة تقوم بتخصيص وحدات معالجة الرسومات NVIDIA A100 ديناميكيًا لتحسين استخدام وحدات معالجة الرسومات لنماذج الذكاء الاصطناعي والعروض التوضيحية. توفر ZeroGPU إمكانية الوصول المجاني إلى وحدات معالجة الرسومات، ودعمًا متعدد وحدات معالجة الرسومات، وتُقلل من عوائق نشر نماذج الذكاء الاصطناعي. يقوم المستخدمون ببساطة بتحديد أجهزة ZeroGPU عند إنشاء مساحة Gradio، واستخدام مُزيّن `@spaces.GPU` للوظائف المعتمدة على وحدات معالجة الرسومات. يتوافق ZeroGPU مع PyTorch وهو مُحسّن لمكتبات Hugging Face transformers و diffusers، ولكنه يعمل حاليًا مع SDK Gradio فقط. يمكن للحسابات الشخصية (مستخدمو PRO) إنشاء ما يصل إلى 10 مساحات ZeroGPU، بينما يمكن لحسابات المؤسسات (مركز المؤسسات) إنشاء ما يصل إلى 50.

اقرأ المزيد