محول بايت الكامن (BLT) من ميتا: يتفوق على نماذج اللغات الكبيرة القائمة على الرموز

2024-12-14

قدم باحثو ميتا للذكاء الاصطناعي محول بايت الكامن (BLT) ، وهو بنية جديدة لنماذج اللغات الكبيرة تعالج البايتات مباشرةً بدلاً من الرموز. يقوم BLT بتخصيص الموارد الحسابية ديناميكيًا بناءً على إنتروبيا البايتات ، مما يؤدي إلى تحسينات كبيرة في كفاءة الاستنتاج وقدرته على تحمل الأخطاء مقارنةً بنماذج اللغات الكبيرة القائمة على الرموز. تُظهر تجارب التوسع التي تصل إلى 8 مليارات معلمة و 4 تيرابايت من بيانات التدريب قدرة BLT على مطابقة أداء نماذج اللغات الكبيرة القائمة على الرموز مع توفير قدرات استنتاج محسّنة ومعالجة بيانات الذيل الطويل. تُظهر هذه الأبحاث إمكانية تدريب نماذج واسعة النطاق مباشرةً على البايتات الخام دون قاموس ثابت.

اقرأ المزيد

ميتا FAIR تكشف عن أبحاث رائدة في مجال الذكاء الاصطناعي ونماذج مفتوحة المصدر

2024-12-13

أصدرت ميتا FAIR مجموعة من نتائج أبحاث الذكاء الاصطناعي الرائدة، بما في ذلك نموذج ميتا موتيفو الأساسي للتحكم في العوامل الافتراضية المادية، ونموذج ميتا فيديو سيل مفتوح المصدر لوضع علامات مائية على الفيديو. يركز هذا الإصدار على التطورات في قدرات العوامل، والمتانة، والسلامة، والابتكارات المعمارية من أجل تعلم أكثر كفاءة. وتشمل المساهمات الرئيسية الأخرى قاعدة بيانات Flow Matching، وبرنامج ميتا إكسبلور ثيوري أوف مايند للتفكير في نظرية العقل، ونماذج المفاهيم الكبيرة (LCMs)، ومحول البايت الديناميكي الكامن. من خلال جعل هذه النماذج والأدوات مفتوحة المصدر، تهدف ميتا إلى تعزيز التعاون وتسريع تطوير الذكاء الاصطناعي المسؤول.

اقرأ المزيد