تشغيل نماذج اللغات الكبيرة محليًا على جهاز Mac باستخدام Ollama
أعلنت أبل عن Apple Intelligence في مؤتمر WWDC 2024، ووعدت بـ "الذكاء الاصطناعي للجميع"، لكن وصوله يبدو بعيدًا. في هذه الأثناء، يتيح لك Ollama تشغيل نماذج اللغات الكبيرة (LLMs) مثل llama3.2 محليًا على جهاز Mac الخاص بك. فكر في الأمر على أنه "Docker لنماذج اللغات الكبيرة" - من السهل سحب وتشغيل وإدارة النماذج. يعمل Ollama بواسطة llama.cpp، ويستخدم ملفات Modelfiles للتكوين ومعيار OCI للتوزيع. يوفر تشغيل النماذج محليًا مزايا في الخصوصية والتكلفة والسرعة والموثوقية. يوفر Ollama واجهة برمجة تطبيقات HTTP لسهولة التكامل مع التطبيقات، كما هو موضح في Nominate.app، والذي يستخدمه لإعادة تسمية ملفات PDF بشكل ذكي. تشجع المقالة المطورين على بناء الجيل التالي من التطبيقات التي تعمل بالذكاء الاصطناعي الآن باستخدام Ollama، بدلاً من انتظار وعود أبل.