تم تنظيم عالم الذكاء الاصطناعى في نوفمبر 2022 لأكثر من عامين منذ نشر Chatgpt. يتم ثورة الأدوات والتقنيات الجديدة التي تعد بضرورة عملنا وحياتنا كل يوم. إذا كنت ترغب في استخدام قوة نماذج اللغة الكبيرة (LLMS) للمشاريع الشخصية أو حتى التطبيقات المهنية ، فقد تكون Ollama هي المفتاح. في هذه المقالة ، سوف تتعلم ماهية Ollama ، وكيفية تنزيل Ollama وتثبيتها واستخدامها لتنفيذ نموذج صغير ثم أداء Deepseek R1 (LLM Superpopular الآخر). لنبدأ.
جدول المحتويات #
ما هو Ollama #
Ollama هي أداة مفتوحة المصدر التي تمت كتابتها بشكل أساسي في Go Lang (89 ٪) تؤدي LLMs Open على جهاز الكمبيوتر المحلي (أو الخادم). يبدو أنه جسر بين LLM المفتوح وجهازك ليس فقط لأداء ، ولكن أيضًا لتوفير مستوى API فوقك بحيث يمكن استخدام تطبيق آخر أو خدمة أخرى.
Ollama هو برنامج متعلق وقوي لتنفيذ LLMS محليًا. يخفي تعقيد LLMs وحزمها بحيث يمكن الوصول إليها ويمكن تكييفها بسهولة مع ملف نموذج. هناك بدائل لأولاما ، مثل Vllm و Aphrodite ، لكن Ollama هي بالتأكيد الأكثر شعبية. يوفر Ollama سطحًا نظيفًا وعيديًا يمكنك التفاعل معه مباشرة مع LLMs وتكييف التجربة مع متطلباتك.
عروض Ollama #
في ما يلي ستجد بعض الميزات المهمة لأولاما:
الخصوصية والوصول إلى وضع عدم الاتصال #
واحدة من أهم ميزات Ollama هي الخصوصية والوصول دون اتصال بالإنترنت. يمكنك تشغيل نماذج مفتوحة على جهاز الكمبيوتر الخاص بك ، حتى بدون الوصول إلى الإنترنت. لا يمكّنك ذلك فقط من استخدام LLM (على سبيل المثال لاقتراحات التعليمات البرمجية) في طائرة ، ولكن أيضًا احتفظ ببياناتك على جهاز الكمبيوتر المحلي. يمكن أن تظل بياناتك وملفاتك آمنة في جهاز الكمبيوتر المحلي الخاص بك ، ولا ترى شركات التكنولوجيا الكبيرة الأخرى أو يمكنك استخدامها لأغراض أخرى مثل تدريب LLM. هذه ميزة كبيرة لـ Ollama مقارنة بخدمات LLM الأخرى المستندة إلى مجموعة النظراء التي ترسل بياناتك إلى السحابة للمعالجة وقد تستخدمها لأغراض أخرى.
إدارة النموذج #
من السهل إضافة نموذج جديد إلى مكتبة النماذج المحلية. يمكنك سحب نموذج مع ollama pull
القيادة والتنفيذ. في وقت كتابة هذا التقرير ، هناك أكثر من 150 طرازًا يمكنك وضعه محليًا. من Deepseek R1 إلى SMOLLM ، يمكنك إجراء نماذج شهيرة مثل Llama 3 و PHI 4 و Gemma 2 و Mistral إلى النماذج المحددة مثل CodeQwen و Codestral. ليس من الضروري التنقل في التنسيق أو التبعيات المعقدة أو تثبيت برامج أخرى على جهاز الكمبيوتر الخاص بك. يمكنك سحب نموذج وتنفيذه ؛ إذا كانت موارد نظامك تدعم هذا ، فسيتم تنفيذ هذا ببساطة.
تثبيت سلس #
كما ستتعلم في القسم التالي ، فإن عملية تثبيت Ollama هي مستخدم للغاية. بغض النظر عن نظام تشغيل Windows أو Linux أو Mac ، يمكنك تنفيذ أمر بشكل أساسي ، ويتوفر Ollama CLI على جهاز الكمبيوتر المحلي. لذلك يقدم Ollama بالتأكيد تجربة تركيب وإعداد خالية من المشكلات. يمكنك استخدام أمر إلى Ollma CLI على نظام تشغيل Linux أو Mac.
API المحلي #
Ollama لديه أوامر مختلفة ، بما في ذلك ollama serve
يأمر. يبدأ هذا الأمر خادم GIN يقوم بتشغيل واجهة برمجة تطبيقات عبر جميع طرز LLM المتوفرة على نظامك المحلي. وبهذه الطريقة يمكنك دمج LLMs في تطبيقات وسير عمل أخرى. تتيح واجهة برمجة التطبيقات للاتصال الفعال بين تطبيقك و LLMS. يمكنك إرسال طلبات الإدخال ، واستعادة الإجابات والاستفادة من الإمكانات الكاملة لـ LLMS. مع المخرجات المهيكلة ، يمكنك حتى الوصول إلى الإجابة من LLMs في مخطط محدد مسبقًا.
تعديل #
مع Ollama ، يمكنك تحسين المعلمات واستخراج أكبر قيمة من LLMs على جهازك المحلي. على سبيل المثال ، يمكنك تغييرها num_ctx
المعلمات وتغيير حجم نافذة السياق لنموذج مع Ollama. يمكنك أيضًا تغيير التكوينات إلى معلمات LLM Fine وضبط الإعدادات وتغيير سلوك النموذج بحيث تفي بمتطلباتك بشكل أفضل. يمكنك أيضًا استخدام ملف نموذج لتعيين العديد من المعلمات مثل درجة الحرارة والبذور والأعلى K و Top P وغيرها.
تسريع الأجهزة #
يسجل Ollama متطلبات المورد والرقص في LLMs ويمكنه استخدام موارد الأجهزة المتاحة في نظامك بما في ذلك وحدات معالجة الرسومات وحامل وحدات المعالجة المركزية. للتحقق من ذلك ، يمكنك تشغيل ملف ollma ps
أمر وشاهد استخدامات المورد. يضمن Ollama استخدام الموارد في جهازك بكفاءة بحيث يمكنك بسهولة تنفيذ LLMs كبيرة.
إضافة واجهة المستخدم #
Ollama هي واجهة سطر الأوامر (CLI) التي تهدف إلى المستخدمين المتقدمين. لاستخدام واجهة مستخدم رسومية مع دردشة ، يمكنك تنزيل واجهة مستخدم الويب المفتوحة واستخدامها (سابقًا كـ Ollama Web UI). Open Web UI هو أيضًا مفتوح المصدر. تدعي أنها منصة AI قابلة للتوسيع ، وغنية بالميزات وصديقة للاستخدام ، والتي تم استضافتها ذاتيا ، والتي تم تصميمها بطريقة يتم تشغيلها في وضع عدم الاتصال تمامًا. يمكنك قراءة المستندات الرسمية لتبدأ مع واجهة المستخدم المفتوحة التي تلعب بشكل جيد مع Ollama.
في القسم التالي ، ستتعلم كيفية تثبيت واستخدام Ollama.
كيفية تشغيل Ollama محليًا #
من السهل تثبيت Ollama واستخدامها في أي نظام تشغيل ، سواء كان Windows أو Linux أو Mac. لهذه التعليمات ، قم بتثبيتها على جهاز Mac وقم بها smollom2
نموذج مع 135 مليون معلمة ، 271 ميغابايت. المعلمات SMOLLOM 135 M هي 92 ميغابايت ، وهي واحدة من أصغر النموذج ولكن لا يزال مفيدًا.
لتثبيت Ollama على نظام التشغيل الذي تختاره ، يمكنك الانتقال إلى صفحة تنزيل Ollama الرسمية. يبدو أن هذا:
نظرًا لأنني أستخدم جهاز Mac ، يمكنني تنزيل برنامج التثبيت من هذه الصفحة أو تشغيل الأمر التالي لتثبيت Ollama CLI على جهاز Mac:
brew install ollama
يتم تثبيت Ollama وجميع التبعيات المرتبطة به وينتهي مثل ذلك عندما يسير كل شيء على ما يرام:
إذا كنت قد قمت بتثبيتها مع الحواجب ، فعليك القيام بذلك ollama serve
. سترى متغيرات وموارد Ollama.
ثم يمكنك الجري ollama –version
في علامة تبويب CLI أخرى. سترى شيئًا مثل الفجر:
➜ ollama --version
ollama version is 0.5.7
في وقت كتابة أحدث إصدار من Ollama 0.5.7
. منذ تثبيت Ollama حاليًا ، ليس لديك نماذج. للتحقق مما إذا كان يمكنك الجري ollama list
هذا يعرض قائمة فارغة.
من أجل تثبيت وتنفيذ نموذج المعلمة smollom2 135 مليون ، ستقوم بتشغيل ما يلي في سطر الأوامر الخاص بك:
ollama run smollm2:135m
اعتمادًا على سرعة الإنترنت الخاصة بك لتنزيل طراز 271 ميغابايت ، يستغرق الأمر بعض الوقت ويظهر الإصدار التالي الخاص بك ، والذي يمكنك فيه إدخال سؤالك/الترويج الخاص بك في النموذج قدر الإمكانwhy is the sky blue? give the shortest possible answer
:
يمكنك اللعب وطلبات أو أسئلة مثل كيف who are you?
. سيكون هناك الإجابات. عندما تكتب /?
يمكنك رؤية قائمة المساعدة على النحو التالي:
يمكنك الدخول /bye
لوقف النموذج المستمر والخروج من موجه الأوامر. مبروك! لقد نجحت في تنفيذ LLM (لعبة الكلمات) أصغر نسبيًا على جهازك. نظرًا لأنه نموذج أصغر مع 135 مليون معلمة فقط (271 ميجابايت) ، لا يمكنه القيام بالعديد من المهام بشكل جيد. في القسم التالي ، ستقوم بإجراء نموذج المعلمة الشهير من Deepseek R1 8 مليار.
Run Deepseek R1 مع Ollama #
لأداء نموذج المعلمة Deepseek R1 8 مليارات ، يمكنك تنفيذ الأمر التالي:
ollama run deepseek-r1:8b
تذكر أنك تقوم بتنزيل ما يقرب من 4.9 جيجابايت من البيانات. اعتمادًا على سرعة الإنترنت الخاصة بك ، قد يستغرق الأمر دقائق (أو ساعات ، لا أستطيع أن أقول). مع Ollama ، يمكنك تجربة العديد من النماذج المفتوحة ، وإلقاء نظرة على صفحة النموذج الخاصة بك وحدد النموذج الذي تريد تشغيله على جهازك المحلي. تأكد من أن لديك ما يكفي من الموارد والذاكرة ووحدة المعالجة المركزية وغرفة القرص الصلب لتنفيذ نموذج كبير حقًا. بالنسبة إلى iinstance ، نموذج المعلمة Deepseek R1 671B 404 جيجابايت ، والذي لا يعمل بالتأكيد كمبيوتر محمول من جودة المستهلك.
في حالتي بعد بضع دقائق من الماء deepseek-r1:8b
تم تنزيل النموذج وركض. يمكنك تنفيذ نفس السؤال/الطلب why is the sky blue? give the shortest possible answer
وشاهد الإجابة من النموذج كما هو موضح أدناه:
كما ترون أعلاه ، “يعتقد” Deepseek R1 (R للحجة) على ما يبدو “يعتقد” ثم يعيد إجابة. هذا شيء جديد. لإيقاف النموذج وإنهاء الدردشة ، يمكنك الدخول /bye
ثم العودة إلى باش.
أين يحفظ أولاما النماذج #
اعتمادًا على نظام التشغيل الخاص بك وتثبيت Ollama ، يمكن أن يختلف ذلك. في حالتي تم حفظها على جهاز Mac في دليل المستخدم ~/.ollama/models
كما ترون أدناه مع الأمر ls -al ~/.ollama/models
:
Ollama حفظ النماذج ~/.ollama/models
أيضا على آلات Linux. يمكن تغييره من خلال الإشارة إلى متغير محيط OLLAMA_MODELS
. في الجزء التالي من هذه السلسلة ، سوف تتعلم المزيد عن Ollama.
دبلوم #
Ollama هي قناة لعبة لكل من يعمل مع LLMS. إنه يبسط التعقيد المشجع في كثير من الأحيان لتفاعلات LLM ويجعل هذه التكنولوجيا القوية في متناول جمهور أوسع بكثير. إن واجهة Ollama البديهية وتصميم المستخدم -تجعلها أداة مثالية لزيادة أداء LLMs وإشراكهم دون عناء في سير العمل.
في هذه المقالة ، تعلمت كيفية تثبيت Ollama وتشغيل طرز Smollom2 و Deepseek R1 باستخدام سطر الأوامر. لقد اكتشفت أيضًا أين تخزن Ollama النماذج التي تم تنزيلها. استكشاف سعيد الذكاء الاصطناعي!