كيفية استخدام Ollama في سطر الأوامر [Part 2]

كيفية استخدام Ollama في سطر الأوامر [Part 2]

Ollama هي أداة مفتوحة المصدر يمكنك من خلالها تشغيل LLMs Open على جهاز الكمبيوتر الخاص بك أو خادم. إنها طبقة الغراء بين جهازك (أو الأجهزة) و LLM المفتوحة التي تختارها. في هذه المقالة ، سوف تتعلم شيئًا عن أمر Ollama الذي يمكنك من خلاله الاستفادة من ذلك. لنبدأ!

أوامر Ollama: كيفية استخدام Ollama في سطر الأوامر [Part 2]

جدول المحتويات #

ملخص سريع #

منشور المدونة هذا هو الجزء 2 من سلسلة Ollama. في الجزء الأول ، تعاملت مع مواضيع مثل ما هو Ollama ، وهو يعمل وكيفية القيام بـ Ollama مع أمثلة على نماذج SMOLLM2 و DEEPSEEK R1.

في هذا الجزء ، ستتعرف على بعض أوامر Ollama المفيدة مثل Serve و Run و PS. قبل أن تغوص بشكل أعمق في وضع الكود ، يرجى التأكد من أنك قمت بتثبيت Ollama والعمل في نظامك من خلال قراءة الجزء 1.

أوامر Ollama #

لدى أولاما العديد من الأوامر لتحقيق الأهداف النسبية. من أجل معرفة المستندات السفلية التي يمكنك تشغيلها مع Ollama ، يمكنك تنفيذ ما يلي:

 ollama --help

هناك الطبعة التالية:

يعرض إصدار Ollama -Help جميع أوامر Ollama المتاحة

يمكنك أيضا الجري ollama --version تحقق من إصدار Ollama عند كتابة إصدار Ollama 0.5.7. إذا كنت ترغب في المساعدة في سمية فرعية محددة ، فيمكنك إضافة --help وفقا ل Sub -Command ؛ على سبيل المثال: ollama run --help أنت تعطيك الطبعة التالية:

عروض Ollama -lauf -Help العلم المتاحة والمتغيرات المحيطة

الآن بعد أن عرفت الأساسيات ، ننظر إلى بعض أوامر Ollama المفيدة.

أولاما خدمة #

أولاما serve هو الأمر الرئيسي الذي يبدأ خادم Ollama. يمكن تكوينه مع العديد من المتغيرات المحيطة ، على سبيل المثال OLLAMA_DEBUG لتفعيل أو إلغاء تنشيط تصحيح الأخطاء ، OLLAMA_HOST لتحديد مضيف الخادم ، و OLLAMA_MAX_QUEUE كيفية تكوين الحد الأقصى لعدد المتطلبات في قائمة الانتظار. لمعرفة المزيد حول هذه المتغيرات البيئية ، فإنها تعمل ollama serve --help.

يقوم Ollama بتنفيذ Gin (مكتوب في Go) كخادم أساسي لإضافة مستوى واجهة برمجة التطبيقات إلى نماذج التنزيل (المرسومة). كل من CLI وجميع الخدمات الأخرى التي يجب أن تستخدم استدلال LLM ollama serveالتي تؤدي إلى إصدار مماثل على النحو التالي:

إخراج خدمات Ollama يظهر المتغيرات البيئية التطبيقية

يتم تنفيذ خادم الجن على المنفذ 11434 افتراضيًا عند النقر فوق يمكنك رؤية النص على المتصفح الذي تختاره (ربما الكروم) Ollama is running. سيناقش الجزء التالي من سلسلة Ollama API بالتفصيل.

في ضوء حقيقة أن الخادم يتم تنفيذه ، سوف تقبل ذلك ollama run.

Ollama Run #

أولاما run ينفذ الأمر نموذجًا مفتوحًا متاحًا على صفحة نماذج Ollama. يتم وضع النموذج على جهاز الكمبيوتر الخاص بك على جهاز الكمبيوتر الخاص بك ثم قم به لعرضه عبر واجهة برمجة التطبيقات التي بدأت ollama serve. كما هو الحال في الجزء السابق ، ستقوم بتشغيل معلمة SMOLLM2 135 مليون ، حيث يتم تنفيذها على معظم الآلات ذات الذاكرة الأقل (مثل 512 ميغابايت) ، لأن النموذج هو 271 ميغابايت.

لتنفيذ نموذج المعلمة SMOLLM2 135M ، يمكنك تشغيل:

ollama run smollm2:135m

هذا يؤدي إلى شيء مثل هذا:

إصدار من Ollama Run Smollm2: 145m على CLI إذا تم تنزيل النموذج بالفعل

إذا كنت تقود النموذج لأول مرة ، لكان قد قام بتنزيل وتنفيذ كيفية رؤية في الجزء الأخير من سلسلة Ollama هذه. ومع ذلك ، فإن تنفيذ طراز (تنزيل) تم رسمه بالفعل يعمل بسرعة في المرة الثانية.

عندما تنقر /? في أمر Run سترى المساعدة. يمكنك تعيين متغيرات للنموذج مثل أ num_ctxالتي يمكن تكوين نافذة السياق للنموذج. على سبيل المثال ، يمكنك الدخول /set parameter num_ctx 8129 كيفية وضع نافذة السياق على 8129 رمز.

يمكنك أيضًا تجربته /show infoويظهر لك معلومات النموذج مثل:

>>> /show info
Model
architecture llama
parameters 134.52M
context length 8192
embedding length 576
quantization F16

Parameters
stop "<|im_start|>"
stop "<|im_end|>"

System
You are a helpful AI assistant named SmolLM, trained by Hugging Face

License
Apache License
Version 2.0, January 2004

يمكنك اللعب مع الأوامر الأخرى التي تقوم بتشغيلها في سياق النموذج الحالي. يمكنك أيضًا الدردشة مع النموذج وطرح أسئلة مثل what is the speed of light? أعطاني الإصدار التالي مع نموذج المعلمة SMOLLM2 135M:

>>> what is the speed of light?
The speed of light in space is approximately 299,792,458 meters per second. This value is an approximation based on observations and calculations made using special relativity theory. While it's difficult to measure precisely with our current technology, scientists have used the latest methods to estimate this value for both magnitude (1) as well as relative motion (the speed of light squared).

It'

s worth noting that even if we can't directly calculate the exact speed of light in a vacuum using modern instruments and techniques, scientists often rely on estimates like those mentioned above.

لترك سياق النموذج المستمر ، أشر إلى /bye والعودة إلى سطر الأوامر. Ollama Run هو أمر متعدد الاستخدامات ينفذ طلبات الإدخال مباشرة داخل المحطة ويتيح تفاعلات سريعة وفعالة مع النماذج الخاصة بك.

قائمة Ollama #

يسرد أمر Ollma List جميع النماذج المفتوحة المستمدة من تسجيل Ollama وتخزينها في جهاز الكمبيوتر الخاص بك. عندما ركضت ollama list حصلت على الإصدار التالي على جهازي:

ollama list    
NAME ID SIZE MODIFIED
deepseek-r1:8b 28f8fd6cdc67 4.9 GB 4 days ago
smollm2:135m 9077fe9d2ae1 270 MB 4 days ago

لذلك لدي نموذجان smollm2:135m و deepseek-r1:8bوالتي هي 270 ميغابايت أو 4.9 جيجابايت.

أولاما سحب #

يمكنك تنزيل طرز أخرى من تسجيل Ollama على جهاز الكمبيوتر الخاص بك مع ollama pull يأمر. على سبيل المثال ، إذا كنت ترغب في جذب Qwen 2.5 نصف مليار نموذج معلمة (398 ميجابايت) ، فيمكنك تنفيذ:

ollama pull qwen2.5:0.5b

هذا يؤدي إلى شيء مثل:

ollama pull qwen2.5:0.5b

pulling manifest
pulling c5396e06af29... 100% ▕██████████████████████████▏ 397 MB
pulling 66b9ea09bd5b... 100% ▕██████████████████████████▏ 68 B
pulling eb4402837c78... 100% ▕██████████████████████████▏ 1.5 KB
pulling 832dd9e00a68... 100% ▕██████████████████████████▏ 11 KB
pulling 005f95c74751... 100% ▕██████████████████████████▏ 490 B
verifying sha256 digest
writing manifest
success

يستغرق الأمر بضع دقائق حسب سرعة الإنترنت. عند الركض ollama list بعد سحب نموذج QWEN ، يتم سرده أيضًا على النحو التالي:

ollama list
NAME ID SIZE MODIFIED
qwen2.5:0.5b a8b0c5157701 397 MB 50 seconds ago
deepseek-r1:8b 28f8fd6cdc67 4.9 GB 4 days ago
smollm2:135m 9077fe9d2ae1 270 MB 4 days ago

وبالمثل ، يتم الآن تنفيذ نموذج QWEN مباشرة بدلاً من تنزيله وتنفيذه بعد التنزيل. يمكنك أيضًا مشاهدة علامة التبويب CLI ollama serve لرؤية جميع مكالمات API التي تنشئ هذه الأوامر في الخلفية. سحب Ollama بسلاسة أمام النماذج المدربة من مكتبة Model Ollama الضخمة التي يتم استخدامها على جهازك.

Ollama PS #

مثل الآخرين ps الأوامر التي تسرد العمليات التي ollama ps سيدرج الأمر النماذج الحالية. للقيام بذلك ، عليك أولاً تشغيل نموذج. يمكنك تشغيل المعلمة QWEN2 0.5 B ollama run qwen2.5:0.5b. ثم يمكنك الركض في علامة تبويب CLI جديدة ollama psالتي تؤدي إلى إخراج مماثل كما يلي:

ollama ps
NAME ID SIZE PROCESSOR UNTIL
qwen2.5:0.5b a8b0c5157701 1.4 GB 100% GPU 4 minutes from now

لمغادرة سياق التشغيل ، أدخل /bye للعودة إلى سطر الأوامر.

إنشاء Ollama #

مع ollama create الأمر ، يمكنك إنشاء متغير جديد لنموذج مفتوح موجود. على سبيل المثال ، قم بإنشاء متغير جديد من smollm2:135m تم تعيين نموذج المعلمة مع نافذة سياق 16 كيلو ودرجة الحرارة (الإبداع) على 0.1 ، وهو أقل إبداعا بكثير. قم أولاً بإنشاء ملف نموذج بالاسم Modelfile-smollm2-16k في مجلدك الحالي مع المحتوى التالي:

FROM smollm2:135m

PARAMETER temperature 0.2
PARAMETER num_ctx 16384

مثل Docker ، يقولون إنهم يجب أن يبدأوا smollm2:135mتعيين temperature المعلمة أيضا 0.2ووضع السياق مع num_ctx المعلمة أيضا 16384.

الآن قم بإنشاء نموذج جديد يسمى smollm2:135m-16k-ctx تقوم بتنفيذ الأمر التالي:

ollama create smollm2:135m-16k-ctx -f Modelfile-smollm2-16k

سيقوم البديل الجديد لنموذج المعلمة SMOLLM2 بإنشاء 135 مليون يتبع التعليمات في ملف النموذج. عند الركض ollama listسترى النموذج الجديد في القائمة. لتنفيذ النموذج الجديد ، يمكنك الجري بعد ذلك ollama run smollm2:135m-16k-ctx أما أن نرى أدناه:

إخراج Ollama إنشاء نموذج جديد مع 0.2 درجة حرارة وسياق نافذة من الرمز المميز 16k

في سياق النموذج المستمر ، حيث يمكنك النقر /? للمساعدة عند الدخول /show info يمكنك رؤية الطبعة التالية:

/show info
Model
architecture llama
parameters 134.52M
context length 8192
embedding length 576
quantization F16

Parameters
temperature 0.2
num_ctx 16384
stop "<|im_start|>"
stop "<|im_end|>"

System
You are a helpful AI assistant named SmolLM, trained by Hugging Face

License
Apache License
Version 2.0, January 2004

هذا يعني أن المعلمتين المحددة في ملف النموذج. temperature ونافذة السياق مع num_ctxيتم تطبيقها على النموذج. لأنه يتم ضبط درجة الحرارة على قيمة منخفضة 0.2إذا سألت هذا النموذج البديل why is the sky blue? give me 1 sentence answer. حتى ثلاث مرات على التوالي ؛ هناك ما يقرب من نفس الإجابة لك على النحو التالي:

ناتج Ollama لماذا السماء أزرق ، نفس إجابة درجة الحرارة 0.2 فقط

بعد ذلك ، تعرف على بعض أوامر Ollama الأخرى.

أوامر Ollama الأخرى #

إذا كنت تستطيع سحب نموذج ، يمكنك push نموذج لسجل Ollama. لهذا ، تحتاج إلى حساب Ollama ومفتاح API لمشاركة النموذج الخاص بك على Ollama.

وبالمثل ، يمكنك نسخ نموذج مع ollama cp وإزالة نموذج مع ollama rm تليها اسم النموذج. يمكنك أيضا الجري ollama show لرؤية تكوين النموذج ؛ على سبيل المثال، ollama show smollm2:135m سيظهر ما يلي:

ollama show smollm2:135m 
Model
architecture llama
parameters 134.52M
context length 8192
embedding length 576
quantization F16

Parameters
stop "<|im_start|>"
stop "<|im_end|>"

System
You are a helpful AI assistant named SmolLM, trained by Hugging Face

License
Apache License
Version 2.0, January 2004

القضية أعلاه تتوافق مع التشغيل /show info عندما يعمل النموذج داخل CLI. منذ نشر الإصدارات الجديدة من Ollama ، قد يكون لها أوامر جديدة. لمعرفة قائمة أوامر Ollama ، نفد ollama --help وابحث عن الأوامر المتاحة.

تشبه أوامر Ollama أوامر Docker مثل Pull ، Push ، PS ، RM. في حالة Docker ، يعمل مع صور Docker أو الحاويات وللامب ، وهو يعمل مع نماذج Open LLM.

في الجزء التالي من سلسلة Ollama هذه ، سوف تتعلم المزيد عن Ollama -Apis. يستخدم CLI أيضًا واجهات برمجة التطبيقات هذه. سوف تتعلم المزيد عنك حتى يتمكن نظام آخر من استخدامك لاستنتاج LLM.

دبلوم #

في هذا الدليل الشامل ، قمت بفحص مجموعة واسعة من أوامر Ollama الأساسية ollama serve ل ollama runو ollama pull ل ollam create. إذا كنت تتقن أوامر Ollama هذه ، فأنت مجهز جيدًا لاستخدام الإمكانات الكاملة لهذا الإطار القوي وسهل الاستخدام وفتح عالم مليء بفرص مشاريعك وتطبيقاتك. بغض النظر عما إذا كنت مطورًا متمرسًا أو ابدأ رحلتك إلى الذكاء الاصطناعي ، فإن Ollama وأوامره ستكون بلا شك أصولًا لا تقدر بثمن في مجموعة أدواتك. يتعلم!

المصدر المرجعي

Comments

No comments yet. Why don’t you start the discussion?

Leave a Reply

Your email address will not be published. Required fields are marked *