أشهر نماذج الذكاء الاصطناعي المتوفرة على Ollama: المميزات ومتطلبات تشغيلها
في السنوات الأخيرة، شهد العالم ثورة حقيقية في مجال الذكاء الاصطناعي، وخصوصًا مع تصاعد استخدام نماذج اللغة الضخمة (LLMs) التي باتت جزءًا أساسيًا في تطبيقات عديدة مثل المحادثات الذكية، تحليل البيانات، كتابة الأكواد، والتلخيص التلقائي. وبينما يعتمد تشغيل معظم هذه النماذج على خدمات سحابية مكلفة أو معقدة، ظهرت منصات جديدة تسهّل تشغيلها محليًا على الأجهزة الشخصية والخوادم الخاصة، ومن أبرز هذه المنصات Ollama.
Ollama هي أداة مفتوحة المصدر تمكِّن المطورين والباحثين من تحميل وتشغيل أشهر نماذج الذكاء الاصطناعي محليًا بسهولة ومرونة، مع توفير واجهات تشغيل مبسطة عبر سطر الأوامر (CLI) أو مكتبات برمجية. المميز في Ollama أنها تدعم مجموعة واسعة من النماذج مفتوحة المصدر والحديثة في مختلف المجالات: المحادثة، تحليل النصوص، البرمجة، وحتى معالجة الصور.
في هذا المقال، نستعرض معًا أشهر وأهم نماذج الذكاء الاصطناعي التي يمكن تشغيلها عبر منصة Ollama، مع توضيح أبرز ميزات كل نموذج، استخداماته العملية، وأوامر تشغيله المباشرة.
Llama 3.3
-
المطوّر: Meta
-
عدد المعاملات (Parameters): 70 مليار
-
سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مما يتيح فهمًا أعمق للسياق في النصوص الطويلة .
-
دعم اللغات: يدعم أكثر من 10 لغات، بما في ذلك الإنجليزية، الإسبانية، الألمانية، الفرنسية، الإيطالية، البرتغالية، الهندية، التايلاندية، وغيرها .
حجم النموذج ومساحة التخزين
-
حجم النموذج: حوالي 43 جيجابايت .
-
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 100 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة .
متطلبات التشغيل
-
الذاكرة العشوائية (RAM): يُوصى بوجود 64 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة .
-
المعالج (CPU): معالج متعدد النوى عالي الأداء.
-
نظام التشغيل: متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث.
متطلبات وحدة معالجة الرسومات (GPU)
تختلف متطلبات GPU بناءً على دقة النموذج المستخدمة:
-
دقة FP16 (عالية الدقة): تتطلب حوالي 161 جيجابايت من VRAM، مما يستلزم استخدام وحدتين من NVIDIA A100 80GB مع NVLink .
-
دقة INT4 (دقة منخفضة): يمكن تشغيلها على وحدات مثل NVIDIA RTX 3090 أو 4090، حيث تتطلب حوالي 26 جيجابايت من VRAM .
أوامر التشغيل في Ollama
لتشغيل النموذج عبر منصة Ollama:
ollama run llama3.3
حالات الاستخدام المقترحة
-
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية.
-
تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة.
-
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية.
-
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص.
-
الترجمة: دعم الترجمة بين عدة لغات بدقة عالية.
Gemma 3
-
المطوّر: Google
-
عدد المعاملات (Parameters): متوفّر بأربعة أحجام: 1B، 4B، 12B، و27B
-
سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مما يتيح فهمًا أعمق للسياق في النصوص الطويلة .
-
دعم اللغات: يدعم أكثر من 140 لغة، مما يجعله مناسبًا لتطبيقات متعددة اللغات .
حجم النموذج ومتطلبات التخزين
حجم النموذج | حجم التخزين (تقريبي) |
---|---|
1B | 0.5 جيجابايت (INT4) |
4B | 2.6 جيجابايت (INT4) |
12B | 6.6 جيجابايت (INT4) |
27B | 14.1 جيجابايت (INT4) |
ملاحظة: الأحجام المذكورة تعتمد على نماذج مُكمَّمة بدقة INT4، والتي توفر توازنًا بين الأداء وكفاءة الاستخدام .
متطلبات التشغيل
الذاكرة العشوائية (RAM):
-
يُوصى بوجود 16 جيجابايت على الأقل لتشغيل النماذج الصغيرة (1B و4B).
-
للنماذج الأكبر (12B و27B)، يُفضّل وجود 32 جيجابايت أو أكثر لضمان أداء سلس.
وحدة معالجة الرسومات (GPU):
حجم النموذج | الحد الأدنى للـ VRAM (INT4) | بطاقة GPU الموصى بها |
---|---|---|
1B | 0.5 جيجابايت | GTX 1650 أو ما يعادلها |
4B | 2.6 جيجابايت | RTX 3060 أو ما يعادلها |
12B | 6.6 جيجابايت | RTX 5090 أو ما يعادلها |
27B | 14.1 جيجابايت | RTX 4090 أو ما يعادلها |
ملاحظة: يمكن تشغيل النماذج الصغيرة على الأجهزة بدون GPU باستخدام المعالج المركزي (CPU)، ولكن مع أداء أقل .
أوامر التشغيل في Ollama
لتشغيل نموذج Gemma 3 عبر منصة Ollama:
ollama run gemma3
ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث .
حالات الاستخدام المقترحة
-
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية.
-
تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة.
-
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية.
-
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص.
-
الترجمة: دعم الترجمة بين عدة لغات بدقة عالية.
Mistral Large 2
-
المطوّر: Mistral AI (شركة فرنسية مدعومة من Nvidia)
-
عدد المعاملات (Parameters): 123 مليار
-
سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مما يتيح معالجة نصوص طويلة ومعقدة بكفاءة عالية.
-
الترخيص: رخصة Mistral Research License للاستخدامات البحثية وغير التجارية. للاستخدامات التجارية، يجب الحصول على ترخيص منفصل.
-
دعم اللغات: يدعم عشرات اللغات، بما في ذلك الإنجليزية، الفرنسية، الإسبانية، الألمانية، الإيطالية، ولغات برمجة متعددة.
حجم النموذج ومتطلبات التخزين
-
حجم النموذج: حوالي 73 جيجابايت (نسخة 123B) .
-
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 100 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة.
متطلبات التشغيل
الذاكرة العشوائية (RAM):
-
يُوصى بوجود 64 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة.
وحدة معالجة الرسومات (GPU):
-
يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA A100 أو RTX 4090) لتشغيل النموذج بكفاءة. يُوصى بأن تتجاوز VRAM 85% من حجم النموذج لضمان أداء سريع .
نظام التشغيل:
-
متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث.
أوامر التشغيل في Ollama
لتشغيل نموذج Mistral Large 2 عبر منصة Ollama:
ollama run mistral-large
ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث.
حالات الاستخدام المقترحة
-
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية.
-
تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة.
-
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية.
-
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص.
-
الترجمة: دعم الترجمة بين عدة لغات بدقة عالية.
-
توليد الأكواد: مساعدة في كتابة وتحسين الأكواد البرمجية.
بالطبع، إليك وصفًا مفصلًا لنموذج Phi-4 من Microsoft، يتضمن معلومات شاملة حول الحجم، المتطلبات التقنية، وأبرز الاستخدامات:
Phi-4
-
المطوّر: Microsoft
-
عدد المعاملات (Parameters): 14 مليار
-
سعة النافذة السياقية (Context Window): حتى 16,000 توكن
-
الترخيص: مفتوح المصدر للاستخدامات البحثية وغير التجارية
-
دعم اللغات: يركز بشكل أساسي على اللغة الإنجليزية
حجم النموذج ومتطلبات التخزين
-
حجم النموذج: حوالي 9.1 جيجابايت
-
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 40 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة
متطلبات التشغيل
الذاكرة العشوائية (RAM):
-
يُوصى بوجود 48 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة
وحدة معالجة الرسومات (GPU):
-
يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA RTX A6000 أو ما يعادلها) لتشغيل النموذج بكفاءة
نظام التشغيل:
-
متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث
أوامر التشغيل في Ollama
لتشغيل نموذج Phi-4 عبر منصة Ollama:
ollama run phi4
ملاحظة: تأكد من استخدام إصدار Ollama 0.5.13 أو أحدث
حالات الاستخدام المقترحة
-
الاستدلال المنطقي: حل المشكلات الرياضية والمنطقية المعقدة
-
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية
-
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص
-
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية
DeepSeek-R1
-
المطوّر: DeepSeek (شركة صينية ناشئة)
-
عدد المعاملات (Parameters): 671 مليار (باستخدام تقنية "Mixture of Experts"، حيث يتم تفعيل جزء فقط من المعاملات في كل عملية)
-
سعة النافذة السياقية (Context Window): حتى 128,000 توكن
-
الترخيص: مفتوح المصدر (MIT License)
-
دعم اللغات: يدعم عدة لغات، مع تركيز على اللغة الإنجليزية
حجم النموذج ومتطلبات التخزين
-
حجم النموذج: حوالي 73 جيجابايت (نسخة 123B)
-
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 100 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة
متطلبات التشغيل
الذاكرة العشوائية (RAM):
-
يُوصى بوجود 64 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة
وحدة معالجة الرسومات (GPU):
-
يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA A100 أو RTX 4090) لتشغيل النموذج بكفاءة
نظام التشغيل:
-
متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث
أوامر التشغيل في Ollama
لتشغيل نموذج DeepSeek-R1 عبر منصة Ollama:
ollama run deepseek-r1
ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث
حالات الاستخدام المقترحة
-
الاستدلال المنطقي: حل المشكلات الرياضية والمنطقية المعقدة
-
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية
-
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص
-
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية
-
توليد الأكواد: مساعدة في كتابة وتحسين الأكواد البرمجية
Qwen2.5
-
المطوّر: Alibaba Group
-
عدد المعاملات (Parameters): تتراوح من 0.5 مليار إلى 72 مليار، مع توفر نماذج متخصصة مثل Qwen2.5-Coder وQwen2.5-VL
-
سعة النافذة السياقية (Context Window): حتى 128,000 توكن، مع توفر إصدارات تدعم حتى 1 مليون توكن مثل Qwen2.5-1M
-
الترخيص: مفتوح المصدر (Apache 2.0)
-
دعم اللغات: يدعم أكثر من 29 لغة، مع تركيز على اللغة الإنجليزية
حجم النموذج ومتطلبات التخزين
-
حجم النموذج: يختلف حسب الإصدار؛ على سبيل المثال، إصدار 14B يتطلب حوالي 29.6 جيجابايت من VRAM
-
المساحة المطلوبة على القرص: يُوصى بتوفير ما لا يقل عن 40 جيجابايت من المساحة الحرة لتخزين النموذج وملفاته المرتبطة
متطلبات التشغيل
الذاكرة العشوائية (RAM):
-
يُوصى بوجود 32 جيجابايت على الأقل لضمان أداء سلس، خاصة عند التعامل مع مهام معقدة أو متعددة
وحدة معالجة الرسومات (GPU):
-
يُفضّل استخدام بطاقات GPU ذات ذاكرة VRAM عالية (مثل NVIDIA RTX A6000 أو ما يعادلها) لتشغيل النموذج بكفاءة
نظام التشغيل:
-
متوافق مع أنظمة تشغيل مثل Ubuntu 20.04 أو أحدث
أوامر التشغيل في Ollama
لتشغيل نموذج Qwen2.5 عبر منصة Ollama:
ollama run qwen2.5
ملاحظة: تأكد من استخدام إصدار Ollama 0.6 أو أحدث
حالات الاستخدام المقترحة
-
كتابة المحتوى: إنشاء مقالات، تدوينات، ونصوص إبداعية
-
تلخيص النصوص: تقديم ملخصات دقيقة للمستندات الطويلة
-
تطوير التطبيقات الحوارية: بناء روبوتات دردشة ومساعدات ذكية
-
تحليل النصوص: فهم السياق وتحليل المشاعر في النصوص
-
توليد الأكواد: مساعدة في كتابة وتحسين الأكواد البرمجية
-
معالجة البيانات المهيكلة: فهم وتحليل الجداول والبيانات المنظمة
في السنوات الأخيرة، شهدنا تطورًا مذهلًا في نماذج الذكاء الاصطناعي مفتوحة المصدر، وأصبحت أدوات مثل Ollama تتيح للمطورين والهواة تشغيل نماذج قوية محليًا بسهولة وكفاءة. من خلال استعراضنا للنماذج الأشهر مثل Llama 3.3، Gemma 2, Mistral Large, Phi-4, DeepSeek-R1 و Qwen2.5، يتضح لنا تنوع القدرات والمميزات التي يقدمها كل نموذج، ما يتيح للمستخدمين اختيار الأنسب لمشاريعهم سواء في توليد المحتوى، تحليل النصوص، تلخيص البيانات، أو تطوير تطبيقات حوارية ذكية.
نوصي دائمًا بمراعاة متطلبات كل نموذج من حيث المساحة التخزينية، ذاكرة الوصول العشوائي (RAM)، وقدرات وحدة معالجة الرسومات (GPU)، خاصة عند التعامل مع نماذج ضخمة أو نوافذ سياقية ممتدة.
لمعرفة المزيد عن باقي النماذج المتوفرة على منصة Ollama، يمكنك زيارة مكتبة النماذج الرسمية من خلال الرابط التالي: استعراض مكتبة نماذج Ollama