حول المحتوى:
شرح أداة Continue وكيف يمكن تخصيصها للعمل مع نماذج محلية وسحابية.
في السنوات الأخيرة أصبحت بيئات التطوير المتكاملة (IDEs) أكثر ذكاءً بفضل الدمج مع نماذج الذكاء الاصطناعي. واحدة من الأدوات التي بدأت تبرز بقوة بين المطورين هي Continue.dev، إضافة مفتوحة المصدر لـ VS Code تسمح لك ببناء مساعد برمجي مخصص، وإعداده للعمل مع نماذج سحابية أو نماذج محلية تعمل على جهازك.
في هذا المقال من افهم صح سنشرح:
إذا كنت مهتماً بتشغيل النماذج محلياً، يمكنك أيضاً الاطلاع على: تشغيل نماذج الذكاء الاصطناعي محلياً باستخدام Ollama: دليل المطورين، و دليل شامل عن أداة Ollama مميزاتها وكيفية عملها.
Continue.dev هي إضافة (Extension) لـ VS Code و JetBrains تهدف إلى تحويل بيئة التطوير الخاصة بك إلى مساعد ذكي يعتمد على نماذج اللغة الكبيرة (LLMs). الفكرة الأساسية أنها لا تفرض عليك نموذجاً معيناً، بل تسمح لك بالاتصال تقريباً بأي نموذج:
المميز في Continue.dev أنها ليست مجرد أداة “تكملة تلقائية” للكود فقط، بل توفر:
لو كنت قد قرأت موضوع: أفضل إضافات VS Code للمبرمجين في 2025 مع تكوينات جاهزة، ستلاحظ أن كثيراً من الإضافات تعتمد عادة على مزود واحد (مثلاً GitHub Copilot أو Codeium). أما Continue.dev فهي تعمل كطبقة وسيطة يمكنك من خلالها:
لهذا السبب يفضلها كثير من المطورين الذين يريدون:
عملية التثبيت بسيطة جداً:
أول مرة تفتح الأداة ستظهر لك واجهة تعريفية بسيطة، ويمكنك اختيار:
تعتمد Continue.dev في الإعدادات على ملف يسمى غالباً:
config.json أو config.yamlهذا الملف يتحكم في:
مثال مبسط (بصيغة JSON) لتهيئة نموذجين: واحد سحابي وآخر محلي:
{
"models": [
{
"title": "OpenAI GPT-4o",
"provider": "openai",
"model": "gpt-4o",
"apiKey": "OPENAI_API_KEY"
},
{
"title": "Local Ollama – qwen2.5",
"provider": "ollama",
"model": "qwen2.5"
}
],
"defaultModel": "OpenAI GPT-4o"
}
بهذا الشكل يمكنك التبديل بين النماذج من واجهة Continue داخل VS Code، أو تعيين نموذج لكل مهمة.
إذا كنت تفضل استخدام نماذج سحابية قوية مثل GPT‑4 أو Claude، يمكنك دمجها بسهولة في Continue.dev عبر مفاتيح الـ API. الفكرة العامة كالتالي:
{
"models": [
{
"title": "OpenAI GPT-4o",
"provider": "openai",
"model": "gpt-4o",
"apiKey": "${OPENAI_API_KEY}"
}
]
}
غالباً ستضع المفتاح في متغير بيئي (Environment Variable) مثل OPENAI_API_KEY لأسباب أمنية، ثم تشير إليه في ملف الإعدادات.
المميز في العمل عبر Continue.dev أن كل هذه الطلبات تحدث داخل المحرر، بدون الحاجة للانتقال لواجهة ويب منفصلة.
لو كنت لا تريد إرسال كودك إلى السحابة، أو ترغب في الاستفادة من نماذج مفتوحة المصدر، يمكنك تشغيل نماذج محلية على جهازك ثم ربطها بـ Continue.dev. من أشهر الأدوات التي تمكنك من ذلك:
يمكنك التعرف على تفاصيل أكثر عن Ollama في: أشهر نماذج الذكاء الاصطناعي المتوفرة على Ollama: المميزات ومتطلبات تشغيلها.
ollama pull qwen2.5 http://localhost:11434.معظم إصدارات Continue الحديثة توفر دعماً مباشراً لـ Ollama. مثال لإضافة نموذج Ollama في الإعدادات:
{
"models": [
{
"title": "Local – Qwen 2.5 via Ollama",
"provider": "ollama",
"model": "qwen2.5",
"apiBase": "http://localhost:11434"
}
],
"defaultModel": "Local – Qwen 2.5 via Ollama"
}
بعد الحفظ، افتح واجهة Continue في VS Code، واختر النموذج المحلي من القائمة. يمكنك الآن:
القوة الحقيقية لـ Continue.dev ليست فقط في استخدام النماذج، بل في تخصيص سلوك المساعد ليتناسب مع أسلوبك وطبيعة مشاريعك.
يمكنك تعريف “شخصية” أو دور ثابت للمساعد، مثلاً:
{
"systemPrompt": "You are a senior software engineer specializing in TypeScript, React, and Node.js. You always explain your reasoning briefly in Arabic, and follow best practices."
}
بهذا يصبح المساعد موجهاً دائماً لمجالات محددة، ويقدم إجابات مقيدة بأسلوب معين.
تسمح Continue.dev بإنشاء أوامر سريعة (مثل كتابة /test لتوليد اختبارات، أو /doc لتوليد توثيق). مثلاً:
{
"shortcuts": [
{
"name": "Generate Tests",
"command": "/test",
"prompt": "Write unit tests for the selected code using Jest."
},
{
"name": "Refactor",
"command": "/refactor",
"prompt": "Refactor the selected code for readability and maintainability."
}
]
}
كل ما عليك هو تحديد جزء الكود، وكتابة الأمر في واجهة Continue، لتحصل على نتيجة مهيكلة ومتسقة.
من أهم النقاط في إنتاجية المساعد البرمجي هو مدى فهمه لسياق المشروع. Continue.dev يسمح لك بالتحكم في:
يمكنك إعداد ذلك في ملف الإعدادات، مثلاً:
{
"context": {
"useOpenFiles": true,
"useGitDiff": true,
"useProjectFiles": true,
"maxFiles": 20
}
}
كلما كان السياق غنياً، أصبحت إجابات المساعد أدق وأكثر التصاقاً بالبنية الحقيقية لمشروعك.
لنفترض أنك مطور يعمل على مشروع Full‑stack باستخدام:
تريد:
{
"models": [
{
"title": "Cloud – GPT-4o",
"provider": "openai",
"model": "gpt-4o",
"apiKey": "${OPENAI_API_KEY}"
},
{
"title": "Local – Qwen 2.5",
"provider": "ollama",
"model": "qwen2.5",
"apiBase": "http://localhost:11434"
}
],
"defaultModel": "Cloud – GPT-4o",
"fallbackModel": "Local – Qwen 2.5",
"systemPrompt": "You are an expert full-stack engineer (Node.js, Express, React, TypeScript, PostgreSQL). Answer in concise Arabic unless asked otherwise. Always provide clean, production-ready code.",
"shortcuts": [
{
"name": "API Docs",
"command": "/api-docs",
"prompt": "Generate detailed API documentation in Markdown for the selected Express route handlers."
},
{
"name": "React Tests",
"command": "/rt",
"prompt": "Write React Testing Library tests for the selected React component."
}
],
"context": {
"useOpenFiles": true,
"useGitDiff": true,
"useProjectFiles": true,
"maxFiles": 30
}
}
بهذا الإعداد ستحصل على:
أداة Continue.dev تقدم للمطورين مرونة عالية لبناء مساعد برمجي مخصص داخل VS Code، يجمع بين قوة النماذج السحابية وحرية النماذج المحلية. بفضل قابلية التخصيص عبر ملف إعدادات بسيط، يمكنك:
إذا كنت مهتماً بفهم الأساس النظري للذكاء الاصطناعي والنماذج التي تقف خلف هذه الأدوات، يمكنك العودة إلى: أهم تقسيمات أنواع الذكاء الاصطناعي و الذكاء الاصطناعي: ثورة في عالم التكنولوجيا.
في النهاية، قوة Continue.dev ليست فقط في ما يقدمه بشكل افتراضي، بل في ما يمكنك أنت أن تبنيه فوقه. كلما خصصت الإعدادات والأوامر والسياق بما يتناسب مع مشاريعك، تحوّل إلى مساعد برمجي حقيقي يرفع إنتاجيتك بشكل ملحوظ داخل VS Code.
شرح أداة Continue وكيف يمكن تخصيصها للعمل مع نماذج محلية وسحابية.
مساحة اعلانية