العودة لأدوات AI
مطور واجهات أماميةمطور خلفي رائج Free & Open Source
Ollama
شغّل نماذج اللغة الكبيرة محلياً على جهازك
نظرة عامة
Ollama يسهّل تشغيل نماذج اللغة مفتوحة المصدر محلياً. يدعم نماذج مثل Llama و Mistral و Gemma و DeepSeek والمزيد. مثالي للمطورين الذين يريدون الخصوصية أو الوصول بدون إنترنت أو تجنب تكاليف API.
المميزات
تحميل النماذج بأمر واحد
دعم أكثر من 100 نموذج
متوافق مع REST API
تسريع GPU
إنشاء نماذج مخصصة
متعدد المنصات (macOS, Linux, Windows)
طريقة الاستخدام
حمّل من ollama.com لنظام تشغيلك. على macOS/Linux شغّل: curl -fsSL https://ollama.com/install.sh | sh. ثم حمّل نموذجاً بـ ollama pull llama3 وابدأ الدردشة بـ ollama run llama3.
الأسعار
Free & Open Source
عرض تفاصيل الأسعارأسئلة شائعة
ما النماذج التي يمكنني تشغيلها؟
Ollama يدعم Llama 3 و Mistral و Gemma و DeepSeek و Phi و Qwen و CodeLlama والعديد من النماذج مفتوحة المصدر.
كم من الذاكرة أحتاج؟
نماذج 7B تحتاج ~8 جيجا، نماذج 13B تحتاج ~16 جيجا، ونماذج 70B تحتاج ~64 جيجا.