تواصل معنا
Webflow Premium Partner إيهاب فايز
العودة لأدوات AI
مطور واجهات أماميةمطور خلفي رائج Free & Open Source
Ollama

Ollama

شغّل نماذج اللغة الكبيرة محلياً على جهازك

نظرة عامة

Ollama يسهّل تشغيل نماذج اللغة مفتوحة المصدر محلياً. يدعم نماذج مثل Llama و Mistral و Gemma و DeepSeek والمزيد. مثالي للمطورين الذين يريدون الخصوصية أو الوصول بدون إنترنت أو تجنب تكاليف API.

المميزات

تحميل النماذج بأمر واحد
دعم أكثر من 100 نموذج
متوافق مع REST API
تسريع GPU
إنشاء نماذج مخصصة
متعدد المنصات (macOS, Linux, Windows)

طريقة الاستخدام

حمّل من ollama.com لنظام تشغيلك. على macOS/Linux شغّل: curl -fsSL https://ollama.com/install.sh | sh. ثم حمّل نموذجاً بـ ollama pull llama3 وابدأ الدردشة بـ ollama run llama3.

الأسعار

أسئلة شائعة

ما النماذج التي يمكنني تشغيلها؟

Ollama يدعم Llama 3 و Mistral و Gemma و DeepSeek و Phi و Qwen و CodeLlama والعديد من النماذج مفتوحة المصدر.

كم من الذاكرة أحتاج؟

نماذج 7B تحتاج ~8 جيجا، نماذج 13B تحتاج ~16 جيجا، ونماذج 70B تحتاج ~64 جيجا.