أقسام الوصول السريع (مربع البحث)

📁 جديد موقعنا

تشغيل DeepSeek R1 محليًا على الكمبيوتر باستخدام LM Studio وOllama (دليل شامل)

تشغيل DeepSeek R1 محليًا على الكمبيوتر

ما هو DeepSeek R1 ولماذا أحدث ضجة في عالم الذكاء الاصطناعي؟

شهد مجال الذكاء الاصطناعي تطورًا هائلًا مع إطلاق النموذج DeepSeek R1 من قبل فريق صيني، حيث تمكن من التفوق على ChatGPT وتصدر قائمة التطبيقات الأكثر تحميلًا في متجر التطبيقات الأمريكي (App Store). ليس ذلك فحسب، بل تسبب أيضًا في زعزعة سوق الأسهم التقنية في الولايات المتحدة، نظرًا لما يقدمه من أداء قوي ينافس ChatGPT 4.0.

ورغم إمكانية استخدام DeepSeek R1 مجانًا عبر موقعه الرسمي، فإن هناك مخاوف تتعلق بالخصوصية، حيث يتم تخزين بيانات المستخدمين في الصين. لذا، إذا كنت ترغب في تشغيل DeepSeek R1 محليًا على جهاز الكمبيوتر أو الماك دون الحاجة إلى الإنترنت، يمكنك القيام بذلك بسهولة باستخدام LM Studio وOllama.

في هذا الدليل، سنشرح لك خطوة بخطوة كيفية تشغيل DeepSeek R1 محليًا على جهازك والاستفادة منه بأمان وكفاءة.


طريقة تشغيل DeepSeek R1 محليًا باستخدام LM Studio

يعتبر LM Studio أحد أفضل الحلول لتشغيل نماذج الذكاء الاصطناعي محليًا دون الحاجة إلى الإنترنت. إليك طريقة التثبيت والتشغيل:

1. تحميل وتثبيت LM Studio

  • قم بتنزيل LM Studio 0.3.8 أو أحدث من الموقع الرسمي (يدعم Windows, macOS, Linux).
  • بعد اكتمال التنزيل، قم بتثبيت البرنامج على جهازك.

2. البحث عن نموذج DeepSeek R1 وتنزيله

  • افتح LM Studio وانتقل إلى نافذة البحث في الجزء الأيسر.
  • ضمن Model Search، ابحث عن النموذج:
    "DeepSeek R1 Distill (Qwen 7B)"
  • اضغط على Download لبدء التنزيل.

📌 متطلبات التشغيل: تأكد من أن لديك 5GB على الأقل من المساحة التخزينية و8GB من ذاكرة الوصول العشوائي (RAM) لاستخدام هذا النموذج.

3. تحميل النموذج وتشغيله

  • بعد تنزيل النموذج، انتقل إلى نافذة Chat داخل التطبيق.
  • حدد النموذج واضغط على Load Model لتحميله.
  • إذا واجهت أي خطأ، قم بتقليل خيار GPU Offload إلى 0 وحاول مرة أخرى.

✅ الآن يمكنك استخدام DeepSeek R1 محليًا على جهازك والتفاعل معه بسهولة!


طريقة تشغيل DeepSeek R1 محليًا باستخدام Ollama

يعد Ollama خيارًا رائعًا للأشخاص الذين يرغبون في تشغيل DeepSeek R1 عبر سطر الأوامر بطريقة خفيفة وسريعة.

1. تثبيت Ollama على جهازك

  • قم بتنزيل Ollama مجانًا على نظام التشغيل الخاص بك (Windows, macOS, Linux).
  • بعد التثبيت، افتح Terminal أو Command Prompt.

2. تشغيل نموذج DeepSeek R1 محليًا باستخدام الأمر التالي

📌 إذا كنت تمتلك جهازًا بمواصفات منخفضة، يمكنك تشغيل الإصدار المصغر (1.5B) من النموذج عبر الأمر التالي:

ollama run deepseek-r1:1.5b

✅ هذا الإصدار يحتاج فقط إلى 1.1GB من الذاكرة العشوائية (RAM) ويُعد مناسبًا للأجهزة الضعيفة.

3. تشغيل الإصدار الأقوى من DeepSeek R1

إذا كان لديك جهاز بمواصفات قوية وترغب في تجربة إصدار أكبر، يمكنك تشغيل نموذج 7B عبر هذا الأمر:

ollama run deepseek-r1:7b

📌 هذا الإصدار يحتاج إلى 4.7GB من الذاكرة العشوائية (RAM) ويوفر دقة أعلى في الاستجابات.

4. تشغيل الإصدارات الأكبر (14B, 32B, 70B)

إذا كنت تمتلك جهازًا متطورًا، يمكنك تجربة الإصدارات الأقوى من DeepSeek R1 مثل 14B, 32B أو 70B، والتي توفر أداءً مذهلًا في البرمجة والتحليل المنطقي. يمكنك العثور على الأوامر الخاصة بها في الموقع الرسمي لـ Ollama.

5. بدء المحادثة مع الذكاء الاصطناعي محليًا

  • بمجرد تشغيل النموذج، يمكنك التحدث معه مباشرة عبر سطر الأوامر.
  • لإنهاء الجلسة، استخدم اختصار Ctrl + D للخروج.

✅ الآن لديك DeepSeek R1 يعمل محليًا على جهازك دون الحاجة إلى الاتصال بالإنترنت!


مقارنة بين LM Studio وOllama: أيهما أفضل لتشغيل DeepSeek R1؟

الميزة LM Studio Ollama
سهولة التثبيت ✅ سهل ✅ سهل
الواجهة 🖥️ واجهة رسومية ⌨️ سطر أوامر
دعم الأنظمة Windows, macOS, Linux Windows, macOS, Linux
استهلاك الموارد 🔴 متوسط 🟢 منخفض
إصدارات النماذج يدعم 7B فقط يدعم 1.5B - 70B

📌 الخلاصة: إذا كنت تفضل واجهة رسومية وسهولة في الاستخدام، فإن LM Studio هو الخيار الأفضل. أما إذا كنت تبحث عن أداء مرن ودعم لأنواع مختلفة من النماذج، فإن Ollama هو الحل المثالي.


هل DeepSeek R1 بديل حقيقي لـ ChatGPT؟

رغم أن DeepSeek R1 أظهر نتائج مذهلة، إلا أنه لا يزال بحاجة إلى تحسينات مقارنة بـ ChatGPT 4.0، خاصة من حيث الدقة وتقليل المعلومات الخاطئة (Hallucinations). ومع ذلك، فإنه خيار ممتاز للمهام التي تتطلب الكتابة الإبداعية، البرمجة، والرياضيات، خاصة عند استخدام إصداراته الأكبر (32B أو 70B).


الخاتمة: لماذا يجب عليك تشغيل DeepSeek R1 محليًا؟

  • 1️⃣ الخصوصية: تشغيل النموذج محليًا يعني عدم إرسال بياناتك إلى الإنترنت.
  • 2️⃣ الأداء السريع: لا يوجد تأخير بسبب الاتصال بالسيرفرات السحابية.
  • 3️⃣ الوصول الدائم: لا تحتاج إلى اتصال إنترنت لاستخدام الذكاء الاصطناعي.
  • 4️⃣ تحكم كامل: يمكنك تخصيص النموذج وتعديله وفقًا لاحتياجاتك.

📌 هل جربت تشغيل DeepSeek R1 على جهازك؟ أخبرنا عن تجربتك في التعليقات! 🚀