اجرای مدل‌های DeepSeek به صورت محلی با ChatBox: راهنمای نصب Ollama

می‌خواهید مدل‌های قدرتمند DeepSeek AI را روی کامپیوتر خود اجرا کنید؟ این راهنما به شما نشان می‌دهد چگونه DeepSeek R1 و V3 را با استفاده از Ollama پیاده‌سازی کنید و از طریق ChatBox با آن‌ها تعامل داشته باشید.

چرا پیاده‌سازی محلی را انتخاب کنیم؟

اجرای مدل‌های هوش مصنوعی به صورت محلی چندین مزیت دارد:

  • حریم خصوصی کامل - تمام مکالمات روی دستگاه شما انجام می‌شود
  • بدون نیاز به هزینه API
  • بدون تأخیر شبکه
  • کنترل کامل روی پارامترهای مدل

نیازمندی‌های سیستم

قبل از شروع، اطمینان حاصل کنید که سیستم شما این نیازمندی‌ها را برآورده می‌کند:

  • DeepSeek-R1-7B: حداقل 16 گیگابایت رم
  • DeepSeek-V3-7B: توصیه شده 32 گیگابایت رم
  • CPU یا GPU مدرن
  • سیستم‌عامل Windows 10/11، macOS یا Linux

مراحل نصب

1. نصب Ollama

ابتدا، Ollama را برای مدیریت مدل‌های محلی نصب کنید:

  1. به صفحه دانلود Ollama مراجعه کنید
  2. نسخه مناسب سیستم‌عامل خود را انتخاب کنید
  3. دستورالعمل‌های نصب را دنبال کنید

2. دانلود مدل‌های DeepSeek

ترمینال را باز کنید و یکی از این دستورات را اجرا کنید:

ollama run deepseek-r1:7b ollama run deepseek-v3:7b

3. پیکربندی ChatBox

  1. تنظیمات ChatBox را باز کنید
  2. "Ollama" را به عنوان ارائه‌دهنده مدل انتخاب کنید
  3. مدل DeepSeek نصب شده را از منو انتخاب کنید
  4. تنظیمات را ذخیره کنید

نکات استفاده

مکالمه پایه

ChatBox یک رابط گفتگوی شهودی ارائه می‌دهد:

  • سؤالات را در فیلد ورودی تایپ کنید
  • پشتیبانی از قالب‌بندی Markdown
  • مشاهده فرآیند تفکر مدل
  • برجسته‌سازی نحو کد

ویژگی‌های پیشرفته

ChatBox چندین ویژگی پیشرفته ارائه می‌دهد:

  • تحلیل فایل
  • پرامپت‌های سفارشی
  • مدیریت مکالمه
  • تنظیم پارامترها

عیب‌یابی

  1. مدل کند اجرا می‌شود؟

    • نسخه کوچکتر مدل را امتحان کنید
    • برنامه‌های غیرضروری را ببندید
    • پارامترهای مدل را تنظیم کنید
  2. نمی‌توانید به Ollama متصل شوید؟

    • بررسی کنید که سرویس Ollama در حال اجرا باشد
    • تنظیمات فایروال را بررسی کنید
    • تأیید کنید که پورت 11434 در دسترس است

تنظیم اتصال از راه دور

برای دسترسی به مدل‌های پیاده‌سازی شده محلی از دستگاه‌های دیگر:

  1. تنظیم متغیرهای محیطی:
OLLAMA_HOST=0.0.0.0 OLLAMA_ORIGINS=*
  1. تنظیم آدرس API در ChatBox:
http://[آدرس-IP-شما]:11434

توصیه‌های امنیتی

  • دسترسی از راه دور را فقط در شبکه‌های مورد اعتماد فعال کنید
  • Ollama و مدل‌ها را به طور منظم به‌روزرسانی کنید
  • با اطلاعات حساس با احتیاط برخورد کنید

نتیجه‌گیری

با ترکیب Ollama و ChatBox، می‌توانید به راحتی مدل‌های قدرتمند DeepSeek را به صورت محلی اجرا کنید. این نه تنها از حریم خصوصی شما محافظت می‌کند، بلکه تجربه کاربری بهتری نیز ارائه می‌دهد.

منابع مرتبط

برای اطلاعات بیشتر در مورد نحوه دانلود و اجرای مدل‌های DeepSeek با Ollama، به راهنمای دانلود ما مراجعه کنید.