
اجرای مدلهای محلی DeepSeek با ChatBox: راهنمای استقرار Ollama
@یک راهنمای دقیق در مورد استقرار مدلهای Deepseek R1 و V3 به صورت محلی با استفاده از Ollama و تعامل از طریق ChatBox
اجرای مدلهای محلی DeepSeek با ChatBox: راهنمای استقرار Ollama
آیا میخواهید مدلهای قدرتمند هوش مصنوعی DeepSeek را روی کامپیوتر شخصی خود اجرا کنید؟ این راهنما به شما نشان میدهد که چگونه Deepseek R1 و V3 را با استفاده از Ollama مستقر کرده و از طریق ChatBox با آنها تعامل داشته باشید.
چرا استقرار محلی را انتخاب کنیم؟
اجرای مدلهای هوش مصنوعی به صورت محلی مزایای متعددی دارد:
- حریم خصوصی کامل - تمام مکالمات روی دستگاه شما اتفاق میافتد
- بدون نیاز به هزینه API
- بدون تاخیر شبکه
- کنترل کامل بر پارامترهای مدل
نیازمندیهای سیستم
قبل از شروع، مطمئن شوید که سیستم شما این نیازمندیها را دارد:
- DeepSeek-R1-7B: حداقل 16 گیگابایت RAM
- DeepSeek-V3-7B: توصیه شده 32 گیگابایت RAM
- CPU یا GPU مدرن
- سیستم عامل Windows 10/11، macOS یا Linux
مراحل نصب
1. نصب Ollama
ابتدا Ollama را برای مدیریت مدلهای محلی نصب کنید:
- به صفحه دانلود Ollama مراجعه کنید
- نسخه مناسب برای سیستم عامل خود را انتخاب کنید
- دستورالعملهای نصب را دنبال کنید
2. دانلود مدلهای DeepSeek
ترمینال را باز کرده و یکی از این دستورات را اجرا کنید:
# نصب Deepseek R1
ollama run deepseek-r1:7b
# یا نصب Deepseek V3
ollama run deepseek-v3:7b3. پیکربندی ChatBox
- تنظیمات ChatBox را باز کنید
- "Ollama" را به عنوان ارائهدهنده مدل انتخاب کنید
- مدل DeepSeek نصبشده خود را از منو انتخاب کنید
- تنظیمات را ذخیره کنید
نکات استفاده
مکالمه پایه
ChatBox یک رابط مکالمه کاربرپسند ارائه میدهد:
- سوالات را در کادر ورودی تایپ کنید
- پشتیبانی از قالببندی Markdown
- مشاهده فرآیند تفکر مدل
- هایلایت سینتکس کد
ویژگیهای پیشرفته
ChatBox چندین ویژگی پیشرفته ارائه میدهد:
- تحلیل فایل
- promptهای سفارشی
- مدیریت مکالمه
- تنظیم پارامترها
عیبیابی
-
مدل کند اجرا میشود؟
- سعی کنید از نسخه کوچکتر مدل استفاده کنید
- برنامههای غیرضروری را ببندید
- پارامترهای مدل را تنظیم کنید
-
نمیتوانید به Ollama متصل شوید؟
- بررسی کنید که سرویس Ollama در حال اجرا است
- تنظیمات فایروال را بررسی کنید
- مطمئن شوید پورت 11434 در دسترس است
راهاندازی اتصال از راه دور
برای دسترسی به مدلهای مستقر محلی از دستگاههای دیگر:
- متغیرهای محیطی را تنظیم کنید:
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*- آدرس API را در ChatBox تنظیم کنید:
http://[Your-IP-Address]:11434توصیههای امنیتی
- دسترسی از راه دور را فقط در شبکههای قابل اعتماد فعال کنید
- Ollama و مدلها را به طور منظم بهروزرسانی کنید
- با اطلاعات حساس با دقت رفتار کنید
نتیجهگیری
با ترکیب Ollama و ChatBox، میتوانید به راحتی مدلهای قدرتمند DeepSeek را به صورت محلی اجرا کنید. این نه تنها حریم خصوصی شما را محافظت میکند، بلکه تجربه کاربری بهتری نیز ارائه میدهد.
منابع مرتبط
برای اطلاعات بیشتر درباره دانلود و اجرای مدلهای DeepSeek با Ollama، به راهنمای دانلود ما مراجعه کنید.
دستهبندیها
پستهای بیشتر

دیپسیک پیشتاز موج هوش مصنوعی: تحلیل عمیق Deepseek R1 250528 و V3 250324
معرفی دقیق آخرین نسخههای مدل Deepseek R1 250528 و V3 250324، ویژگیها، مزایا و موارد استفاده آنها

Deep Seek Chat رایگان: تجربه هوش مصنوعی پیشرفته بدون محدودیت
کشف امکانات نامحدود Deep Seek Chat - رایگان، بدون نیاز به ثبتنام، با قابلیتهای پیشرفته هوش مصنوعی

Deepseek V3 روی Ollama: اجرای هوش مصنوعی پیشرفته به صورت محلی
یک راهنمای جامع برای اجرای Deepseek V3، یک مدل MoE قدرتمند با 671B پارامتر، به صورت محلی با استفاده از Ollama