找回密码
 立即注册
搜索
查看: 7|回复: 0

[讨论] 本地部署免费开源DeepSeek-R1大模型

[复制链接]
发表于 2025-2-2 15:39 | 显示全部楼层 |阅读模式

1、本地部署

我们这里使用Ollama来进行模型部署,安装你的系统对应的客户端

安装Ollama

Ollama 官方版:ollama.com/

安装模型

如果使用 4-bit 量化,显存需求:

  • 1.5B:约 1 GB

  • 7B:约 4 GB

  • 8B:约 4.5 GB

  • 14B:约 8 GB

  • 32B:约 18 GB

  • 70B:约 40 GB

对于资源有限的用户,推荐使用 1.5B 或 7B 模型,它们可以在单张消费级显卡上运行。
如果需要更高的性能,可以选择 14B 或 32B 模型,但需要多 GPU 配置。
70B 模型适合高端计算环境,需要多张高端 GPU 支持。


各个模型及对应下载命令:

1.5B Qwen DeepSeek R1

ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

ollama run deepseek-r1:7b

8B Llama DeepSeek R1

ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

ollama run deepseek-r1:32b

70B Llama DeepSeek R1

ollama run deepseek-r1:70b

安装完就可以使用终端去聊天了

deepseek-r1:1.5B交流图

参考网址:
1、https://blog.quickso.cn/2025/01/27/%E6%9C%AC%E5%9C%B0%E9%83%A8%E7%BD%B2%E5%85%8D%E8%B4%B9%E5%BC%80%E6%BA%90DeepSeek-R1%E5%A4%A7%E6%A8%A1%E5%9E%8B/
2、https://www.oschina.net/news/331471
3、https://segmentfault.com/a/1190000046068080

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|学习笔记

GMT+8, 2025-2-5 15:02 , Processed in 0.030144 second(s), 15 queries , APCu On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表