1、本地部署
我们这里使用Ollama来进行模型部署,安装你的系统对应的客户端
安装Ollama
Ollama 官方版:ollama.com/
安装模型
如果使用 4-bit 量化,显存需求:
-
1.5B:约 1 GB
-
7B:约 4 GB
-
8B:约 4.5 GB
-
14B:约 8 GB
-
32B:约 18 GB
-
70B:约 40 GB
对于资源有限的用户,推荐使用 1.5B 或 7B 模型,它们可以在单张消费级显卡上运行。
如果需要更高的性能,可以选择 14B 或 32B 模型,但需要多 GPU 配置。
70B 模型适合高端计算环境,需要多张高端 GPU 支持。
各个模型及对应下载命令:
1.5B Qwen DeepSeek R1
ollama run deepseek-r1:1.5b |
7B Qwen DeepSeek R1
ollama run deepseek-r1:7b |
8B Llama DeepSeek R1
ollama run deepseek-r1:8b |
14B Qwen DeepSeek R1
ollama run deepseek-r1:14b |
32B Qwen DeepSeek R1
ollama run deepseek-r1:32b |
70B Llama DeepSeek R1
ollama run deepseek-r1:70b |
安装完就可以使用终端去聊天了
参考网址:
1、https://blog.quickso.cn/2025/01/27/%E6%9C%AC%E5%9C%B0%E9%83%A8%E7%BD%B2%E5%85%8D%E8%B4%B9%E5%BC%80%E6%BA%90DeepSeek-R1%E5%A4%A7%E6%A8%A1%E5%9E%8B/
2、https://www.oschina.net/news/331471
3、https://segmentfault.com/a/1190000046068080
|