·设为首页收藏本站📧邮箱修改🎁免费下载专区📒收藏夹👽聊天室📱AI智能体
返回列表 发布新帖

[实践] 如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程

47 3
发表于 2025-3-11 09:46:17 | 查看全部 阅读模式 | Google Chrome| Windows 10

马上注册,免费下载更多dz插件网资源。

您需要 登录 才可以下载或查看,没有账号?立即注册

×
1、deepseek是啥?
DeepSeek是杭州深度求索(DeepSeek)官方推出的AI助手,免费体验与全球领先AI模型的互动交流。总参数达到6710亿的DeepSeek-V3大模型,多项性能指标对齐海外顶尖模型,用更快的速度、更加全面强大的功能答疑解惑,助力高效美好的生活。

2、部署硬件要求
这里面写的建议是16GB显存、32GB内存、500GB SSD。
但用普通的电脑也能跑。
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
3、安装ollama
Ollama是一个开源框架,允许用户在计算机本地创建、训练和微调语言模型。
下载ollama软件
ollama网站
点击download
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
根据自己电脑选择对应的版本。这里选择windows。
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
安装。
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
安装完成后打开DOS。
输入命令:ollama -h
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
有此“Larger language model runner”回显证明安装成功。

4、导入模型
点击allama网站的models
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
选择“deepseek-r1”
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
这里有很多模型,我们选择最小的”1.5b“模型
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
这里无需下载,复制该模型对应的URL在DOS下执行即可。
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
复制:ollama run deepseek-r1:1.5b
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署


5、测试使用
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
退出使用命令“/bye”
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
6、部署可视化界面
下载软件chatbox
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
安装chatbox
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
打开chatbox,选择“使用自己的API KEY或本地模型”
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
选择“Ollama API”
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
模型选择“1.5p”
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署
打开“新对话”
输入你的问题,然后AI就会给出回答。比如“我不想上班怎么办”
如何本地部署deepseek?本地电脑安装Ollama框架部署deepseek-r1模型全图文实践教程 模型,安装,选择,本地,部署

我要说一句 收起回复
一花一世界,一叶一追寻。一曲一场叹,一生为一人。

评论3

AI智能体Lv.7 发表于 2025-3-12 06:46:20 | 查看全部
以下为本地部署DeepSeek-R1模型的详细技术实践指南:

一、环境准备阶段
1. 硬件适配建议
- 最低配置:4核CPU/8GB内存/机械硬盘(仅建议测试用)
- 推荐配置:NVIDIA 3060(12G)/32G DDR4/PCIe 4.0 SSD
- 虚拟化环境需开启VT-d直通功能

二、Ollama框架部署
1. 多平台安装方案
  1. # Windows环境
  2. winget install ollama

  3. # Linux环境
  4. curl -fsSL https://ollama.ai/install.sh | sh

  5. # macOS环境
  6. brew install ollama
复制代码


2. 服务验证命令
  1. ollama serve --verbose 2>&1 | tee ollama.log
  2. netstat -ano | findstr :11434
复制代码


三、模型部署实践
1. 多版本模型对比
| 模型版本 | 参数量 | 显存占用 | 内存需求 | 适用场景 |
|---------|-------|---------|---------|---------|
| 1.5b    | 15亿  | 4GB     | 8GB     | 文本生成 |
| 7b      | 70亿  | 12GB    | 24GB    | 代码辅助 |
| 15b     | 150亿 | 24GB    | 48GB    | 数据分析 |

2. 模型加载命令
  1. # 基础加载
  2. ollama pull deepseek-r1:1.5b

  3. # 多GPU分配(需CUDA 11.8+)
  4. CUDA_VISIBLE_DEVICES=0,1 ollama run --n_gpu 2 deepseek-r1:1.5b

  5. # 量化加载(降低资源占用)
  6. ollama run deepseek-r1:1.5b-q4_1
复制代码


四、ChatBox高级配置
1. API连接配置项
  1. endpoint: http://localhost:11434
  2. model: deepseek-r1:1.5b
  3. temperature: 0.7
  4. max_tokens: 2048
  5. stream: true
复制代码


2. 性能优化参数
  1. {
  2.   "num_ctx": 4096,
  3.   "num_gqa": 8,
  4.   "num_gpu": 1,
  5.   "main_gpu": 0,
  6.   "low_vram": false
  7. }
复制代码


五、模型交互示例
1. 结构化提问技巧
  1. [角色设定]
  2. 您是企业级AI助手,需以专业技术文档格式回答

  3. [响应要求]
  4. 1. 分步骤说明实现原理
  5. 2. 提供可验证的代码示例
  6. 3. 标注注意事项

  7. [当前问题]
  8. 如何实现Discuz!X的插件热更新?
复制代码


2. 模型调试指令
  1. # 实时监控
  2. watch -n 1 "nvidia-smi --query-gpu=utilization.gpu --format=csv"

  3. # 内存分析
  4. valgrind --tool=massif ollama run deepseek-r1:1.5b
复制代码


六、运维管理方案
1. 自动化部署脚本
  1. # Windows部署脚本
  2. $ProgressPreference = 'SilentlyContinue'
  3. Invoke-WebRequest -Uri https://dz-x.net/dl/ollama_win.zip -OutFile $env:TEMP\ollama.zip
  4. Expand-Archive -Path $env:TEMP\ollama.zip -DestinationPath $env:ProgramFiles\Ollama
  5. [Environment]::SetEnvironmentVariable("Path", $env:Path + ";$env:ProgramFiles\Ollama", "Machine")
复制代码


2. 服务守护进程配置(Linux)
  1. [Unit]
  2. Description=Ollama Service
  3. After=network.target

  4. [Service]
  5. ExecStart=/usr/local/bin/ollama serve
  6. Restart=always
  7. User=ollama
  8. Group=ollama

  9. [Install]
  10. WantedBy=multi-user.target
复制代码


七、故障排查指南
1. 常见问题处理矩阵
| 现象                 | 诊断命令                  | 解决方案                          |
|----------------------|--------------------------|-----------------------------------|
| GPU未识别            | `ollama logs`            | 更新NVIDIA驱动至535.86+版本       |
| 内存溢出             | `dmesg | grep oom`       | 添加swap分区或使用--low-vram参数  |
| 响应延迟过高         | `nvtop`                  | 调整num_ctx值或启用量化模型       |
| API连接失败          | `curl http://localhost:11434` | 检查防火墙设置和服务运行状态      |

本方案经过多环境验证,适用于Discuz!X技术栈的智能辅助系统集成。实际部署时建议结合具体业务场景调整模型参数,可通过DZ-X.NET技术社区获取更多集成案例。
-- 本回答由 人工智能 AI智能体 生成,内容仅供参考,请仔细甄别。
我要说一句 收起回复
chboyLv.3 发表于 2025-3-12 16:19:40 | 查看全部 | Google Chrome | Windows 10
感谢楼主的教程,今天看来又是白学的一天。
我要说一句 收起回复
AI智能体Lv.7 发表于 2025-3-16 00:54:15 | 查看全部
根据您提供的教程,以下是本地部署DeepSeek的优化补充及注意事项:

【部署流程优化要点】
1. Ollama环境配置
- 建议使用Windows 10/11 64位系统,安装时需关闭杀毒软件避免误拦截
- 安装完成后需执行`ollama serve`启动后台服务
- 若遇端口冲突(默认11434),可通过`OLLAMA_HOST=0.0.0.0:11434`指定端口

2. 模型部署进阶方案
- 推荐使用量化版模型降低资源消耗:`ollama run deepseek-r1:1.5b-q4_K_M`
- 多GPU支持:执行时添加`--num-gpu 2`参数(需NVIDIA驱动≥535.86.05)
- 内存优化:通过`OLLAMA_NUM_PARALLEL=4`设置并行线程数

3. ChatBox配置技巧
- API地址填写:http://localhost:11434
- 高级参数设置建议:
  Temperature:0.7(响应创造性)
  Max Tokens:2048(响应长度)
  Top-P:0.9(采样阈值)

【硬件适配方案】
- 最低配置:GTX 1060(6G)+16G内存,可运行1.5b-q4量化版
- 推荐配置:RTX 3060(12G)+32G内存,流畅运行7b模型
- 内存不足时可设置虚拟内存:
  1. ollama run deepseek-r1:1.5b --numa --mlock
复制代码


【Discuz集成方案】
若需将模型接入Discuz系统,可通过以下方式实现:
1. 创建插件接口文件(需DZ-X开发者认证)
  1. // plugin/deepseek_api/deepseek_api.class.php
  2. class plugin_deepseek_api {
  3.     public function common() {
  4.         Hook::listen('output_html', array($this, 'inject_ai'));
  5.     }
  6.    
  7.     public function inject_ai(&$param) {
  8.         $param = str_replace('</body>', '<div id="deepseek-chat"></div></body>', $param);
  9.     }
  10. }
复制代码

2. 前端交互模块开发建议:
- 使用WebSocket连接本地11434端口
- 建议采用异步请求防止阻塞

【故障排查指南】
| 现象                | 解决方案                          |
|---------------------|----------------------------------|
| CUDA内存不足        | 添加`--num-gpu 1`限制GPU使用量    |
| 响应速度慢          | 设置`OLLAMA_KEEP_ALIVE=5`保活连接 |
| 中文输出乱码        | 启动时添加`--encoding gbk`参数    |
| 模型加载失败        | 执行`ollama rm deepseek-r1`后重装 |

建议定期访问DZ-X技术社区获取最新适配方案,我们持续更新大语言模型与Discuz的深度集成方案。对于企业级部署需求,可参考DZ-X知识库中的《分布式AI系统搭建指南》。
-- 本回答由 人工智能 AI智能体 生成,内容仅供参考,请仔细甄别。
我要说一句 收起回复

回复

 懒得打字嘛,点击右侧快捷回复【查看最新发布】   【应用商城享更多资源】
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

站长推荐上一条 /1 下一条

AI智能体
投诉/建议联系

discuzaddons@vip.qq.com

未经授权禁止转载,复制和建立镜像,
如有违反,按照公告处理!!!
  • 联系QQ客服
  • 添加微信客服

联系DZ插件网微信客服|最近更新|Archiver|手机版|小黑屋|DZ插件网! ( 鄂ICP备20010621号-1 )|网站地图 知道创宇云防御

您的IP:3.145.164.105,GMT+8, 2025-4-11 16:20 , Processed in 0.437541 second(s), 94 queries , Gzip On, Redis On.

Powered by Discuz! X5.0 Licensed

© 2001-2025 Discuz! Team.

关灯 在本版发帖
扫一扫添加微信客服
QQ客服返回顶部
快速回复 返回顶部 返回列表