前言

2025年春节前,DeepSeek R1推理大模型发布后的表现太炸裂了。地球对面上蹿下跳的,搞的我手机上也一直被霸屏。都这么热了,不得搞起来免得落伍了。这次边看边用边学将Dify LLM应用开发平台结合DeepSeek大模型实践起来,搭建属于自己的AI平台智能体和工作流。顺带留文记录。


一、DeepSeek-R1&Dify简介

DeepSeek-R1

借用DeepSeek-R1模型自己的回答,DeepSeek-R1 是由中国人工智能公司深度求索(DeepSeek)开发的智能助手,基于先进的大语言模型技术构建。从功能概括Ollama模型说明提到,DeepSeek-R1是DeepSeek 的第一代推理模型,在数学、代码和推理任务方面实现了与 OpenAI-o1 相当的性能。

DeepSeek-R1能做什么?

基础功能
* 信息查询:解答常识问题,提供各领域知识(支持联网获取实时信息)
* 语言处理:支持多语言翻译、文本润色、摘要生成
* 内容创作:协助撰写邮件、文案、故事、诗歌等
* 学习辅助:解释专业概念、辅导作业、制定学习计划
进阶能力
* 编程支持:代码编写/调试、算法讲解、IT问题排查
* 数据分析:处理Excel表格、数据可视化建议
* 工具调用:支持联网搜索、图文混合交互(需明确说明需求)
* 个性化服务:可记忆对话上下文,根据用户需求调整回应风格
适用场景
* 学生:作业辅导、论文润色、知识点解析
* 职场:方案撰写、PPT大纲制作、数据分析
* 开发者:代码问题排查、技术方案咨询
* 生活场景:旅行规划、健康建议、日常百科问答

借用DeepSeek-R1和大模型行业大佬的指标对比图,可以了解到DeepSeek和当前的闭源模型对比,这个MIT License开源的大模型已经在第一梯队了。我们接下来会用它的蒸馏模型部署到本地(有24G+显卡配置的,可以用上32B模型效果不比付费的差)
在这里插入图片描述

Dify

官网的介绍是:生成式AI应用创新引擎
简单用AI回答:Dify是一个开源的大语言模型(LLM)应用开发平台,旨在简化和加速生成式AI应用的创建和部署。Dify 提供了一系列工具和接口,允许开发者构建、训练和部署能够与现实世界互动的智能系统。Dify 的目标是通过开源协作和模块化设计,为开发者提供一个灵活且强大的工具箱,用于轻松构建和运营生成式 AI 原生应用的智能系统。
在这里插入图片描述

Dify具体能做什么?

  1. 特定领域的聊天机器人和AI助理
  2. 不限长度的创意文档生成
  3. 自由链接的知识库问答和搜索
  4. 低代码的构建面向半自助Agent
  5. 支持私有化部署
  6. 支持多种外部平台及私有化大模型调用(OpenAI、Azure、Hugging Face、通义千问、百度千帆、DeepSeek、ollama、LocalAI等等)

二、部署教程

Ollama 部署 DeepSeek-R1

关于DeepSeek-R1说在前面

电脑配置高的可以试试大点的模型比如14b或者32b的,甚至70b的也可以试试。如果CPU和显卡配置都很普通的可以试试1.5b,7b或者8b的模型。到最后输出快的才是适合的。

安装软件:Ollama

打开ollama官网,选择对应的操作系统,下载ollama应用程序并安装(以Windows为例,macOS和Linux也是类似)
在这里插入图片描述
安装成功之后,不会有桌面图标。直接开启一个命令行窗口,输入ollama -v,如果出现下面的版本提示,则说明安装成功。
在这里插入图片描述

部署模型:DeepSeek-R1

在ollama官网的顶部,在模型搜索框里输入deepseek-r1,然后选择第一个「DeepSeek R1」
随后在模型界面,根据自己的机器配置选择对应的版本
在这里插入图片描述

模型 基础模型 参数 显存需求
DeepSeek-R1-Distill-Qwen-1.5B Qwen2.5-Math-1.5B 1.5B ~1GB
DeepSeek-R1-Distill-Qwen-7B Qwen2.5-Math-7B 7B ~4GB
DeepSeek-R1-Distill-Llama-8B Llama-3.1-8B 8B ~4.5GB
DeepSeek-R1-Distill-Qwen-14B Qwen2.5-14B 14B ~8GB
DeepSeek-R1-Distill-Qwen-32B Qwen2.5-32B 32B ~18GB
DeepSeek-R1-Distill-Llama-70B Llama-3.3-70B-Instruct 70B ~40GB
DeepSeek R1-671B 671B ~336GB

比如,我的电脑是Windows 内存64GB,显存24GB的,可以跑1.5B~32B的模型都比较流畅。选择8B后,在右侧会有下载命令。
将下载命令复制到命令行中执行

ollama run deepseek-r1:8b

在这里插入图片描述
模型默认安装在用户目录下。如果系统盘不够放,可以配置环境变量OLLAMA_MODELS指定存放目录后。退出ollama程序后再运行下载。
后续要整合Dify平台所以还需要配置OLLAMA的对外服务地址,可以通过配置环境变量OLLAMA_HOST。(默认仅本地运行是无法和非本地的服务通讯的)

配置完成后可以用管理员身份启动命令行使用netstat -tnb 查询确认ollama是否在指定host及端口运行

在这里插入图片描述


群晖部署 Dify

关于Dify说在前面

以下部分都是结合群晖DSM Intel CPU平台来部署,用群晖或者黑群晖的可以照猫画毛,用Linux的可以作为参照。

Linux 建议用Ubuntu 24.04.1 LTS或最新版本,刚发布这篇文章的时候,官网当时最新的0.15.2版本结合DeepSeek,在智能体使用上还存在问题。2月8日最新Dify发布了0.15.3版本已经可以正常使用了。如果下载Docker遇到问题,可以看下文提供的云盘链接,手动下载最新的版本,再本地部署。

考虑使用群晖系统搭建Dify,主要是利用存储服务的稳定可靠,有技术和钞能力加持后,Dify服务托管以及数据可靠性有了保障,后面的部署管理操作也相对简单。自己用的DS1618+ Intel的CPU,内存32GB,实际试用占用4G内存物理内存8G+的应该都能拉起容器实例,NAS的CPU使用率不高。

使用ARM CPU的我没有试,可能要自己动手在ARM Linux上先编译镜像,NAS这颗小心脏就不要折腾编译了。

DSM存储内存消耗情况

准备工作:开启群晖的ssh终端访问并克隆代码库

先在「套件中心」安装Git Server
在这里插入图片描述
打开「控制面板」中启动SSH功能,默认用22端口
在这里插入图片描述
本地电脑如果是Windows的话,需要安装好终端软件(最简单的就装个Git for Windows,也能在CMD执行ssh命令远程DSM)
ssh登录到群晖NAS之后,在特定目录下执行如下命令(我存储挂在点是/volume1)

# 新建docker目录存放Dify代码及容器数据
mkdir /volume1/docker
# 进入docker目录
cd /volume1/docker
# 拉取Dify代码
git clone https://github.com/langgenius/dify.git

准备工作:Dify容器配置准备

进入到dify/docker目录下,将.env.example修改为.env

# 进入到dify/docker目录下通过.env.example复制生成配置变量文件
cd /volume1/docker/dify/docker
cp -p .env.example .env
cp -p middleware.env.example middleware.env

修改一下docker-compse.yaml文件,把不支持的语法删掉

群晖DSM 的docker-compose版本较低需要调整


vi /volume1/docker/dify/docker/docker-compose.yaml
------
# 打开文本后使用/命令来定位到指定行
> /ulimits:
# 使用dd指令来删除
> dd
------

docker-compose.yaml
Dify1.0.0+版本开始模块化服务引入了新的容器,要运行起来还要额外改动一些配置比如用到了PG数据库,而群晖系统上安装配置了PG的话存在端口冲突需要将环境变量文件做调整:

数据库端口变更:5432改成5433 (共4处)
web服务端口变更:80改成8880 和 443改成8443 (共4处)

vi .env
# 变更前<,变更后 >
# DB
< DB_PORT=5432
< PGVECTOR_PORT=5432
< PGVECTO_RS_PORT=5432
< ANALYTICDB_PORT=5432
< RELYT_PORT=5432
---
> DB_PORT=5433
> PGVECTOR_PORT=5433
> PGVECTO_RS_PORT=5433
> ANALYTICDB_PORT=5433
> RELYT_PORT=5433

# Web
< NGINX_PORT=80
< NGINX_SSL_PORT=443
< EXPOSE_NGINX_PORT=80
< EXPOSE_NGINX_SSL_PORT=443
---
> NGINX_PORT=8880
> NGINX_SSL_PORT=8443
> EXPOSE_NGINX_PORT=8880
> EXPOSE_NGINX_SSL_PORT=8443

vi middleware.env
< EXPOSE_POSTGRES_PORT=5432
---
> EXPOSE_POSTGRES_PORT=5433

修改该模板数据库端口

vi docker-compose.middleware.yaml

在这里插入图片描述
因为docker-compose版本较低,还需要在/volume1/docker/dify/docker/volumes手动创建如下文件夹:

  1. db/data
  2. redis/data
  3. weaviate
  4. app/storage
  5. certbot/conf/live
  6. certbot/www
  7. plugin_daemon
    在这里插入图片描述

准备工作:加速国内docker镜像下载

由于docker镜像默认会从海外站点下载,宝贵梯子流浪或蜗牛般的网速,都不是我们想要的。可以用以下方式来达成低成本的快速获取镜像。

sudo tee /etc/docker/daemon.json <<EOF
{
  "registry-mirrors": [
    "https://docker.zhai.cm",
    "https://a.ussh.net",
    "https://hub.littlediary.cn",
    "https://hub.rat.dev",
    "https://atomhub.openatom.cn",
    "https://docker.m.daocloud.io",
    "https://docker.1ms.run",
    "https://dytt.online",
    "https://func.ink",
    "https://lispy.org",
    "https://docker.xiaogenban1993.com",
    "https://docker.mybacc.com",
    "https://docker.yomansunter.com",
    "https://dockerhub.websoft9.com"
  ]
}
EOF

配置好后,可以重启一下容器应用立即生效。

部署工作:Dify容器部署

打开Container Manager,选择「项目」,点击「新增」
在弹出的窗口中:

  1. 项目名称:dify(或者自己能够分辨的)
  2. 路径:选择Dify的docker目录
  3. docker-compose.yaml:选择已有的
    在这里插入图片描述
    一直下一步,并点击完成
    等待拉取镜像、构建项目(通常这边会卡住,需要你科学上网解决,解决不了的可以通过我分享的云盘来下载,已经放上了最新的版本)

Dify-Docker镜像 链接: https://pan.baidu.com/s/14dr8_cRhPGyKTlNmifaGpw?pwd=2025 提取码: 2025
较大的api文件请在终端导入完成(在DSM图形界面导入会报失败)
docker load -i path/to/your/image/dify-api-1.1.2.tar
在这里插入图片描述
服务启动成功之后,可以看到Dify相关的容器实例10个,状态绿色说明运行正常,如下图:
在这里插入图片描述
可能会发现dify-plugin_daemon-1实例是灰色的,需要我们通过以下步骤来修复

通过以下命令修改数据库端口
sudo vi /volume1/docker/dify/docker/volumes/db/data/pgdata/postgresql.conf

在这里插入图片描述
修改该后,停止dify项目,删除dify-db-1数据库实例。然后在项目中,选中dify再次构建就能让数据库选用指定的端口健康检查状态准确,并且plugin_daemon恢复正常。

按照上一段部署完成后,可以在浏览器输入群晖的IP+刚才在容器配置准备步骤设置的NGINX端口。
比如我的是http://192.168.1.111:8880,设置管理员账号密码进入到首页工作室
在这里插入图片描述
在这里插入图片描述


部署工作:DeepSeek-R1及相关模型对接Dify

群晖Dify服务搭建完成了也就有生成式 AI 原生应用的智能系统这个骨架,接下来要给LLM平台对接上灵魂大模型。
登录到已经部署好的Dify中,点击右上角的头像,然后点击设置:

在这里插入图片描述
在「模型供应商」页面中选择「Ollama」安装
在这里插入图片描述
在这里插入图片描述

Ollama插件安装完成后,在「模型名称」中填:deepseek-r1:14b。在「基础URL中」,根据先前部署Ollama时候配置的【主机IP:端口】填http://192.168.1.146:11434,填完之后其他保持默认,点击保存即可。(保存成功就说明配置联通了)

如果无法保存提示连接或者响应异常,可以排查一下DeepSeek运行的系统防火墙是否已经放行ollama。

在这里插入图片描述
在「模型供应商」顶部可以找到刚配置好的 Ollama DeepSeek模型,模型卡片中展开模型列表后可以继续添加其他模型,比如还可以增加deepseek-r1:7b 和deepseek-r1:32b等DeepSeek-R1的蒸馏模型。
这边结合玩转Dify添加一个生成嵌入模型shaw/dmeta-embedding-zh
先在大模型系统上安装上对应的模型包

ollama pull shaw/dmeta-embedding-zh:latest

然后再添加新模型如下填写后保存
在这里插入图片描述
在这里插入图片描述
以上完成后,我们已经将DeepSeek-R1大模型通过Ollama与Dify对接完成了。有兴趣的还可以选用其他模型供应商对接。


三、运用实践:Dify上玩转大模型

第一个玩法:聊天助手

通过新建一个聊天助手我们可以看一下DeepSeek能否被准确调用起来。
进入Dify [工作室] 点击创建空白应用,选择聊天助手
在这里插入图片描述
随便取个名称后直接创建,我取名chatDeepSeek,然后再工作室中找到这个应用卡片点击打开。
在右上角选择模型为我们先前对接创建的模型,参数列表先保持默认,完成后发布更新。
在这里插入图片描述
在这里插入图片描述
发布后打开探索页面,在左侧工作区就可以打开这个应用对话,试试看吧。
在这里插入图片描述

第二个玩法:工作流

通过新建一个工作流,将繁琐的工作搭建成PipeLine,解放我们的双手。
让我们来实现一个「简单的网页爬虫,并自动总结」的工作流。

进入Dify [工作室] 点击创建空白应用,选择工作流
在这里插入图片描述
下面是一个简单的网页爬虫工作流,支持输入一个关键词,并通过网页爬虫爬取相应的信息,然后使用大模型进行总结。
在这里插入图片描述开始节点定义一个变量user_input
在这里插入图片描述
网页爬虫使用百度URL拼接变量
在这里插入图片描述
LLM节点添加模型和爬虫输出结果
在这里插入图片描述
结果节点输出LLM内容
在这里插入图片描述
最后运行一下看看效果
在这里插入图片描述

第三个玩法:智能体结合知识库

智能体可以结合私域的知识库,并配置联网搜索能力是一个高阶的智能助理。
知识库可以理解为大模型的一个外置存储,里面包含私域知识,能够让大模型在不进行微调训练的情况下,解决其在特定领域的幻觉问题。

私域知识库

进入Dify [知识库] 点击创建空白应用,选择工作流
选择导入已有文本,上传后点击下一步

在这里插入图片描述
分段长度可以根据文档的实际情况调整,索引方式选高质量,生成嵌入模型选先前推送的shaw/dmeta-embedding-zh,检索设置选混合检索并勾选权重设置,用默认的即可保存处理(支持15MB文件上传分析)
在这里插入图片描述

创建完成之后,可以看到正在处理中,等待处理完成后就可以做为私域的知识,结合智能体使用了。

处理完成,会显示「可用」的状态,说明文档已经完成处理。
在这里插入图片描述
可以点击「召回测试」来测试一下知识库的检索效果。
在这里插入图片描述

智能体

点击「工作室」,选择「创建空白应用」
选择「Agent」,然后填写「应用名称」,点击「创建」:
创建完成后,如下图所示,大家可以自行添加:
在这里插入图片描述
Dify从1.0.0版本已经不再支持searxng,需要安装第三方插件来实现搜索。以下仅保留提供的案例。

# 职位描述
## 角色
你的主要任务是人工智能辅助助手,能够调用知识库工具、联网搜索、网页爬虫、获取时间等相关工具,收集相关信息,回答用户的提问。

## 技能
### 技能1:使用知识库工具进行知识库检索相关内容
### 技能2:使用time工具获取当前的时间
### 技能3:使用searxng功能进行联网搜索
### 技能4:使用webscraper功能对搜索到的相关内容进行爬取,并进行总结分析

## 限制
- 每次都必须调用知识库工具,如果没有相关内容,再进行联网搜索
- 你的回答应严格针对分析任务。使用结构化语言,逐步思考
- 使用的语言应和用户提问的语言相同
- 搜索的关键词必须和用户提问的内容一致

根据需要可以修改一下模型参数,最主要的是「上下文窗口大小」,我设置的是20000。如果过小的话,效果可能不好。还有前三个参数控制大模型的语言发挥。
配置好后发布更新。

测试智能体联网搜索功能验证
可以问:DeepSeek R1是什么时间发布的。
这个问题具有时效性,如果不能联网搜索的话,模型是回答不出来的。
由下图可知智能体通过searxng从网络搜索获取相关结果,联网搜索功能有效.

如果遇到如下回答重复或者语无伦次的可以适当调大上下文窗口大小。没有在回答消息输出回复的问题可能要等新版本做更好适配。

在这里插入图片描述
测试智能体知识库功能验证
接下来,在测试一下如果要找到结果在知识库中的情况。
比如我用的rust文档,提问:生命周期
由下图可知智能体通过知识库搜索到相关知识点结果,并做了输出回答。(这部分的回答结果效果还不好,不确定是兼容性问题还是需要再调整参数优化)
在这里插入图片描述
做为入门,这几个基本功能玩法,已经可以慢慢实践一阵了。

智能体可以结合私域的知识库,并配置联网搜索能力是一个高阶的智能助理。
知识库可以理解为大模型的一个外置存储,里面包含私域知识,能够让大模型在不进行微调训练的情况下,解决其在特定领域的幻觉问题。

四、智能平台横向对比参考

技术架构对比
平台 架构模式 核心技术 部署方式
FastGPT 微服务架构(Node.js+React) DAG可视化Flow Engine,混合索引(关键词+向量) Docker Compose私有化部署
Dify BaaS架构(Dataset-LLM-App) OneAPI协议,Celery异步任务处理 Kubernetes水平扩展
Coze 云原生架构(WebAssembly+MLaaS) NLU引擎、状态机管理、WebSocket插件热加载 仅提供云服务
MaxKB 企业知识管理 多模型集成、混合检索、模块化设计 私有化部署、API开放对接
模型能力对比
平台 模型支持 场景特点
FastGPT LoRA微调,OpenAI兼容API 深度定制化,自建模型
Dify OneAPI、LiteLLM 快速迭代,多模型切换
Coze 自研API网关 电商图像理解、高并发
MaxKB 开源+商用模型兼容 企业知识管理、精准问答
工作流引擎对比
平台 工作流实现 特殊优势
FastGPT JSON Schema,Trace调试 Python代码节点灵活注入
Dify Blockly低代码,Swagger API文档 LLM缓存,节省Token
Coze 状态图对话流管理 快速多轮对话,缺乏深度调试
MaxKB 可视化知识流程自动化管理 企业流程自动化与内容管理
知识库构建与优化
平台 技术实现 优势
FastGPT Elasticsearch+FAISS混合索引 查询优化,私有部署灵活
Dify Pinecone向量数据库 增量更新,适合运营
Coze 自研分布式索引 电商结构化数据精准抽取
MaxKB 多数据源统一接入 权限精细化,企业级知识库
生态支持与开发者服务
平台 生态特点 开发者支持
FastGPT 开源社区活跃 企业深度定制,商业支持有限
Dify 云市场模板丰富 快速商业应用落地
Coze 绑定字节跳动生态 直播互动、内容创作者变现
MaxKB 企业服务体系完善 强大的客户支持,定制化服务
技术选型建议
  • 企业深度定制场景(如金融、医疗知识库):FastGPT
  • 科研场景、自动化办公、教育领域、多语言客服:Dify
  • ‌自媒体和内容创作、‌客服服务、‌工作流设计:Coze
  • 企业知识管理与精准问答:MaxKB

一家之言仅做参考


总结

本文主要介绍了如何在群晖NAS上部署Dify,并通过对接Ollama配置时下最火的DeekSeek-R1大模型,结合Dify玩转「聊天助手」、「工作流」、「智能体」、「知识库」介绍了Dify的基本用法,大模型结合生成式 AI应用的智能平台Dify和目前云端产品还有不少,等待你去探索使用。有了对平台的功能理解和拓展,再结合个人实际需要可能能找到更适合自己的云端和单机实际使用场景。
2025年注定是人工智能飞跃发展的新开始。从简单对话,到能够有理有据的纸上谈兵,从推理能力提升,到图文视频的多模态演化;从光说不做,到结合MCP连接执行能力拓展。各种模型的连接,将带我们从面对电脑到面对实体化可沟通、协作、应变的机器人时代。

实际个人使用推荐Chatbox+Ollama 入门,再到 Cherry Studio+Ollama玩点高阶的。

参考文档
群晖NAS+Dify:AI原生应用部署教程,解锁大模型智能与工作流新境界
https://mp.weixin.qq.com/s/0M9QvjJ3dLMdtgFsJAHoSw
在本地部署DeepSeek R1,并添加私有知识库,支持联网搜索!
https://mp.weixin.qq.com/s/5Kc5PrngQi7C6BoW7DLXAA

本文出处:https://blog.csdn.net/liu_xp2003/article/details/145438731
-2025-02-05 发布
-2025-02-09 更新 Dify 官方支持DeepSeek版本
-2025-03-16 更新 Dify 官方 1.0.1版本部署方案
-2025-03-22 更新 Dify 官方 1.1.2版本部署方案

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐