图片

在开始之前

本文将会涉及...

本文更偏向于实战,我会讲解如何通过 Dify 调用 1Panel 的 MCP Server,至于 MCP 的具体组成、MCP 各部分的含义本文将不会涉及或只在必要的地方予以说明。

本文选择 1Panel MCP Server 作为示例单纯是因为其操作简单、易于使用,同时我个人管理服务器使用的也是 1Panel。但是这不影响示例的普适性,只要支持 sse 的 MCP Server 都可以使用本文所述方式进行调用,即使是 stdio 模式的 MCP Server 也可以使用诸如 mcp-proxy 的工具来实现 sse 支持。

什么是MCP服务器?

Model Context Protocol (MCP) 是由Anthropic主导并于2024年开源的一种通信协议,旨在解决大型语言模型(LLM)与外部数据源及工具之间无缝集成的需求。MCP服务器是实现这一协议的服务端组件,它允许AI模型安全地与本地和远程资源进行交互。

MCP采用客户端-服务器架构:

MCP客户端(Client):通常是AI应用程序(如Claude Desktop或其他LLM工具),负责发起请求并与服务器通信。

MCP服务器(Server):轻量级程序,负责暴露特定的数据源或工具功能,并通过标准化协议与客户端交互。

MCP服务器的主要功能包括:

资源暴露:提供数据实体(如文件、数据库记录等)给客户端

工具提供:暴露可执行功能,让客户端调用完成特定任务

动态通知:当资源发生变化时主动推送更新

会话管理:处理客户端连接初始化、能力协商和会话关闭

你需要...

此指引写作时使用 Dify v1.2.0

目前所有较为先进的技术文档基本为英文,所以你至少要有基本的英语阅读能力。此外,由于我们会使用 Docker 来部署 MCP Server,你还需要有 Docker 部署和运维能力。

部署 MCP Server

MCP 的模式

在上文有提到,MCP Server 存在两种调用方式,一个是 stdio(Standard Input/Output / 标准输入输出),一个是 sse(Server-Sent Events / 服务器发送事件)。这两种调用方式可以简单理解为一个是命令行一个是网络请求。一般情况下 MCP Client 比如 Cursor 或者 Windsurf 都是同时支持这两种调用方式的,但是在 Dify 中,目前只支持 sse 调用方式,而且还是通过第三方插件拓展实现。

如果你要使用的 MCP Server 不支持 sse,你也可以通过 mcp-proxy 工具来实现将 stdio 转换为 sse 实现,再继续调用即可。

如何部署 1Panel MCP Server

官方仓库:1Panel MCP Server

在官方仓库中,提到了如何启用 sse 模式:

图片

于是我们只需要简单的通过如下 docker-compose.yaml 即可启动 1Panel MCP Server:

services:
  core:
    command: ./mcp-1panel -transport sse -addr "http://localhost:8000"
    environment:
      - PANEL_HOST=http://<1Panel-Access-Address>:<Port>
      - PANEL_ACCESS_TOKEN=<1Panel-Access-Token>
      - TZ=Asia/Shanghai
    image: 1panel/1panel-mcp-server:latest
    ports:
      - 8000:8000
    restart: unless-stopped

运行编排,若容器日志输出 2025/04/10 03:00:23 SSE server listening on :8000 的字样则代表 1Panel MCP Server 部署完成。

在 Dify 中调用

首先,在 Dify 插件市场安装 Agent 策略(支持 MCP 工具)插件。

图片

在 Dify 工作室中,新建 Chatflow 类型的工作流应用,之后在其中添加一个 Agent 节点,Agent 策略 选择 Function Calling

图片

此处由于插件限制,需要在工具列表中指定至少一个工具进去,这里随便指派了一个获取当前时间的工具。然后,设定 MCP 服务配置如下:

{
  "mcp-1panel-anything-you-want": {
    "url": "http://<Your-MCP-Server-Addr>:<Port>/sse"
  }
}

如果你有多个 MCP Server,可以在此处配置多个,比如:

{
  "mcp-1panel-1": {
    "url": "http://<Your-MCP-Server-Addr>:<Port>/sse"
  },
  "mcp-1panel-2": {
    "url": "http://<Your-MCP-Server-Addr>:<Port>/sse"
  }
}

但是请注意,此处的例子是不恰当的,因为两个 MCP Server 是相同的操作指令,在调用时可能会出现混乱。更推荐的方式是将单一功能重新封装为 Dify 工作流,再通过工作流工具的方式给其他应用调用。

在 指令 部分,Agent 策略(支持 MCP 工具)插件会通过 sse 自发现 MCP 指令,所以这里随便填个 . 避免 Dify 报错即可。

在 查询 部分,填写系统用户输入变量 {sys.query},如果你需要在后续通过 Workflow 进行封装的话,则可以直接设定为具体调用指令如:“获取1Panel服务器概览页状态”。

偶尔会出现报 “最大迭代次数”不能为空 的错误,此时重新输入一下最大迭代次数即可。

之后就可以进行测试了:

图片

我这里确实没有安装任何应用,所以回答完全没有问题。

拓展内容

1Panel MCP Server 调用报错?

检查你 docker-compose.yaml 的 PANEL_HOST=http://<1Panel-Access-Address>:<Port> 有没有正确设置,一定要注意 = 后面的内容不能用双引号括起来,同时 1Panel API 白名单设置允许 MCP Server 访问。如果你不确定,可以先将白名单设为 0.0.0.0/0 来暂时允许全部 IP 访问 API 来进行测试,切记测试完毕后禁用掉 0.0.0.0/0 白名单

Dify 没有回复内容?

检查你最后的“直接回复”节点是不是设置为 Agent 节点的输出文本。

 一、大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

二、如何学习大模型 AI ?


🔥AI取代的不是人类,而是不会用AI的人!麦肯锡最新报告显示:掌握AI工具的从业者生产效率提升47%,薪资溢价达34%!🚀

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)

 

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

*   大模型 AI 能干什么?
*   大模型是怎样获得「智能」的?
*   用好 AI 的核心心法
*   大模型应用业务架构
*   大模型应用技术架构
*   代码示例:向 GPT-3.5 灌入新知识
*   提示工程的意义和核心思想
*   Prompt 典型构成
*   指令调优方法论
*   思维链和思维树
*   Prompt 攻击和防范
*   …

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

*   为什么要做 RAG
*   搭建一个简单的 ChatPDF
*   检索的基础概念
*   什么是向量表示(Embeddings)
*   向量数据库与向量检索
*   基于向量检索的 RAG
*   搭建 RAG 系统的扩展知识
*   混合检索与 RAG-Fusion 简介
*   向量模型本地部署
*   …

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

*   为什么要做 RAG
*   什么是模型
*   什么是模型训练
*   求解器 & 损失函数简介
*   小实验2:手写一个简单的神经网络并训练它
*   什么是训练/预训练/微调/轻量化微调
*   Transformer结构简介
*   轻量化微调
*   实验数据集的构建
*   …

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

*   硬件选型
*   带你了解全球大模型
*   使用国产大模型服务
*   搭建 OpenAI 代理
*   热身:基于阿里云 PAI 部署 Stable Diffusion
*   在本地计算机运行大模型
*   大模型的私有化部署
*   基于 vLLM 部署大模型
*   案例:如何优雅地在阿里云私有部署开源大模型
*   部署一套开源 LLM 项目
*   内容安全
*   互联网信息服务算法备案
*   …

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐