【AI智能体】N8N AI 工作流对接MCP服务实战操作详解
N8N AI 工作流对接MCP服务实战操作详解
目录
一、前言
2025年是AI大模型广泛使用的一年,随着大模型的能力日渐完善,基于大模型的其他周边的能力也逐步被开发出来,也在更广泛的领域中开始使用,比如结合低代码+工作流的AI智能体平台,基于传统的互联网应用的各自人工智能客服系统,各种助手等,因此大模型的边界得到了很大的拓展。在国内,比如典型的具有代表性的像Coze ,国外的Dify 等智能体平台,就是很好的将大模型的能力发挥到极致的代表,本文以智能体平台中非常核心的一个模块,工作流为例,来聊聊另一个近期非常火热的融合大模型与各种插件的流程编排工具,n8n。
二、N8N和MCP介绍
2.1 n8n 是什么
n8n 是一个开源的工作流自动化工具,它允许用户通过可视化的方式创建、执行和自动化各种任务,这些任务可以是数据处理、文件操作、API 调用等。n8n 支持多种节点(nodes),每个节点代表一个特定的操作或服务,例如读取数据库、发送电子邮件、与第三方服务API交互等。官网:https://n8n.io/

假设你是一名运营人员,每天需要在社交媒体平台上发布内容,同时还要将相关数据记录到表格中。使用n8n,你可以创建一个工作流,当你在WordPress上发布新文章时,n8n自动将文章分享到Twitter、Facebook等社交媒体平台,同时把文章的标题、发布时间等信息同步到Google Sheets表格中 ,这一系列操作一气呵成,大大节省了你的时间和精力。
又或者你是一名开发人员,需要定期从GitHub上获取更新的issues和pull requests信息,并发送邮件通知相关人员。利用n8n,你可以轻松设置一个定时任务,让它每周自动从GitHub获取相关信息,然后通过Gmail发送邮件通知,无需手动去查看和发送。
除了多平台集成,n8n还提供了丰富的触发器选项,你可以根据时间(定时任务)、特定事件(如收到新邮件、文件上传等)来触发工作流程。
2.2 n8n 核心特点
n8n 具有如下核心特点:
-
开源与可自托管
-
n8n 采用 公平代码(Fair-code) 许可,允许用户免费使用、修改甚至自托管,适合注重数据隐私的企业或个人。
-
企业版提供云托管选项(需付费)
-
-
可视化工作流编辑器
-
通过拖放节点(nodes)构建自动化流程,每个节点代表一个应用或操作(如 HTTP 请求、数据库查询、AI 工具调用等)。
-
-
广泛的集成支持
-
支持 600+ 应用和服务(如 Slack、GitHub、Google Sheets、OpenAI、Telegram 等),也支持自定义 API 调用。
-
社区贡献的节点可通过 n8n.nodes 库扩展功能。
-
-
灵活的执行方式
-
可手动触发、定时触发或通过 Webhook 触发。
-
支持条件分支、错误处理、数据转换等高级逻辑。
-
-
开发者友好
-
支持 JavaScript/Python 代码片段嵌入,满足定制化需求。
-
可导出/导入 JSON 格式的工作流,便于版本控制和共享。
-
从技术角度来看,n8n采用了先进的节点式架构。每个节点代表一个独立的操作,比如发送邮件、触发API、数据过滤等 。用户可以通过简单的拖拽方式,将不同的节点连接起来,构建出复杂的自动化工作流。这种模式不仅便于非技术人员上手使用,同时也为高阶开发者提供了足够的灵活性,他们可以通过JavaScript或Python代码自定义节点逻辑,来满足更复杂的业务需求。
2.3 n8n 主要应用场景
了解了n8n的能力后,你可以将它应用到许多实际场景中:
-
客户支持自动化:自动分析客户反馈邮件的情感倾向,并根据情绪积极或消极,将其自动路由至不同的处理团队。
-
智能内容生成:构建一个工作流,根据热点话题自动检索资料,并调用AI模型生成社交媒体帖子或视频脚本,最后发布到指定平台。
-
数据同步与处理:定期从数据库或API中提取数据,进行清洗和转换后,将结果汇总并发送到指定的Slack频道或生成报告。
-
构建RAG助手:搭建一个检索增强生成(RAG)AI客服代理,它能够根据你提供的内部文档(如产品手册)知识,智能地回答用户问题。
2.4 MCP 是什么
MCP(Model Context Protocol,模型上下文协议)是一种由Anthropic在2024年11月推出的开放标准协议。它的核心目标就像是为大模型打造一个“万能接口”,让各类AI模型能够像电脑使用USB接口连接各种设备一样,安全、标准地调用外部工具、数据库和实时数据,从而打破“数据孤岛”,解决大模型集成外部资源时的复杂性问题。
2.5 MP 核心工作原理
MCP的工作原理基于一个清晰、标准化的客户端-服务器架构,将整个过程划分为几个明确角色:
-
MCP 主机 (Host):这是发起任务的核心应用,比如Claude Desktop、Cursor等具备AI能力的工具或IDE。它承载着大模型,并负责最终与用户交互。
-
MCP 客户端 (Client):一个存在于主机内部的“通信代理”。每个客户端专门负责与一个MCP服务器建立一对一连接,按照标准格式收发请求和结果。
-
MCP 服务器 (Server):这是协议的关键执行者。每个服务器都对应一个特定的工具或数据源(比如天气API、公司数据库、Git仓库),它负责接收标准化的请求,执行实际操作(如查询、读取文件),并将结果返回。
通过这套标准化的“接口语言”,任何符合MCP协议的工具(服务器)都可以被任何支持MCP的应用(主机和客户端)识别和调用,大幅简化了集成过程。
2.6 MP 优势与价值
MCP带来的改变是显著的:
-
简化开发与集成:开发者无需为每个新工具编写特定的集成代码,极大地降低了适配成本和维护工作量。
-
实现即插即用:只要工具提供了MCP服务器,就能像“搭乐高积木”一样被快速接入AI应用,系统扩展性大大增强。
-
提升安全控制:MCP在AI模型和实际资源之间充当了一个可控的网关。模型本身不直接接触系统资源或敏感密钥,所有操作经过MCP服务器中转,便于进行权限管理和安全审计。
-
构建开放生态:开放协议鼓励了开发者社区和科技公司共同贡献和共享各种MCP服务器,正在形成一个繁荣的AI工具生态。
2.7 MCP 应用场景
MCP的应用场景非常广泛,正从开发者工具扩展到更广阔的领域:
-
智能编程助手:在IDE中,AI可以帮你查询文档、搜索代码库、执行Git操作,甚至直接调用调试工具,实现真正的“开发全流程”自动化。
-
企业级自动化:AI客服可以通过MCP连接企业内部的知识库、CRM、邮件系统,自动查询信息并处理工单,打造端到端的智能工作流。
-
个人效率工具:你的个人AI助手可以通过MCP管理你的日历、处理邮件、分析本地文档,成为一个真正能帮你操作软件的“数字秘书”。
2.8 N8N 接入MCP2种核心模式
要将n8n与MCP协议集成,主要可以通过以下两种方式来实现,并能在多个场景中显著提升自动化与AI协作的能力,这两种模式代表了n8n在MCP生态中扮演的两种不同角色,你可以根据需求选择,如下:
-
作为MCP服务器
-
角色:n8n成为一个功能提供方。它将自身强大的工作流自动化能力(如操作GitHub、发送邮件、查询数据等)“包装”成一个标准的MCP服务器。
-
作用:任何支持MCP协议的AI应用(如Claude Desktop、Cursor IDE等)都可以通过标准接口调用n8n工作流来执行任务,实现“一次配置,多处调用”。
-
关键节点:在n8n中使用 “MCP Server Trigger” 节点。
-
-
作为MCP客户端
-
角色:n8n成为一个功能调用方。在n8n的工作流中,AI智能体可以调用外部MCP服务器提供的工具。
-
作用:极大地扩展了n8n工作流中AI Agent的能力边界,使其能够直接操作外部工具(如网页搜索、数据库查询、视频生成等),实现更智能的自动化。
-
关键节点:安装社区节点 “n8n-nodes-mcp”,然后使用其中的 “MCP Client” 或 “MCP Client Tool” 节点。
-
2.9 N8N 接入MCP核心应用场景
将MCP与n8n结合,可以构建出许多强大且可以特殊定制的自动化应用:
-
AI驱动的智能工作流构建 通过自然语言向工作流中的AI Agent描述需求(如“当用户填写表单后,发送邮件并更新CRM”),AI可以理解意图并调用MCP工具,辅助甚至自动生成复杂的工作流节点。这样可以大大降低创建自动化流程的门槛。
-
扩展AI代理的能力 在工作流中置入AI Agent节点,并为其配置MCP客户端工具。这样,AI就可以在工作流执行过程中,根据上下文动态调用外部工具,例如实时搜索网络信息、分析数据或生成多媒体内容,做出更智能的决策。
-
连接企业业务系统与通讯工具 通过特定的MCP节点(如飞书MCP节点),可以将企业通讯工具(如飞书)中的事件(如收到消息、表格更新)直接触发n8n工作流,实现无缝的业务集成与通知自动化。
-
简化数据分析与交互 通过接入SQLBot这类提供“自然语言问数据”能力的MCP服务,用户可以在n8n中直接使用自然语言查询数据库,快速生成数据洞察,并将结果通过工作流推送到指定渠道。
-
远程与跨平台自动化 利用内网穿透工具(如Ngrok、cpolar)将本地部署的n8n暴露到公网,使其MCP Server URL可被互联网上的AI助手访问。这意味着你可以在手机或任何地方的AI应用里,远程触发并运行本地n8n中强大的自动化工作流。
三、N8N对接MCP服务操作过程
3.1 前置准备
在正式使用N8N工作流对接MCP服务之前,为了方便后面的效果演示,需要先找一个外部的MCP服务进行后续的集成,这里以高德MCP服务为例,网站地址:https://lbs.amap.com/?ref=https://console.amap.com/dev/index ,用自己的手机号注册即可
登录到下面的控制台之后,创建一个新应用,然后就可以产生一个新的apikey了,这个apikey就是后文需要用到的

3.2 N8N 作为MCP客户端配置工作流过程
接下来,将N8N作为一个MCP的客户端,配置一个完整的工作流。参考下面的配置流程。
3.2.1 增加一个对话触发节点
如下,增加一个对话触发的节点

其实就是一个对话框,当用户在对话框输入文本时节点自动被触发

3.2.2 增加一个 AI Agent节点
接下来增加一个 大模型节点,如下:
-
这个 AI Agent 节点扮演着"翻译官"的角色,它将用户的自然语言请求转化为 MCP Client 能够理解的结构化指令

在节点上配置如下系统提示词
你是一个专业的查询助手,根据用户输入的{{ $json.chatInput }},调用gaode-tool工具查询信息,并返回结果

1)配置Chat Model
这里我选择使用DeepSeek 的Chat Model模型
-
注意:需要输入你的 DeepSeek 的 API 密钥,如果没有,可以访问 DeepSeek 官网提前申请一个

3.2.3 配置MCP Client Tool 节点
添加一个 MCP Client Tool 节点,这是整个 Client 工作流中最关键的部分

添加进去之后,只需要在下图中配置你在高德开发者网站中产生的那个apikey即可,前面的地址的固定的
https://mcp.amap.com/mcp?key=你的apikey

3.2.4 效果测试
按照上面的步骤配置完成后,可以在下面的对话框中输入一个问题,注意不要超越高德地图MCP提供的服务范围,比如我这里询问一个网红书店的名字

最后,可以看到输出了该网红书店的详细信息,同时通过调用链路不难发现,先是走了大模型deepseek,然后大模型中调用了高德地图的MCP工具服务

3.3 作为MCP服务端配置流程
3.3.1 增加一个MCP Trigger 触发节点
如下,增加一个MCP的触发节点

可以看到,这个节点产生了一个MCP的标准URL(注意保持这个URL,后面使用),暴露出去给客户端连接使用

3.3.2 增加一个Tool工具
这个工作流的作用是作为MCP的服务器端给后续其他应用集成使用,因此还需要给这个工作流增加一个Tool的能力,这里为了演示效果,增加一个简单的计算器功能,如下

这样就算配置好了

最后点击右上方的激活按钮,对配置的MCP Server激活,否则上述的URL将不会生效

3.3.3 在Cherry Studio 中配置MCP
打开Cherry Studio的客户端工具,如下,在左下角的设置按钮处,找到配置MCP服务器菜单

然后在右上角点击添加按钮,如下,填写几个必要的信息,最后保存并启用

配置完成后,就能在工具一栏看到这个N8N中配置的MCP工具了

接下来,新增一个助手,在对话框的工具那里,手动把上面添加的那个MCP服务选择

3.3.4 效果测试
在对话窗口输入一组需要计算的数字,如下,计算2个数的和,以及两个数字的乘积,可以看到,最后调用了上面这个自定义的MCP服务器


四、写在文末
本文通过实际案例操作,演示了在N8N工作流中如何集成MCP服务,并以两个实际案例的配置过程演示了N8N分别作为MCP客户端与服务端的具体使用,有兴趣的同学还可以继续深入研究,本篇到此结束,感谢观看。
更多推荐



所有评论(0)