type
status
date
slug
summary
tags
category
icon
password
✍️ 序言
我们这篇文章,源自一支在 YouTube 上爆火的视频 ——
《You NEED to Use n8n RIGHT NOW!! (Free, Local, Private)》。
作者 NetworkChuck 在视频中展示了一个AI自动化工具 —— n8n。
在短短几十分钟里,他从零开始,搭建出一个能:
- 自动汇总 RSS 新闻、
- 定时推送 Discord 消息、
- 执行系统命令检测网络、
- 甚至用 AI 总结资讯、分析结果的工作流。
我们这篇文章,就是要完整复现并深入讲解这场神级实战:
你会看到每一个节点的设置、每一步的逻辑、每一个细节背后的设计思路。
这不是一篇泛泛的“工具推荐”,而是一场完整的 n8n 自动化+AI 智能系统实战教学。
🤖 n8n 教学:引入 AI 及之前的部分

1️⃣ 建立工作流与触发器(Manual / Schedule) 🕹️
- 在左侧边栏点击 Workflows → Create workflow 进入空白画布。
- 在画布空白处点击 +(或按
Tab)添加第一个触发器: - 选择 Manual Trigger(便于随时测试)。
- 再次点击右上角 + → Add another trigger:
- 选择 Schedule,设定 Every 1 day at 00:00(本地时区)。
- 将两个触发器都连到下游节点(后续我们接入 RSS)。
- ✅ 要点:n8n 的每条连线都代表一次数据项的流转;Manual/Schedule 都可触发同一条工作流。clean
2️⃣ 读取 RSS 新闻(RSS Read) 📰
- 在触发器后点击 +,搜索并添加 RSS Read 节点。
- 在 Feed URL 中填入示例源(如 BleepingComputer)。
- 点击右上角 Save,随后在 RSS 节点内点击 Execute Node / Execute Step 进行试跑。
- 在右侧运行面板观察结果:
- 可见字段:
creator、title、link、content等; - Items 计数约 13(以源当下可用条目为准)。
- 画布连线提示:上游触发器输出 1 个“启动项”,RSS 输出 N 个“数据项”,后续每个下游节点将对这 N 条逐一处理(per-item 语义)。clean
3️⃣ 推送到 Discord(Webhook 模式) 💬
- 点击 RSS 节点右侧 + 添加 Discord → Send Message。
- Connection Type 选择 Webhook,新建凭据:
- 在 Discord 服务器 Settings → Integrations → Webhooks 创建 Webhook;
- 复制 Webhook URL 粘贴回 n8n 凭据表单并 Save。
- 在 Message 里先输入测试文本(如
hi),点击 Execute Step。
- 打开 Discord 频道验证:会看到多条重复消息(例如 13 条)。
- 原因:RSS 节点输出了 13 个“数据项”,Discord 节点会对每项执行一次(这正是 n8n 的每项执行模型)。clean
- 在 Message 模板中插入上游字段(拖拽或变量选择器):
- 预览区会实时展示渲染结果示例。clean
4️⃣ 控制推送量(Limit) ✂️
- 在 RSS Read 与 Discord 之间插入 Limit 节点。
- 在 Max Items 设为 5(或你需要的上限)。
- 点击上方 ▶ Run / Execute Workflow 或分别执行节点验证:
- 频道中应只收到 5 条新闻推送。clean
5️⃣ 主机命令执行(Execute Command) 🖥️
在不影响新闻推送链路的前提下,我们增加一条并行分支,对主机进行连通性检测。
- 在画布空白处点击 + 添加 Execute Command 节点(与 RSS 链路平行)。
- 在 Command 中填入:
- 点击 Execute Step,在输出中查看 stdout:应包含 3 次 ICMP 回显统计。
- 这是后续“系统健康状态”信息来源,可与新闻结果汇合后统一推送。clean
6️⃣ 合流(Merge / Append) 🔗
- 在 Limit 与 Execute Command 的下游插入 Merge 节点。
- Mode 选择 Append(顺序追加):
- 输入 A:来自 Limit(多条新闻项);
- 输入 B:来自 Execute Command(1 条命令输出)。
- 执行 Merge 并在右侧结果面板检查:
- 可见新闻项在前、命令结果项在后,合并为单一输出集合。
- 将 Merge → Discord 连线,新增一个专用的 Discord 节点用于“合流推送”,在消息中插入命令的
stdout字段以展示连通性检测结果。clean
7️⃣ 调试效率:固定数据(Pin Data)📌
构建中后期,频繁回放上游节点会耗时且影响下游调试。我们通过 Pin Data 锁定测试数据,避免重复抓取/执行。
- 打开 RSS Read 右侧运行结果,点击图钉 Pin;
- 打开 Limit、Execute Command 的运行结果,同样 Pin;
- 现在即使重复执行下游节点,已固定的数据也不会重置,便于反复调试消息模板、合流策略与推送格式。clean
8️⃣ 远程执行的可扩展性(SSH Node) 🛠️
- 若需在其他服务器或网络设备上运行命令,新增 SSH 节点并配置:
- 目标主机、端口、认证方式(用户名/密码或私钥);
- 待执行命令(如诊断脚本、服务状态查询)。
- 这使工作流具备跨主机巡检能力,可按 Schedule 定时执行并统一汇总/告警。
- 建议与 Merge / If / Switch / Set 等节点组合,形成“采集 → 过滤/整形 → 汇总 → 推送”的标准链路。clean
9️⃣ 产出与回放(Executions / Credentials / Save) 📂
- 右上角 Save 命名工作流(例如:
Daily News & Ping Digest)。
- 在左侧 Executions 随时回放任一历史运行,逐步展开每个节点以查看输入/输出与错误。
- 在 Credentials 管理各服务密钥(Discord Webhook 等),便于多环境切换或复用。clean
以上步骤完成后,你将拥有一个可定时运行的自动化:它会拉取 RSS 新闻、限制数量、并行做主机连通性检测,将两路结果在 n8n 内合并后,最终统一推送到 Discord。整个过程未引入任何 AI 节点,聚焦在 触发 → 抓取 → 裁剪 → 执行 → 合流 → 通知 的自动化骨架上。
🤖 n8n 教学:引入 AI 及之后的部分

以下内容承接上节的 Merge 节点部分,我们继续在同一工作流基础上引入 AI 功能,并逐步扩展到完整的智能化工作流。
1️⃣ 引入 AI 节点(LLM Chain) 🧠
- 在 Limit 与 Merge 节点之间插入新节点:点击 + → AI → Basic LLM Chain。
- LLM Chain 节点会出现一个额外的“模型端口”用于连接大语言模型。
- 点击“+”选择模型供应商:Anthropic、Azure、DeepSeek、OpenAI、Ollama 等。
- 本例先选择 Ollama(本地模型),新建凭据:
- 在 Host 中填写运行 Ollama 服务的机器地址;
- 点击 Test 确认连接成功。
- 在 Prompt 区域定义任务:
- 在下方添加字段引用,将上一节点(Limit)的内容传入:
{{$json["content"]}}。
- 点击 Execute Step 运行:
- LLM Chain 对每篇文章执行摘要生成;
- 输出以 JSON 字段形式返回。
- 若使用本地模型时摘要不完整,可切换为 OpenAI (GPT-4-mini) 以获取更高精度结果cleanclean。
2️⃣ 将 AI 应用于系统命令结果 💬
- 新增一个 LLM Chain 节点,放在 Execute Command 与 Merge 之间。
- Prompt 示例:
- 将命令输出字段(
stdout)拖入 Prompt。
- 选择 OpenAI 模型并执行。
- AI 将基于 ping 输出智能生成自然语言描述(带幽默风格),实现“状态检测 + AI 解读”。
- 至此,新闻摘要与系统状态两路都已引入 AI 处理逻辑cleanclean。
3️⃣ 整理数据:Set Field 节点 🧾
- 观察 LLM Chain 的输出可知,其只返回
summary字段。
- 为了保留新闻的
creator、title、link、publishedDate等信息,在 LLM Chain → Merge 之间插入 Set / Edit Fields 节点。
- 在该节点中手动拖入前一节点的数据字段:
creatortitlelinkpublicationDatesummary(来自 LLM 输出)
- 点击 Execute Step 验证,输出应只保留以上字段并形成整洁 JSONclean。
4️⃣ 创建与管理多个工作流 📂
- 右上角点击工作流名称 → 改名为 My First Workflow。
- 点击右上角菜单 → Duplicate → 命名为 My Second Workflow。
- 在左侧边栏的 Personal / Workflows 中查看两者。
- 在 Credentials 可看到全部凭据(Ollama、OpenAI、Discord 等),方便复用。
- Executions 页可查看每次运行日志、输入输出及 Token 使用量(底部实时显示)clean。
5️⃣ 扩展场景:添加更多数据源(YouTube) 🎥
- 新建节点 Set Fields 定义数组变量
channel_ids,包含多个频道 ID。
- 添加 RSS Read 节点,用以下格式读取频道视频:
- 为了逐一读取多个频道,在中间插入 Split Out 节点(根据
channel_ids拆分为多条记录)。
- 运行后 RSS 输出多条视频数据(示例共 45 条)。
- 继续添加 Filter 节点,通过表达式筛选近三天的视频(借助 ChatGPT 生成日期处理表达式)。
- 最后连接到 Discord → Send Message 节点,将标题与链接推送到频道,实现视频聚合播报clean。
6️⃣ 引入 AI Agent(具备记忆与工具) 🧩

- 在画布中添加 AI Agent 节点。外观类似 LLM Chain,但额外具有 Memory 与 Tools。
- 在 Agent 的 Chat Model 处选择 OpenAI;
- 在 Tools 中添加多个命令行工具示例:
- 工具 1:
- 工具 2:
- 为 Agent 添加 Chat Trigger,输入自然语言问题:
- Agent 自动选择相应工具执行命令并基于结果生成回答。
- 若询问 “Is Terry up?” 则仅触发第二条命令;
- Agent 能记忆上下文并连续交互,实现真正的智能化运维助手clean。
7️⃣ 教程最终效果 🌟
完成以上步骤后,n8n 的工作流具备以下智能特性:
- 自动抓取与汇总新闻源内容;
- 调用本地或云端 LLM 生成简洁摘要;
- 并行执行系统检测命令并生成自然语言报告;
- 通过 Discord 实时推送多源信息;
- 支持 YouTube 视频聚合与时间过滤;
- 可扩展为 AI Agent,自主选择工具并执行任务。
🪶 结尾
到这里,我们已经完整复现了那支 YouTube 教程里的全部关键流程。
从 RSS 聚合、Discord 推送、系统命令执行 到 AI 总结与智能 Agent,
每一个节点都证明了一件事:n8n 不只是自动化工具,它是一个可编排的逻辑引擎。
在实践过程中你会发现,它的“乐趣”远不止跑通工作流。
当你真正理解触发器、数据流、节点输入输出这些底层机制后,
你就能随手拼出任何自动化:
让 n8n 定时跑任务、检测系统状态、汇总信息、调用 AI 模型……
—— 所有流程都能在一个界面里被连接、测试、监控。
- Author:Henan Mu
- URL:http://preview.tangly1024.com/article/n8n-youtube
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!




