用 Langflow 拖拽式工作流构建多平台 AI 机器人

用 Langflow 拖拽式工作流构建多平台 AI 机器人

用可视化工作流驱动 QQ、微信、Telegram、Discord 等平台的聊天机器人,无需编写代码。 LangBot 是一个开源即时通讯机器人平台,可以连接 Langflow、n8n、Dify、FastGPT、Coze 等 AI 工作流引擎,以及微信、QQ、飞书、钉钉、Telegram、Discord、Slack、LINE 等消息平台。本教程演示如何将 Langflow 的可视化工作流作为 LangBot 的对话引擎。 为什么选择这套方案 真正的多平台:一个工作流同时驱动 8+ 个消息平台 可视化编排:拖拽式对话设计,支持条件分支、多轮对话、外部 API 调用 灵活的 AI 模型:支持 OpenAI、Claude、Gemini、DeepSeek 以及本地模型 完全开源:LangBot 和 Langflow 都是开源项目,可免费部署和二次开发 准备工作 Python 3.10+ Docker(推荐用于快速部署) OpenAI API Key 或其他 LLM 服务的 API Key 第一步:部署 LangBot 用 uvx 一行命令启动: uvx langbot 首次运行会自动初始化并打开浏览器访问 http://127.0.0.1:5300。 注册后登录进入控制台: 第二步:部署 Langflow 用 Docker 快速部署: docker run -d --name langflow -p 7860:7860 langflowai/langflow:latest 访问 http://localhost:7860 进入 Langflow: ...

2025年12月5日 · 2 分钟 · LangBot Team
LangBot 4.6.0 外部知识库教程:集成 Dify 实现 RAG 对话

LangBot 4.6.0 外部知识库教程:集成 Dify 实现 RAG 对话

LangBot 4.6.0 引入了外部知识库功能,允许用户将 Dify、RAGFlow 等外部知识检索服务集成到对话流水线中。本教程演示如何将 Dify 知识库与 LangBot 结合,实现基于领域知识的智能对话。 功能概述 外部知识库功能使 LangBot 能够: 连接各种外部知识检索服务(Dify、RAGFlow 等) 基于领域专业知识提供专业回答 通过插件系统灵活扩展知识检索能力 通过 WebUI 便捷配置,无需手动编辑配置文件 准备工作 开始之前,你需要: 部署 LangBot 4.6.0 或更高版本 拥有 Dify 账号(在 https://cloud.dify.ai 注册) 配置一个对话模型(本教程使用 claude-opus-4-1-20250805) 第一步:部署 LangBot 1.1 查看 LangBot 仓库 首先访问 LangBot GitHub 仓库 了解项目。LangBot 是一个生产级的即时通讯机器人开发平台,支持多种消息平台和 LLM 服务。 1.2 了解外部知识库功能 访问 LangBot 官方文档 查看外部知识库使用说明。文档详细介绍了如何构建内置知识库和连接外部知识库。 1.3 启动 LangBot 使用 uvx langbot 命令快速启动 LangBot,然后访问 http://127.0.0.1:5300 进行初始化。填写邮箱和密码完成注册,然后登录。 1.4 登录后的控制台 成功登录后,你将看到 LangBot WebUI 控制台。 第二步:配置对话模型 使用知识库之前,需要先配置一个对话模型。 2.1 进入模型配置页面 点击左侧导航栏的 “Models” 进入模型配置页面。 ...

2025年12月2日 · 2 分钟 · LangBot Team