Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想知道如何用dify搭建rag工作流

Answer

要使用 Dify 搭建 RAG 工作流,首先需要在“工程化框架”选择部分了解 Dify 。然后使用 Dify 推出的“工作流”功能将流程设计和提示词进行落地。具体来说,要建立整体工作流程,但此流程可能缺少知识检索环节。您可以通过延申阅读获取更多信息:Dify——工作流:https://docs.dify.ai/v/zh-hans/guides/workflow/introduce 。另外,还有案例提到让 Manus 创建一个需要上传文件的 Dify 工作流,如根据上传的多篇文章写一个脱口秀段子,并制作美观、使用简便的网页来使用这个工作流,最后将此工作流的 api 接入进去,各功能与网页 UI 按钮一一对应,直到上线部署可供使用。

Content generated by AI large model, please carefully verify (powered by aily)

References

RAG 提示工程(三):迈向工程化应用

在“工程化框架”选择的部分,我们曾经介绍过Dify,那么接下来我们就使用Dify推出的“工作流”功能将我们流程设计和提示词进行落地。延申阅读:Dify——工作流:https://docs.dify.ai/v/zh-hans/guides/workflow/introduce[heading3]6.1建设整体流程[content]首先,让我们把整体工作流程建立起来:在这个流程上少了知识检索环节,由于本文只关注提示词层面上的内容,所以就略过,后面我们将会在知识回复内容中提供假定检索到的知识,帮助大家看清整个工作流程。

详解:Manus

MUx&view=vewNhBX7cO)|编号|提交人|提交时间|如果你来测世界第一个通用Agent,你想测什么?(期待你的case投稿)|直播与后续测试感受,将在公众号:一泽eze公布||-|-|-|-|-||44|🌈AJ|2025/03/06|让manus创建一个需要上传文件的dify工作流(如根据上传的多篇文章写一个脱口秀段子),做一个美观、使用简便的网页来使用这个工作流,最后将此工作流的api接入进去,各功能与网页UI按钮一一对应,直到上线部署可供使用。(涉及对查阅dify帮助文档,搭建工作流,api的复杂使用,不是简单的chatbot)|我关注了||45|🌈AJ|2025/03/06|汇总分析硅谷yc、a16z创业公司|我关注了||46|🌈AJ|2025/03/06|志愿填报调研报告|我关注了||47|🌈AJ|2025/03/06|教育|我关注了||48|🌈AJ|2025/03/06|智能客服场景:如何帮助企业更好地对内服务客服,对外服务客户|我关注了||49|🌈AJ|2025/03/06|帮我看每天必看的新闻来源,总结归纳出报告给我|扫码关注了吗||50|🌈AJ|2025/03/06|Text2Sql领域的最新进展|我关注了||51|🌈AJ|2025/03/06|想测试一下小红书和抖音的数据分析|我关注了|

RAG提示工程系列(3)| 迈向工程化应用

在“工程化框架”选择的部分,我们曾经介绍过Dify,那么接下来我们就使用Dify推出的“工作流”功能将我们流程设计和提示词进行落地。延申阅读:Dify——工作流:https://docs.dify.ai/v/zh-hans/guides/workflow/introduce[heading3]6.1建设整体流程[content]首先,让我们把整体工作流程建立起来:在这个流程上少了知识检索环节,由于本文只关注提示词层面上的内容,所以就略过,后面我们将会在知识回复内容中提供假定检索到的知识,帮助大家看清整个工作流程。

Others are asking
dify
使用 Dify 构建知识库的具体步骤如下: 1. 准备数据: 收集需要纳入知识库的文本数据,包括文档、表格等格式。 对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集: 在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。 为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式: Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。 根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用: 将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。 在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化: 收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。 定期更新知识库,增加新的内容以保持知识库的时效性。 总的来说,Dify 提供了一个可视化的知识库管理工具,使得构建和维护知识库变得相对简单。关键步骤包括数据准备、数据集创建、索引配置,以及将知识库集成到应用中并持续优化。 Dify 是一个开源的大模型应用开发平台,它通过结合后端即服务和 LLMOps 的理念,为用户提供了一个直观的界面来快速构建和部署生产级别的生成式 AI 应用。该平台具备强大的工作流构建工具,支持广泛的模型集成,提供了一个功能丰富的提示词 IDE,以及一个全面的 RAG Pipeline,用于文档处理和检索。此外,Dify 还允许用户定义 Agent 智能体,并通过 LLMOps 功能对应用程序的性能进行持续监控和优化。Dify 提供云服务和本地部署选项,满足不同用户的需求,并且通过其开源特性,确保了对数据的完全控制和快速的产品迭代。Dify 的设计理念注重简单性、克制和快速迭代,旨在帮助用户将 AI 应用的创意快速转化为现实,无论是创业团队构建 MVP、企业集成 LLM 以增强现有应用的能力,还是技术爱好者探索 LLM 的潜力,Dify 都提供了相应的支持和工具。Dify 官方手册:https://docs.dify.ai/v/zhhans 。一般地,如果是个人研究,推荐单独使用 Dify,如果是企业级落地项目推荐使用多种框架结合,效果更好。 Dify 有两种使用方式: 1. 云服务版本。直接在官网 dify.ai 上注册账号使用。 2. 部署社区版。开源,可商用,但是不能作为多租户服务使用。对个人使用完全无限制。 部署前提条件:2 核 4G 云服务器一台=159 元(不懂的也不用懂,不重要)。其实本地也可以,但是本地更折腾,作者不喜欢在自己电脑上部署 Web 服务,所以未分享本地部署方法。【小插曲】今天在腾讯云开新服务器的时候,发现腾讯云居然提供了一键部署,更简单了!而且看了下,挺便宜的,羊毛不薅白不薅。
2025-03-18
Dify 怎么使用
Dify 有以下使用方式和相关信息: 云服务版本:可直接在官网 dify.ai 上注册账号使用。 部署社区版:开源且可商用,但不能作为多租户服务使用,对个人使用无限制。部署前提条件为 2 核 4G 云服务器一台(约 159 元),本地也可部署但较折腾。 构建知识库的具体步骤: 准备数据:收集文本数据,包括文档、表格等格式,并进行清洗、分段等预处理,确保数据质量。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档,并编写良好描述。 配置索引方式:提供三种索引方式(高质量模式、经济模式和 Q&A 分段模式),根据需求选择。 集成至应用:将数据集集成到对话型应用中,在应用设置中配置数据集使用方式。 持续优化:收集用户反馈,优化知识库内容和索引方式,定期更新增加新内容。 Dify 是开源的大模型应用开发平台,结合后端即服务和 LLMOps 理念,提供直观界面快速构建和部署生产级别的生成式 AI 应用。具备强大工作流构建工具、支持广泛模型集成、提示词 IDE、全面的 RAG Pipeline 用于文档处理和检索,允许定义 Agent 智能体,通过 LLMOps 功能持续监控和优化应用性能。提供云服务和本地部署选项,满足不同用户需求。其设计理念注重简单性、克制和快速迭代,官方手册:https://docs.dify.ai/v/zhhans 。一般个人研究推荐单独使用,企业级落地项目推荐多种框架结合。
2025-03-17
与Dify相关的文章
以下是与 Dify 相关的文章内容: 1. 《》:介绍了一键部署自己的 Dify 网站的方法,提供了腾讯云一键部署和云服务器 Docker 部署两种方案。用户需配置模型供应商的信息,包括 API base 和 key。成功保存设置后,可在主页面创建 Agent 进行测试。 2. 问:Dify 怎么接入企业微信: 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 下载 Dify on WeChat 项目:下载并安装依赖。 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat
2025-03-17
dify学习
Dify 是一个开源的大模型应用开发平台: 它结合后端即服务和 LLMOps 的理念,为用户提供直观界面,能快速构建和部署生产级别的生成式 AI 应用。 具备强大的工作流构建工具,支持广泛的模型集成,有功能丰富的提示词 IDE 以及全面的 RAG Pipeline 用于文档处理和检索。 允许用户定义 Agent 智能体,并通过 LLMOps 功能对应用程序性能进行持续监控和优化。 提供云服务和本地部署选项,满足不同用户需求,其开源特性确保对数据的完全控制和快速产品迭代。 设计理念注重简单性、克制和快速迭代,能帮助用户将 AI 应用的创意快速转化为现实,为创业团队构建 MVP、企业集成 LLM 增强现有应用能力、技术爱好者探索 LLM 潜力等提供支持和工具。 Dify 官方手册:https://docs.dify.ai/v/zhhans 一般来说,如果是个人研究,推荐单独使用 Dify;如果是企业级落地项目,推荐使用多种框架结合,效果更好。 部署 Dify 的相关步骤: 参考:https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose ,这些命令在宝塔面板的终端安装。 若 dockercompose 文件在 /root/dify/docker 目录下,可学习其中文件的意思。 检查运行情况,如遇到问题可根据情况处理,例如 80 端口被占用,可按照 AI 给出的方法解决。 在浏览器地址栏输入公网 IP 进入,随便建立知识库并进行相关设置。 选择模型,国内模型有免费额度,如智谱 ai,获取钥匙并复制保存,创建应用并测试发布。
2025-03-13
dify
Dify 相关信息如下: 构建知识库的具体步骤: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集,为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式:Dify 提供了三种索引方式供选择,包括高质量模式、经济模式和 Q&A 分段模式,根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。定期更新知识库,增加新的内容以保持知识库的时效性。 平台特点: Dify 是一个开源的大模型应用开发平台,通过结合后端即服务和 LLMOps 的理念,为用户提供直观界面来快速构建和部署生产级别的生成式 AI 应用。具备强大的工作流构建工具,支持广泛的模型集成,提供功能丰富的提示词 IDE 以及全面的 RAG Pipeline 用于文档处理和检索。允许用户定义 Agent 智能体,并通过 LLMOps 功能对应用程序的性能进行持续监控和优化。提供云服务和本地部署选项,满足不同用户需求,通过开源特性确保对数据的完全控制和快速产品迭代。其设计理念注重简单性、克制和快速迭代,无论是创业团队构建 MVP、企业集成 LLM 以增强现有应用能力,还是技术爱好者探索 LLM 潜力,Dify 都提供相应支持和工具。 Dify 官方手册:https://docs.dify.ai/v/zhhans 。一般地,如果是个人研究,推荐单独使用 Dify,如果是企业级落地项目推荐使用多种框架结合,效果更好。
2025-03-11
ai制作幽默表情包系列的工作流,用dify或make实现的全流程
以下是使用 Dify 或 Make 实现 AI 制作幽默表情包系列的全流程: 1. 素材准备 平面设计稿:确定表情包的基本设计和角色形象。 2. 制作流程 转 3D:将平面设计稿转换为 3D 形式,增加立体感和丰富度。 AI 生成场景:利用相关工具生成适合的场景。 AI 图生视频:将生成的图片转换为视频。 剪辑转 gif:对视频进行剪辑,并转换为 gif 格式。 压缩:使用图像压缩工具,如 https://imageresizer.com/zh/%E5%9B%BE%E5%83%8F%E5%8E%8B%E7%BC%A9 ,对 gif 进行压缩,以满足上传要求。 上传微信表情平台审核:完成压缩后,上传至微信表情平台进行审核。 相关工具: 即梦:https://jimeng.jianying.com/aitool/image/generate Recraft: https://www.recraft.ai/
2025-03-11
ragflow
RAGflow 的能力拆解包括以下方面: 文档拆分方式: 通用模式:主要参考每个块的 token 数量,同时考虑语意完整性,切分段落点通常在句号或叹号等完整句子结束处,拆分结果和 langchain 大同小异。 Q&A 问答对:将左边内容加上“问题:”,右边内容加上“回答:”,数据清洗工作量大。 简历:格式不可控,解析易失败,建议官方给出模板。 手册:一整段文字提取,分割处在页面分页、段落分段处,块大小通常较大。 表格:拆分后每一行被当成一个块,第一行表头插入到每一块头部。 数据清洗:RAGflow 提供分段后的数据处理,可自行添加、修改数据及添加标签。测试中添加特定术语和数据并进行召回测试,发现数据正确召回但大模型可能因上下文问题无法匹配。结论包括:RAGflow 召回同时使用向量相似度和关键词相似度并加权得到混合相似度;关键词相似度不仅匹配文本段内容还匹配标签内容;关键词相似度单个实体出现即为 100%;检索内容需同时包含“问题信息”和“答案信息”大模型才能解答;RAGflow 未提供对外接口,应用不便。 此外,还有关于大模型 RAG 问答行业最佳案例及微调、推理双阶段实现模式的相关内容,如在模块化 RAG 范式下探讨 RAG Flow 的设计思路,包括典型的 RAG Flow 模式、特定的 RAG 流实现以及最佳的行业案例,在典型的 RAG Flow 模式方面介绍了微调阶段模式和推理阶段模式等。
2025-03-18
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-03-18
RAG的优化思路
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 LLM 需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在黑盒不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在学不会的风险。 2. 数据库的数据更新敏捷,可解释且不影响原有知识。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 在优化 RAG 性能方面,对于向量化基本平权的情况,可引入来源机制进行改进,对向量化的数据进行综合评分,如相似度置信度等,然后再进行 rebank。特别是对于私有化数据,业务方清楚数据的置信度,有优化空间。
2025-03-18
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 研究人员引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 LLM(大语言模型)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 个主要难题及相应的解决方案。
2025-03-17
作为一个产品经理,我现在要设计一个企业内的销售培训智能体,我手里有产品知识、销售基础知识,我该怎么设计,是只做rag还是做多智能体协同?
以下是为您设计企业内销售培训智能体的一些建议: 首先,了解多智能体模式的设置。它包括全局设置和多个代理之间的编排协调两个核心部分。全局设置涵盖角色设定与回复逻辑、记忆管理以及对话体验等,其中人物设定与回复逻辑应侧重于角色塑造。在智能体的交互流程设计上,要形成完整的互动链条,当用户意图未满足跳转条件时,保持与当前智能体的沟通。设计多轮协作的智能体时,应将其交互设计为闭环结构,以确保用户能自由切换。 其次,动手实践制作智能体。对于 Chat GPT 版本,可按以下步骤:点击“浏览 GPTs”按钮,点击“Create”按钮创建,使用自然语言对话或手工设置进行具体配置,然后调试并发布。对于 Chat GLM 版本,点击“创建智能体”按钮,输入智能体描述,可粘贴准备好的提示词模板,其配置可自动生成,可根据需求调整并上传本地文件作为知识库。 然后,考虑多智能体协同的概念。在处理复杂任务时,单智能体可能面临提示词修改和逻辑不清晰的问题。多智能体协作如吴恩达所举例,每个智能体被赋予不同身份,互相合作对话,能模拟现实工作场景,成为复杂系统,但可能存在效率不高的情况。 最后,您可以根据实际情况选择是采用 RAG 还是多智能体协同。如果任务相对简单,RAG 可能足够;若任务复杂,涉及多个环节和角色的协作,多智能体协同可能更合适。您还可以通过具体的例子,如旅游场景中负责景点推荐、路线规划和食宿安排的三个智能体,来更好地理解和设计。
2025-03-16
什么是rag?
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把文档切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。
2025-03-14
怎么搭建扣子智能体提取抖音文案并进行改写用到哪些插件,并给我配置参数与步骤图
以下是搭建扣子智能体提取抖音文案并进行改写所需的插件、配置参数及步骤: 1. 插件搭建: 点击个人空间,选择插件,点击创建插件。 插件名称:使用中文,根据需求起名。 插件描述:说明插件的用途和使用方法。 插件工具创建方式:选择云侧插件基于已有服务创建,填入所使用 API 的 URL。 在新的界面点击创建工具,填写工具的基本信息,如工具名称(只能使用字母、数字和下划线)、工具描述、工具路径(以“/”开始,若使用 path 方式传参,用“{}”包裹变量)、请求方法等,结束后点击保存并继续。 2. 配置输入参数: 点击新增参数,填写所有需要使用的参数,保存并继续。 3. 配置输出参数: 如果一切填写正确,可直接点击自动解析,会自动调用一次 API 给出对应的输出参数。 填入汉字“张”,点击自动解析。 解析成功后显示解析成功,可看到输出参数已填好,然后点击保存并继续。 4. 调试与校验: 测试工具是否能正常运行。 运行后查看输出结果,Request 为输入的传参,Response 为返回值,点击 Response 可看到解析后的参数。 此外,安仔使用 Coze 免费创建 24 小时英语陪练的步骤包括: 1. 打开扣子首页,点击左上角创建 AI Bot 按钮。 2. 在弹窗输入 Bot 相关信息。 3. 设计人设与回复逻辑,根据功能需求设计提示词。 4. 调整模型设置,如改为 20 轮对话记录。 5. 选择使用插件,如英文名言警句、Simple OCR 等。 6. 设置开场白和预置问题。 7. 设置语音,选择亲切的英语音色。
2025-03-18
怎么搭建扣子智能体提取抖音文案并进行改写
以下是关于搭建扣子智能体提取抖音文案并进行改写的相关信息: 1. 团队介绍:野生菌团队(昆明),成员如罗文(组长)具有 10 年营销、5 年电商经验,是 AI 微软认证人工智能开发者和得到校友会昆明会长,负责项目组织、分工跟进、资源协调、思路整理等工作。罗文有多个相关作品,更多可查看扣子主页。 2. 搭建智能体: 创建一个智能体,输入人设等信息,放上相关工作流。配置完成后进行测试,但千万不要直接发布。 对于工作流中的特定节点,如【所有视频片段拼接】节点使用的插件 api_token,可作为工作流最开始的输入,用户购买后输入 api_token 再发布,以避免消耗他人费用。 3. 动手实践: 第一步创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体,注意配置相关插件和节点。 进行数据处理,注意代码节点输出的配置格式。 最后进行测试和发布,发布时选择多维表格,注意输出类型、输入类型等配置,完善上架信息,可选仅自己可用以加快审核。
2025-03-18
知识库搭建注意事项
以下是关于知识库搭建的注意事项: 1. 数据清洗方式: 可选择手动清洗数据以提高准确性,避免自动清洗数据可能出现的不准确情况。 对于本地文档,要注意合理拆分内容以提高训练数据准确度,不能将所有内容一股脑放入训练。 2. 在线知识库: 点击创建知识库,可创建如画小二课程的 FAQ 知识库。 飞书在线文档中每个问题和答案以分割,可点击编辑修改和删除。 选择飞书文档,选择自定义的自定义,输入。 点击添加 Bot 并在调试区测试效果。 3. 本地文档: 对于本地 word 文件,要注意拆分内容的方法。例如,对于画小二课程,将 80 节课程分为 11 个章节,先放入大章节名称内容,再按固定方式细化章节内详细内容。 选择创建知识库自定义清洗数据。 4. 发布应用: 点击发布,确保在 Bot 商店中能够搜到,否则无法获取 API。 5. 文档格式和分片策略: 以创建外贸大师产品的帮助文档知识库为例,可选择使用 Local doucuments 方式上传 Markdown 格式文档,每个问题以开头。 文档的分片策略会严重影响查询结果,RAG 方案存在跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等缺点。 此外,在信息管理和知识体系搭建中,“拎得清、看得到、想得起、用得上”是四个核心步骤: 1. 拎得清:主动选择和判断高质量、与目标相关的信息源,利用 AI 搜索引擎筛选信息,加入优质社群、订阅号等建立信息通路。 2. 看得到:确保所选信息能频繁且不经意地触达个人,通过浏览器插件、笔记工具等组织信息,使其易于检索和浏览。 3. 想得起:做好信息的索引和关联,存储时做好标记(关键词、tag)、选择合适存放位置,推荐使用 PARA 笔记法等方法组织串联信息。 4. 用得上:将积累的知识转化为实际行动和成果,在解决问题或创造价值时从知识库中调取相应信息。
2025-03-17
我需要搭建一个每个人都能使用的知识库
要搭建一个每个人都能使用的知识库,可以考虑使用 GPT 并借助 embeddings 技术。以下是相关步骤和原理: 1. 文本处理:将大文本拆分成若干小文本块(chunk)。 2. 向量转换:通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块,作为问答的知识库。 3. 问题处理:当用户提出问题时,先将问题通过 embeddings API 转换成问题向量,然后与向量储存库中的所有文本块向量进行比对,查找距离最小的几个向量,提取对应的文本块,并与原有问题组合成新的 prompt 发送给 GPT API。 4. 容量限制:GPT3.5 一次交互支持的 Token 数量有限,embedding API 是解决处理大量领域知识的方案。 5. 理解 embeddings:embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度。例如,“猫”和“狗”距离近,与“汽车”距离远。 例如,对于一篇万字长文,拆分成的 chunks 包含:文本块 1:本文作者:越山。xxxx。文本块 2:公众号越山集的介绍:传播效率方法,分享 AI 应用,陪伴彼此在成长路上,共同前行。文本块 3:《反脆弱》作者塔勒布xxxx。文本块 4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。如果提问是“此文作者是谁?”,通过比较 embeddings 向量,可以直观地看出文本块 1 跟这个问题的关联度最高,文本块 3 次之。最后发送给 GPT API 的问题会类似于“此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。”这样大语言模型大概率能回答上这个问题。
2025-03-16
我想用扣子搭建有着我自己思维的智能体,让他能进行日常对话和创作
以下是用扣子搭建具有自己思维的智能体,使其能进行日常对话和创作的步骤: 1. 创建智能体:使用单 Agent 对话流模式。 2. 编排对话流:点击创建新的对话流并与智能体关联,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT,使用代码节点进行数据处理,注意代码节点输出的配置格式。 3. 测试:找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据,同时在智能体的编排页面进行测试,确保对话流执行成功。 4. 发布:点击发布后选择多维表格,进行配置,包括输出类型选文本、输入类型选字段选择器,完善上架信息,填写表格,选发布范围时可选择仅自己可用以加快审核。 此外,扣子的知识库功能强大,可上传和存储知识内容,提供多种查找方法,能解决大模型的知识不足问题。在智能体中可运用自己的知识库,如收集地道口语表达的短句。还可为智能体添加开场白以提升体验。 在多智能体模式设置中,包括全局设置和多个代理之间的编排协调。全局设置涉及角色设定与回复逻辑、记忆管理和对话体验等,在设计智能体交互流程时应形成完整互动链条,采用循环机制而非单向流程,可通过旅游场景中景点推荐、路线规划和食宿安排等智能体的例子来理解。
2025-03-16
怎么搭建自己的智能体?
搭建自己的智能体可以参考以下步骤: 1. 创建智能体: 输入人设等信息。 起一个智能体的名称。 写一段智能体的简单介绍。 使用 AI 创建一个头像。 2. 配置工作流: 放上创建的工作流。 为智能体配置对应的技能,如在 Bot 编排页面的技能区域,单击插件功能对应的“+”图标,选择相应插件并新增。 修改人设与回复逻辑,指示智能体使用相应插件来完成任务。 (可选)为智能体添加开场白,让用户更好地了解其功能。 3. 测试智能体: 在预览与调试区域中测试智能体是否符合预期,可单击清除图标清除对话记录。 4. 发布智能体: 配置完成后,在 Bot 的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道,然后单击发布。 需要注意的是,工作流中【所有视频片段拼接】节点使用的插件 api_token 填的是您的 token,其他人调用这个工作流会直接消耗您的 money,所以不能直接发布。您可以将 api_token 作为工作流最开始的输入,用户自己购买后,输入 api_token 就可以使用,然后再发布。 相关资源: 扣子官网:https://www.coze.cn/ Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome
2025-03-16
一句话阐述工作流的原理
工作流的原理通常包括以下几个方面: 1. 由多个节点构成,节点是基本单元,如大语言模型、自定义代码、判断逻辑等。默认包含起始的 Start 节点和末尾的 End 节点。 2. 不同节点可能需要不同的输入参数,包括引用前面节点的参数值和自定义的输入值。 3. 一些工作流通过特定插件实现特定功能,如 SDXL Prompt Styler 插件结合 ControlNet 实现图片风格转化,其原理是在 prompt 中加入预设好的风格关键词组合。 4. 对于复杂任务场景,通过对插件、大语言模型、代码块等功能的可视化组合,实现复杂、稳定的业务流程编排,例如旅行规划、报告分析等。 5. 像生成图文短句的工作流,会包含多个步骤,如大模型生成标题、通过代码节点获取标题、生成简介、生成文案、归纳总结、传递给图像流等,并对图像流进行提示词优化和文生图等操作。
2025-03-18
有没有针对AI工具嵌入个人工作流方方面面赋能工作的信息
AI 工作流是将 AI 工具引入到工作流程的各个环节中,以提高工作效率。 在说 AI 工作流之前,要先了解工作流的概念。工作流即工作流程,比如写公众号文章,可拆分为选题、列大纲写初稿、改稿、写标题、排版、发布等步骤,每个步骤都有明确的输入和产出,环环相扣。 搭建 AI 工作流有一套工作流: 1. 找到一个熟悉的工作场景,如写文章、做 PPT 等。 2. 拆解工作流程,例如写文章可拆分为选题、写稿、改稿、写标题等步骤。 3. 针对每个步骤嵌入工具,可参考他人经验,灵活选择最优解,目的是提高工作效率,而非增加工作的含 AI 量。 搭建 AI 工作流需要三层能力: 1. 了解各种 AI 工具,知晓其特点和用途。 2. 学会写提示词,以便向 AI 清晰表述任务。 3. 搭建 AI 智能体,使多个 AI 工具协同工作,自动完成任务。
2025-03-17
除了flowith之外,有哪些类似的产品可用,可以自动创建工作流并执行
以下是一些类似 flowith 可以自动创建工作流并执行的产品: 1. Refly:通过明确使用场景和构建完整的 WorkFlow 来帮助创作者降低认知负担。 2. FunBlocks AIFlow:在产品设计上致力于减少用户的认知负担。 此外,ComfyUI 也可通过拖入工作流文件来自动加载工作流,例如生成绿幕素材和绿幕素材抠图的工作流,其工作流文件链接为:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 。您可以对照相关内容进行学习。
2025-03-17
如何在coze创建智能体或工作流
在 Coze 创建智能体或工作流的步骤如下: 1. 创建 Bot: 打开 Coze 官网 https://www.coze.cn/home 。 点击页面左上角的⊕,通过【标准创建】填入 bot 的基本信息。 2. 图像工作流: 创建图像工作流。 图像流分为智能生成、智能编辑、基础编辑三类。 空间风格化插件有参数,如 image_url 是毛坯房的图片地址;Strength 是提示词强度,影响效果图;Style 是生成效果的风格,如新中式、日式、美式、欧式、法式等;user_prompt 是用户输入的 Promot 提示词。 按照构架配置工作流,调试效果。调试工作流毛坯房测试用例:https://tgi1.jia.com/129/589/29589741.jpg 。 开始节点对应配置三项内容,进行提示词优化。 3. 分步构建和测试 Agent 功能: 首先进入 Coze,点击「个人空间工作流创建工作流」,打开创建工作流的弹窗。 根据弹窗要求,自定义工作流信息。点击确认后完成工作流的新建。 左侧「选择节点」模块中,根据子任务需要,实际用上的有插件、大模型、代码。 编辑面板中的开始节点、结束节点,分别对应分解子任务流程图中的原文输入和结果输出环节。 按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,完成工作流框架的搭建。 4. Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定 Bot 的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置:插件可扩展 Bot 的专业能力;工作流可设置固定的处理流程和业务逻辑;图像流处理和生成图像相关功能;触发器设置自动化响应条件。 知识库管理:文本存储文字类知识材料;表格结构化数据的存储和调用;照片是图像素材库。 记忆系统:变量存储对话过程中的临时信息;数据库管理持久化的结构化数据;长期记忆保存重要的历史对话信息;文件盒子管理各类文档资料。 交互优化(底部区域):开场白设置初次对话的问候语;用户问题建议配置智能推荐的后续问题;快捷指令设置常用功能的快速访问;背景图片自定义对话界面的视觉效果。 预览与调试(右侧区域):实时测试 Bot 的各项功能,调试响应效果,优化交互体验。
2025-03-17
如何实现公众号用智能体+工作流,每天自动发《头条新闻》
要实现公众号用智能体+工作流每天自动发《头条新闻》,可以参考以下步骤: 伊登:最新 Deepseek+coze 实现新闻播报自动化工作流 工作流程详解 第一步:内容获取 1. 只需输入新闻链接,系统就能自动提取核心内容。开始节点,入参包括新闻链接和视频合成插件 api_key。 2. 添加网页图片链接提取插件,承接开始节点的新闻链接。 3. 获取网页里的图片,以 1ai.net 的资讯为例,输入新闻后提取出很多链接,其中第一条链接通常是新闻主图,其他内容多为不重要的 icon。 4. 添加图片链接提取节点,若为节省写代码时间,可直接用大模型节点提取,只拿提取的链接集合的第一条,即可搞定新闻的主要图片。 5. 接着利用调整图片的节点,将 url 属性的图片内容转化为 image 属性的图片(因为 url 节点在画板中是 string 的格式,所以必须转为 img 格式)。 6. 对于文字部分,使用链接读取节点将文字内容提取出来。 7. 在提取链接后面接上一个大模型节点,用来重写新闻成为口播稿子,可使用最强的 DeepseekR1 模型生成有吸引力的口播内容。小 tips,如果想要加上自己的特征,可以在提示词里写:“开头加上‘这里是伊登 AI’之类的个性化台词防伪”。PS:这里的 deepseekR1 基础版本是限额使用,我们可以在专业版手动接入 DeepseekR1 手动接入推理模型。 第二步:画面生成 思路是做成一帧一帧的主图+台词,配合语音合成,保证音屏同步。 1. 用批量化节点,做成一帧一帧的画面,用画板节点完成。批量处理节点输入的是格式变化后的 json 格式的文案。 2. 画面生成的重点是:在批处理中,先把一些固定内容在画板节点安排好,比如背景图片。然后引入变量元素,比如新闻图片(已经提取并转换为 img 属性)、新闻标题(来自链接读取)、口播台词(已经提取并二创)。小 tips:想要找好看的背景图推荐去可画,挑选一个好看的视频模板然后,保存为【图片】格式,然后放在画板节点,当作底图。 第三步:语音合成 使用声音合成的官方插件,引用批处理的一句一句的新闻文案内容,可调节语速和语气,多种播音风格可选。在画板和语音合成的节点后面加入图片音频合成插件。PS:这个插件需要收费,登录 https://ts.fyshark.com//userInfo,【钱包】充值获取 token,【个人中心】获取 token,放入这个节点中,不过充值 10 元可以做好久了,这个插件适合小白同学,也有不收费的插件,但是比较吃操作,如果感兴趣也可以关注后续出相关教程。这个插件的 img_audio_video 的功能是把图片+视频合成,这样就实现了一段一段的口播新闻内容。 【拔刀刘】自动总结公众号内容,定时推送到微信(附完整实操教程) 三、搭建工作流 13、循环将推送内容插入数据库 将本轮推送给用户的内容,写入数据库,下次从 rss 列表中如果再抓取到相同内容,直接跳过,避免重复推送。使用「循环」节点,输入项为第 8 步代码输出的 content_urls,这里有完整的文章内容信息。循环体设置:使用「数据库」节点,输入项为本循环节点 item 中的 url 和 suid,SQL 也是用 AI 生成的。设置循环节点的输出项:output,参数随便选,后边也用不到了。 14、结束节点 选择第 11 步输出的内容,可以在 bot 中也查看到推送的内容。 15、试运行 工作流终于搭建完了,点击右上角的试运行,选择绑定的 bot,输入数据测试。Key:输入你的 server 酱的 sendkey。rss_list:如果你没有现成的数据,可以白嫖我这个,复制下方这两条数据测试使用。试运行结果:如果工作流设置的没有问题,你会在工作流中看到这样的结果。同时,微信上也会收到这条推送,可以查看总结内容,点击链接可以查看公众号原文。点击右上角发布。
2025-03-16
日常工作应用有哪些场景推荐
以下是一些日常工作中的 AI 应用场景推荐: 教师工作: 定制内容场景:可根据学生认知和水平筛选和定制课程材料。 制作课件场景:用 Markdown 语法列出大纲,生成基础课件。 教学执行:协助小组活动、设计分层教学、个性化教学、提供实时反馈、提供策略和知识支持。 学生评估:设计评估,可模仿各类考试题型,生成各种主观反馈和报告,比如写作口语批改反馈、期末学生评价。 深度学习场景:学习学生心理支持,可提供具体场景做案例分析。 专业成长:论文写作辅助、撰写材料,如工作总结、活动简报、领导发言稿、工作邮件,策划活动,如调查问卷、艺术节策划、教师活动策划,行政工作,公众号排版、排校历、排课表。 计划相关: 共学相关。 网页连接制作。 创意构思。 开发网页、小程序、App、桌面应用、浏览器插件等。 本地跑的 PC 应用,如计算器等。 算法学习: 分类问题:例如文本分类、图像识别、手写数字识别、医学诊断等。 回归问题:例如房价预测、股票价格预测等。 异常检测:识别异常值或离群点。 推荐系统:找到与用户兴趣最相似的其他用户或物品,并基于相似性进行推荐。 图像分割:识别图像中的区域,并进行图像分割。 聚类分析:用于聚类任务,尤其是当数据集中的簇不是明显的球形或高斯分布时。
2025-03-16