Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

搭建AI客服,对接知识库

Answer

以下是搭建 AI 客服并对接知识库的步骤:

  1. 搭建 OneAPI(https://github.com/songquanpeng/one-api),用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时了解如何白嫖大模型接口。
  2. 搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统。将知识文件放入其中,并接入上面的大模型作为分析知识库的大脑,最后回答问题。如果不想接到微信,搭建到此即可,它也有问答界面。
  3. 搭建 chatgpt-on-wechat(https://github.com/zhayujie/chatgpt-on-wechat)接入微信,并配置 FastGpt 将知识库问答系统接入微信。建议先用小号以防封禁风险。搭建完后想拓展功能,可参考 Yaki.eth 同学的教程[Yaki:GPT /MJ 接入微信](https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),其中的 cow 插件能进行文件总结、MJ 绘画等。

此外,用 Coze 免费打造自己的微信 AI 机器人时:

  1. 确定功能范围,例如支持用户发送“关键字”自助获取分享的“AI 相关资料链接”;能回答 AI 相关知识,优先以“知识库”中的内容回答,不足时调用大模型回复并在答案末尾加上“更多 AI 相关信息,请链接作者:jinxia1859”;能在微信公众号上发布作为微信客服助手。
  2. 为实现上述功能,需要准备的内容有:根据目的和核心能力编写 prompt 提示词;整理“关键字”与“AI 相关资料链接”的对应关系,可用 word、txt、excel 整理;创建知识库用于回答 AI 相关知识;创建工作流控制 AI 按要求处理信息;准备好微信公众号以便发布机器人。
Content generated by AI large model, please carefully verify (powered by aily)

References

DIN:全程白嫖 - 拥有一个AI大模型的微信助手

[title]DIN:全程白嫖-拥有一个AI大模型的微信助手1.搭建[OneAPI](https://github.com/songquanpeng/one-api),这东西是为了汇聚整合多种大模型接口,方便你后面更换使用各种大模型。下面会告诉你怎么去白嫖大模型接口。2.搭建[FastGpt](https://fastgpt.in/),这东西就是个知识库问答系统,你把知识文件放进去,再把上面的大模型接进来,作为分析知识库的大脑,最后回答你问题,这么个系统。如果你不想接到微信去,自己用用,其实到这里搭建完就OK了,他也有问答界面。3.搭建[chatgpt-on-wechat](https://github.com/zhayujie/chatgpt-on-wechat),接入微信,配置FastGpt把知识库问答系统接入到微信。这里建议先用个小号,以防有封禁的风险。搭建完后想拓展Cow的功能,我推荐Yaki.eth同学这篇教程[Yaki:GPT /MJ接入微信](https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),里面的cow插件能进行文件总结、MJ绘画的能力。完成上面3步就算OK了,那我们正式开始。

DIN:全程白嫖 - 拥有一个AI大模型的微信助手

一个能帮你解答任何问题的AI机器人,你可以将其接入到微信或群聊中,为用户提供自动答疑服务。你还可以投喂它特定知识,成为你的客服、专业老师或知识备忘录。无需技术知识,小白也能轻松搭建,全程只需复制粘贴可自定义知识库,满足不同需求支持多场景应用,客服、教育、个人知识管理、等等全程免费,白嫖党福音更新:全流程搭建视频:搭建内容:

「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人

[title]「AI学习三步法:实践」用Coze免费打造自己的微信AI机器人[heading2]📝搭建步骤详解[heading3]3️⃣设计你的AI机器人[heading4]2、确定功能范围1.支持用户发送“关键字”,自助获取我分享的“AI相关资料链接”;2.需要能回答AI相关知识,优先以“我的知识库”中的内容进行回答,如果知识库中信息不足以支持生成回答,则调用AI大模型回复,并在答案末尾加上内容:更多AI相关信息,请链接作者:jinxia1859;3.“AI前线”需要能发布在我的微信公众号上,做为我的“微信客服助手”;以上就是我的“AI前线”Bot的核心能力,要实现以上能力的Bot,我们需要准备的内容如下:1.根据Bot的目的、核心能力,编写prompt提示词;2.整理“关键字”与“AI相关资料链接”的对应关系,用word、txt、excel整理都行;3.创建一个自己的【知识库】,用来回答AI相关知识;4.由于“AI前线”要按照一定的规则来处理知识,需要创建一个【工作流】,来控制AI按照要求处理信息;5.准备好自己的微信公众号,以便将机器人发布在微信公众号上;[heading4]3、设计“AI前线”Bot详细步骤[heading5]1)先展示下“AI前线”Bot的【最终效果】界面如下:

Others are asking
AI共学内容路径
以下是为您整理的 AI 共学内容路径: 1. “城市狂想”文旅短视频创意大赛相关共学课程: 9 月 5 日:AI 文旅视频赏析,分享老师十三,第一课回放: 9 月 6 日:AI 文旅视频入门,分享老师 WaytoAG 小田,共学文档: 9 月 7 日:AI 文旅视频入门,分享老师 WaytoAG 小田,第三课回放: 9 月 8 日:AI 文旅视频赏析,分享老师白马少年,第四课回放: 9 月 10 日:AI 文旅视频进阶玩法,分享老师 Tonix,第五课回放: 2. 「AI 编程共学」相关课程: 10 月 28 日 20:00 开始,分享人麦橘,回放链接: 10 月 29 日 20:00 开始,分享人梦飞,回放链接: 10 月 30 日 20:00 开始,分享人银海,回放链接: 10 月 31 日 20:00 开始,分享人南墙,回放链接: 3. 通往 AGI 之路知识库使用指南: 提到共学课程可供学习 config UI,从入门到精通都涵盖,还有个人专栏研究报告、产品数据、全球投融资情况等内容。 介绍了 AI 的案例和投稿,包含开发相关、微信机器人、人物角色等内容,位于 AI 产品案例板块 3.1。还提到了日报动态、法律法规、历史更新和社区介绍等。 重点介绍社区共创项目,包括 CONFIUI 生态大会东京站:11 月 16 17 日活动内容及报名等。
2025-02-15
全部懂AI的人怎么学AI?
以下是关于如何学习 AI 的一些建议: 1. 对于纯 AI 小白,可以参考《雪梅 May 的 AI 学习日记》。学习模式是输入→模仿→自发创造。学习时不必直接复用日记中的学习内容,可去 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新内容。学习时间较为灵活,有空时进行即可。保持良好的学习状态有助于学习,不必因觉得难以做到而有心理压力。学习资源免费开源。 2. 与“AI+教育”行业前辈交流得出:学习通常具有功利导向,才有强烈付费意愿。“突破性新技术+垂直行业知识”组合能为学习者带来更高投入产出比。在 AI 领域,让 AI 工程师懂行业,让行业专家懂 AI,投入产出比很高,但要找到高价值应用场景。现阶段“AI 口嗨者众,AI 实干家寡”的主要原因是缺乏足够正反馈的高价值应用场景。 3. 周鸿祎认为,学习 AI 要先建立 AI 的信仰,使用 AI 产品建立基本了解。对于小公司,不建议碰基础设施,可考虑为当地企业做 AI 训练,提供算力支持,但需要服务团队,包括整理知识、寻找业务场景、做垂直训练、微调及业务融合,还应找合作伙伴。
2025-02-15
AI Agent 或者 工作流, 落地的场景
以下是 AI Agent 或工作流的一些落地场景: Long horizon task 长期任务执行:Agent 能像称职的项目经理,分解大任务为小步骤,保持目标导向并适时调整策略。 多模态理解:Agent 能同时理解文字、图像、声音等多种交流方式,全方位感知世界和任务上下文。 记忆与行动:通过先进的记忆机制,Agent 能积累经验,记住对话、操作步骤和效果,行动更精准高效。 自适应学习:从每次交互中吸取经验,不断完善策略,实现“智慧成长”。 在技术层面,有两条技术路线:以自主决策为核心的 LLM 控制流和以工作流(Workflow)编排为重点的工具集成系统。Anthropic 提出的 MCP(Model Context Protocol)提供了通用接口协议,将外部资源抽象为“上下文提供者”,便于模型与外部世界交互。 工作流驱动的 Agent 搭建,简单情况分为 3 个步骤:规划,包括制定任务关键方法、总结目标与执行形式、分解子任务等;实施,在 Coze 上搭建框架并分步构建和测试功能;完善,全面评估并优化效果。 典型例子如利用 Kimi Chat 进行网页搜索和总结分析。 包括 Agent 自行规划任务执行的工作流路径,适用于简单或线性流程。 多 Agent 协作,如吴恩达通过开源项目 ChatDev 举例,让大语言模型扮演不同角色共同开发应用或复杂程序。 OpenAI 研究主管 Lilian Weng 提出 Agent 的基础架构为“Agent=LLM+规划+记忆+工具使用”,规划包括子目标分解、反思与改进。
2025-02-15
全不懂AI的人怎么学习AI?
对于完全不懂 AI 的人,以下是一些学习 AI 的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,还可以参考《雪梅 May 的 AI 学习日记》挑战 100 天和 AI 做朋友: 1. 适合纯 AI 小白:可先看左边的目录,从一开始的到处看看到走在学习 AI 的轨道上。 2. 学习模式:输入→模仿→自发创造。 3. 学习内容:去 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新的内容。 4. 时间安排:在半年多的时间跨度中,有空的时候学习。 5. 学习状态:保持良好的学习状态,能学多少算多少。 6. 费用:学习资源的内容都是免费开源的。 对于中学生学习 AI 的建议: 1. 从编程语言入手学习: 从 Python、JavaScript 等编程语言开始,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台: 使用 ChatGPT、Midjourney 等 AI 生成工具,体验应用场景。 探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解基本概念、发展历程、主要技术如机器学习、深度学习等。 学习在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注权威媒体和学者,了解最新进展。 思考对未来社会的影响,培养思考和判断能力。
2025-02-15
你认为最好用的AI工具有哪些
以下是一些被认为好用的 AI 工具: 聊天工具:ChatGPT ,在 2022 年 9 月至 2023 年 8 月期间拥有 146 亿次访问量,在美国使用率最高,其次是印度和巴西,多数受众通过移动设备访问,男性用户占比较高。 聊天工具:Character AI 。 写作辅助工具:QuillBot 。 绘画工具:Midjourney 。 开源社区:Hugging Face 。 聊天工具:Google Bard 。 写作工具:NovelAI 。 视频工具:CapCut 。 未知类型工具:JanitorAI 。 模型分享平台:Civitai 。 需要注意的是,虽然底层都是大模型,但 AI 工具各有侧重,不同公司也会进行各自的优化。关于每一种工具的详细入门、讲解和应用,WayToAIG 已经分好了类目。此外,为了让普通人更直观地马上上手,还可以选择聊天工具、绘画工具、视频工具、音乐工具等进行体验。
2025-02-15
推荐一个我给视频,然后ai总结内容的ai工具
以下为您推荐一些可以对视频进行 AI 总结内容的工具: 1. GPT:可以总结不超过 2 万字的文章。对于 B 站视频,如果有字幕,可通过安装油猴脚本下载字幕,然后复制发送给 GPT 进行总结。总结完还可继续提问或探讨。 2. BibiGPT:https://bibigpt.co/ ,支持小红书、B 站等网站视频的归纳总结,还可以提问互动,答案会附上对应的视频节点。 3. Kimi Copilot:https://chrom ,安装后,在浏览网络文章时点击插件图标,或使用快捷键 Ctrl/Cmd+Shift+K,即可一键召唤 Kimi.ai 总结网页内容,总结详细且免费。 4. Strut:https://strut.so/ ,是一款支持人工智能的协作工作区,将笔记、文档和写作项目整合在一起。 希望这些工具能够满足您的需求。
2025-02-15
知识库里面哪里有讲解AI在各行业应用现状的材料
以下是知识库中关于 AI 在各行业应用现状的相关材料: 在音乐创作方面,通过输入更高级的词汇与 AI 音乐对话能产生更好效果,有 AI 音乐的版块、挑战、分享会和教程,可通过王贝加入 AI 音乐社区。 在数字人语音合成方面,介绍了声音克隆技术,提到了微软、阿里等的相关成果,常用的是 JPT service。 在 config UI 的应用方面,能降低成本、提高效率,在图书出版、引流等方面有应用,岗位稀缺,社区有相关共学课程。 在零售电商行业,有《2024 生成式 AI 赋能零售电商行业解决方案白皮书》。 在招聘领域,牛客的《AI 面试实践手册(2024)》深入探讨了 AI 面试的应用现状、价值和未来发展,指出其在多个行业尤其在管培生、产品、IT 基础岗位和蓝领岗位中广泛应用。 在 PC 行业,腾讯广告 TMI 与 GfK 联合发布了《AI PC 行业趋势与潜力消费者洞察白皮书(2024 版)》。 在医疗领域,蛋壳研究院发布了《医疗人工智能走到新的十字路口》。 在新闻媒体领域,新华社研究院发布了《人工智能时代新闻媒体的责任与使命》。 在情感陪伴方面,头豹研究院发布了《AI 情感陪伴:缔造温情链接,拥抱智慧关怀新纪元》。
2025-02-15
怎么创建自己的知识库
以下是创建自己知识库的步骤: 1. 来到个人空间,找到知识库导航栏,点击创建知识库。需要注意的是,知识库是共享资源,您的多个 Bot 可以引用同一个知识库。 2. 选择知识库的格式并填写一些信息。目前(2024.06.08)支持三种格式:文档、表格(CSV、Excel 等)、图片(上传一张图片并填写图片文字说明)。格式并不重要,重要的是要了解影响 RAG 输出质量的因素。 3. 以本地文档为例(问答对可以选择表格),选择自定义的文档切割。 4. 完成数据处理。处理完成后,一个问答对会被切割成一个文档片。 关于使用知识库,您可以参考这篇教程: 。 创建知识库的小技巧:知识库好不好用,跟内容切分粒度有很大关系,我们可以在内容中加上一些特殊分割符,比如“”,以便于自动切分数据。分段标识符号要选择“自定义”,内容填“”。最终的知识库结果中,同一颜色代表同一个数据段,如果内容有误需要编辑,可以点击具体内容,鼠标右键会看到“编辑”和“删除”按钮,可以进行编辑或删除。
2025-02-15
怎么快速做一个知识库
以下是快速创建知识库的方法: 1. 在 Coze 中创建知识库: 来到个人空间,找到知识库导航栏,点击创建知识库。 选择知识库的格式,目前(2024.06.08)Coze 支持文档、表格(CSV、Excel 等)、图片三种格式。 选择本地文档或问答对选择表格等方式。 选择自定义的文档切割。 数据处理完成后,一个问答对会被切割成一个文档片。 关于使用知识库,可参考教程:。 2. 通过其他方式创建并上传表格数据: API 方式:获取在线 API 的 JSON 数据,将 JSON 数据上传至知识库。在表格格式页签下,选择 API,然后按照以下步骤操作:单击下一步、新增 API、输入网址 URL 并选择数据的更新频率、输入单元名称或使用自动添加的名称、配置数据表信息(包括确认表结构、指定语义匹配字段等)、查看表结构和数据,确认无误后单击下一步、完成上传后单击确定。 自定义方式:手动创建数据表结构和数据。在表格格式页面下,选择自定义,然后按照以下步骤操作:单击下一步、输入单元名称、在表结构区域添加字段、设置列名,并选择指定列字段作为搜索匹配的语义字段、单击确定、单击创建分段,然后在弹出的页面输入字段值,然后单击保存。 3. 在 FastGPT+OneAPI+COW 中创建知识库: 地址输入浏览器:http://这里替换为你宝塔左上角的那一串:3000/ 进入后,点击应用并创建,选择 qwen 模型。 创建知识库。点击知识库 选择 qwen Embedding 1 点击确认创建。 上传文件,等待处理,直到文本状态是“已就绪”。 回到刚刚创建的应用,关联上创建的知识库。 点击两个发布。之前第一个叫做保存。 点击新建,创建 key。创建后保存同时将 API 根地址最后加上/v1 也保存下来。 回到宝塔,打开【终端】,依次输入以下命令: cd/root git clone https://github.com/zhayujie/chatgptonwechat cd chatgptonwechat/ pip install r requirements.txt pip install r requirementsoptional.txt
2025-02-15
coze和dify哪个对知识库的支持更好,检索和总结能力更强
Coze 对知识库的支持具有以下特点: 支持上传和存储外部知识内容,包括从多种数据源如本地文档、在线数据、Notion、飞书文档等渠道上传文本和表格数据。 提供多样化的检索能力,可通过多种方式对存储的内容片段进行高效检索。 具有增强检索功能,能显著提升大模型回复的准确性。 但也存在一些缺点,如跨分片总结和推理能力弱、文档有序性被打破、表格解析失败、对 PDF 的解析效果不佳等。 目前没有关于 Dify 对知识库支持情况的相关内容,无法直接将 Coze 和 Dify 进行对比。
2025-02-15
怎么建立自己的知识库
要建立自己的知识库,可以参考以下两种方法: 方法一:用 GPT 打造个人知识库 1. 理解 embeddings: Embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性。小距离表示高关联度,大距离表示低关联度。 向量是数学中表示大小和方向的一个量,通常用一串数字表示。在计算机科学和数据科学中,向量通常用列表(list)来表示。 向量之间的距离是一种度量两个向量相似性的方法,最常见的是欧几里得距离。 2. 使用 embeddings: 将大文本拆分成若干个小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量。 在一个地方(向量储存库)中保存这些 embeddings 向量和文本块,作为问答的知识库。 当用户提出一个问题时,该问题先通过 embeddings API 转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的 prompt(问题/提示词),发送给 GPT API。 方法二:用 Coze 免费打造自己的微信 AI 机器人 1. 设计你的 AI 机器人: 确定功能范围。 编写【prompt】提示词,设定 Bot 的身份和目标。 2. 创建知识库: 整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。 创建知识库路径:个人空间 知识库 创建知识库。 知识库文档类型支持:本地文档、在线数据、飞书文档、Notion 等,本次使用【本地文档】。 按照操作指引上传文档、分段设置、确认数据处理。 小技巧:知识库好不好用,跟内容切分粒度有很大关系,可以在内容中加上一些特殊分割符,比如“”,以便于自动切分数据。分段标识符号要选择“自定义”,内容填“”。最终的知识库结果中,同一颜色代表同一个数据段,如果内容有误需要编辑,可以点击具体内容,鼠标右键会看到“编辑”和“删除”按钮,可以编辑或删除。
2025-02-14
知识库中是否有搭建在线RAG知识库的相关内容?
知识库中有搭建在线 RAG 知识库的相关内容。 RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型提供额外的、来自外部知识源的信息。 自顶向下,RAG 的流程分为离线数据处理和在线检索两个过程。离线数据处理的目的是构建知识库,知识按某种格式及排列方式存储在其中等待使用。在线检索是利用知识库和大模型进行查询的过程。 对于 RAG 来讲,检索的质量直接影响生成的结果,常见的检索方法有关键词检索和语义检索。关键词检索是最传统和基础的方法,基于查询词与文档中词语的精确或近似匹配,实现简单但难以处理同义词和上下文语义。语义检索将查询和文档映射到同一语义空间,通过计算向量相似度判断相关性,能捕捉深层语义但计算成本较高。 在构建知识库的流程中,在线检索各个流程的“是什么”与“为什么”同等重要。例如在检索环节,选择合适的检索方法或组合对系统性能至关重要。 大模型存在无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高等缺点,而 RAG 具有数据库存储和更新稳定、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。
2025-02-14
企业微信客服号能对接dify知识库,实现智能客服功能吗?
企业微信客服号能对接 Dify 知识库实现智能客服功能。以下是相关步骤: 1. 在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 2. 下载 Dify on WeChat 项目并安装依赖。 3. 在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 4. 把基础编排聊天助手接入微信,可选择源码部署或 Docker 部署,进行快速启动测试,扫码登录并对话测试。 5. 把工作流编排聊天助手接入微信,创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 6. 把 Agent 应用接入微信,创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。 更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat 另外,通过云服务器、Dify、智能微秘书免费搭建微信机器人的部署 Dify 步骤如下: https://docs.dify.ai/v/zhhans/gettingstarted/installselfhosted/dockercompose ,这些命令在宝塔面板的终端安装。 零成本、零代码搭建一个智能微信客服的步骤如下: 1. 访问微信客服 https://kf.weixin.qq.com/,点击开通。 2. 勾选同意,点击下一步。 3. 按步骤填写,勾选同意,注册企业微信。 4. 点击配置>到微信客服的企业信息,复制企业 ID>到 coze 页面进行粘贴填写企业 ID,并点击下一步。 5. 到微信客服的开发配置,找到到回调配置,复制 Token、EncodingAESKey(如果还是空的,点击“随机获取”即可),到 coze 页面进行粘贴,点击下一步。 6. 到微信客服的开发配置,配置回调地址 URL、复制 Secret 到 coze 的页面粘贴。 7. 到微信客服的客服账号,创建一个客服账号,复制客服账号名称,到 coze 的页面粘贴,点击保存。 第一次设置回调地址时,注意目前需要企业认证,才可以进行接入微信客服。如果企业没有进行认证,则会在配置回调 URL 时报错:回调域名校验失败。另外,之前未进行企业认证就发布过微信客服的不受影响。第一次设置成功后,后面再修改是特定页面。保存后,在 coze 发布页面的发布平台的微信客服这里,显示“已配置”,剩下的就是勾选,点击发布。
2025-02-05
dify知识库能接入企业微信客服 了吗?
Dify 可以接入企业微信,以下是接入的步骤: 1. 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 2. 下载 Dify on WeChat 项目:下载并安装依赖。 3. 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 4. 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 5. 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 6. 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。 更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat
2025-02-05
智能客服
以下是关于智能客服的相关信息: GPT 智能客服: GPTs 是 GPT 的一种 ID 账号形态,类似微信公众号,用户可开发自己垂类应用。其开放门槛低,基本是 0 代码,开发方式包括自然语言(prompt)、知识库(knowledge)、第三方 API 对接(Action)。GPTs 实现了目前最强的智能客服,具有对话流畅、多观点融合、答案准确等特点,但不太擅长推理计算。实现原理是将 FAQ 上传到知识库,让 GPTs 具有客服应答能力。猜测类似检索增强生成技术(RAG),将知识库(knowledge)和问题(prompt)一起做 embedding,扔给 LLM 作答。 源地址: 零成本、零代码搭建智能微信客服: 平台选择扣子(官网地址:https://www.coze.cn)。扣子是新一代一站式 AI Bot 开发平台,无论是否有编程基础,都可以在扣子平台上快速搭建基于 AI 模型的各类问答 Bot,从解决简单的问答到处理复杂逻辑的对话,还可以将搭建的 Bot 发布到各类社交平台和通讯软件上,让更多用户与搭建的 Bot 聊天。
2025-02-03
我想通过dify调整一个客服系统,但是总是不能很好的把知识库里的数据回复完整?
使用 Dify 构建知识库的具体步骤如下: 1. 准备数据: 收集需要纳入知识库的文本数据,包括文档、表格等格式。 对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集: 在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。 为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式: Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。 根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用: 将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。 在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化: 收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。 定期更新知识库,增加新的内容以保持知识库的时效性。 总的来说,Dify 提供了一个可视化的知识库管理工具,使得构建和维护知识库变得相对简单。关键步骤包括数据准备、数据集创建、索引配置,以及将知识库集成到应用中并持续优化。需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-01-29
客服机器人
以下是关于客服机器人的相关信息: Token 在客户服务机器人中的应用:一家大型电信公司部署了基于 Token 化的客户服务机器人来处理用户查询,如账单问题、服务中断等。机器人通过分析用户已 Token 化的问题,快速提供正确答案或将问题转给适当的服务部门。 共学快闪第三期微信机器人相关: 可以在平台创建自己的 bot,并互相交流和沟通。新客户可以使用 COS 作为 API 来搭建。 举办了 cost 活动,包括图文赛道和创意赛道,参与者可以将自己的作品投稿参赛,还有奖金。 提出了 helpfulness、拟人性、语言流畅度和优雅性、OC 等评估指标,并讨论了如何通过机评和人评混合的方式进行评估。同时,也提到了一些相对主观的指标,如后验的对话轮速、对话轮次、用户的使用留存和频率等。 提供了一个问题汇总文档,记录了 119 条常见问题和解决方案。 微信机器人的搭建过程是一步一步的,可能会遇到一些卡点,最早的时候会有通信下老金、奥服等在群里面帮大家去做回复。 机器人可以实现一些小的商业化目的,比如搭建客服机器人、进行群管理等。 微信机器人的课程是全免费的,梦飞带大家完成的课程已经放在了知识库,大家可以扫码直达知识库进行学习。 prompt 属于商业机密,无法分享。赵悦给大家普及了一个知识,大模型的回复速度与输出的字符数据相关,只要输出字符数比较偏短,大模型的速度会很快。 开发航空客服 AI:聊天机器人工作得很好,可通过 LangSmith 跟踪来检查它的最新运行情况。但设计存在潜在问题,对单个提示施加了很大压力。在下一节中将展示如何通过根据用户的意图将用户引导至专业代理或子图,来更精确地控制不同的用户体验。
2025-01-27
客服系统,需要写一段提示词给大模型,需求是,先跟用户表示歉意,产品问题请咨询我另外一个同事,点击同事名称即可咨询,每次回复的内容不能一样
以下是为您生成的客服系统相关的大模型提示词示例,每次回复内容不同: 1. 非常抱歉给您带来了不便,关于产品问题,您可以咨询我的同事,点击即可进行咨询。 2. 很抱歉让您遇到了困扰,产品方面的疑问请找我的同事咨询,点击就能联系到。 3. 实在不好意思呀,产品的问题您向我的同事咨询会更清楚,点击即可开启咨询。 4. 深感抱歉,对于产品的情况,建议您咨询我的同事,点击就能和他交流。 5. 抱歉给您造成了不好的体验,产品相关问题请咨询我的同事,点击就能获取帮助。
2025-01-26
coze工作流搭建
以下是在 Coze 上搭建工作流的步骤: 1. 进入 Coze,点击「个人空间工作流创建工作流」,打开创建工作流的弹窗。 2. 根据弹窗要求,自定义工作流信息,点击确认完成工作流的新建。 3. 新建后可看到编辑视图与功能,左侧「选择节点」模块中,根据子任务需要实际用到的有: 插件:提供一系列能力工具,拓展 Agent 的能力边界。如本案例中涉及的思维导图、英文音频,因无法通过 LLM 生成,需依赖插件实现。 大模型:调用 LLM,实现各项文本内容的生成。如本案例中的中文翻译、英文大纲、单词注释等。 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。 4. 编辑面板中的开始节点、结束节点,分别对应分解子任务流程图中的原文输入和结果输出环节。 5. 按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。 此外,在一些具体的案例中,如“随机召唤”工作流 Random_Card_Pet_pro 中: 随机生成属性和宠物描述时,因星级属性需要稳定输出,选择代码节点实现。对于不会写代码的小伙伴,可使用内置的“尝试 AI”功能,但需注意尽量选择 python 代码编写,书写前先确定好要输出的变量,给 AI 写需求时要加上“实现”二字。 生成宠物形象使用 coze 自带的文生图工具 text2image 插件。 宠物形象描述文字生成使用图片理解插件 imgUnderstand。 生成宠物的名字使用大模型节点,借鉴特定逻辑命名。 生成宠物小传/技能/使命时,调用前面节点的相关数据,并按照特定提示词和格式进行操作。 整理输出时,引用前面节点的多个数据,并按照规定的回答格式进行。
2025-02-15
如何在coze已经建好的智能体上搭建一个用户登陆的模块,让用户在使用前输入姓名,序号
要在已建好的 Coze 智能体上搭建用户登陆模块,让用户在使用前输入姓名和序号,您可以参考以下步骤: 1. 服务器设置: 购买云服务器,推荐使用腾讯云服务器。新用户专享 28 元/年一台云服务器,若售罄可购买 82 元/年的,并选择宝塔 Linux 面板 8.1.0 腾讯云专享。 云服务器设置密码,选择暂不需要教学场景,通过远程登录的密码/密钥登录的重置密码来初始化密码,并妥善保存。 获取宝塔 Linux 地址,点击控制面板中的应用信息的管理应用,有两种获取方法。 设置宝塔的密码,登录宝塔 Linux 面板,输入相关操作并保存用户名和密码。 2. 变现模板配置: 超级管理员和普通用户的定义:超级管理员拥有管理整个系统的最高权限,普通用户没有项目配置权限和进入管理后台页的权限。 成为超级管理员:点击【成为超级管理员】按钮,进入用户注册登录页面,完成注册后获得超级管理员账户。 选择智能体配置模式,包括 Zion 默认智能体模式和您的 Coze 智能体模式。 3. API 接入微信群 Bot: 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 在“Docker”中的“项目模板”中添加,将编译好的内容复制进来,创建容器并确定。 查看运行服务,扫码接入微信,手动刷新日志,若看到 WeChat login success 则接入成功。
2025-02-14
怎样搭建本地ai知识库
搭建本地 AI 知识库的步骤如下: 1. 了解硬件要求:运行大模型需要较高的机器配置,例如生成文字大模型,最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型);生成图片大模型(比如跑 SD),最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM;生成音频大模型,最低配置为 8G VRAM 等。 2. 了解 RAG 技术:利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。RAG 技术包括文档加载、文本分割、存储、检索和输出等 5 个过程。其中,文档加载可从多种不同来源加载文档,文本分割将文档切分为指定大小的块,存储涉及将切分好的文档块进行嵌入转换成向量形式并存储到向量数据库,检索通过某种检索算法找到与输入问题相似的嵌入片,最后把问题以及检索出来的嵌入片一起提交给 LLM 生成答案。 3. 安装和配置 AnythingLLM:安装地址为 https://useanything.com/download 。安装完成后进入配置页面,主要分为三步,即选择大模型、选择文本嵌入模型、选择向量数据库。 4. 构建本地知识库:在 AnythingLLM 中创建自己独有的 Workspace 跟其他的项目数据进行隔离。首先创建一个工作空间,然后上传文档并且在工作空间中进行文本嵌入,选择对话模式(包括 Chat 模式和 Query 模式),最后测试对话。 需要注意的是,虽然本地可以搭建知识库,但不一定能跑起来。如果想要更顺滑的体验知识库,可以参考文章 。
2025-02-13
搭建个人知识库的具体操作是什么?
搭建个人知识库的具体操作如下: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,通过检索增强生成 RAG 实现。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载可从多种来源加载不同类型的文档。 文本分割器把文档切分为指定大小的块。 存储涉及将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 通过检索算法找到与输入问题相似的嵌入片。 把问题以及检索出来的嵌入片一起提交给 LLM 生成答案。 2. 本地知识库进阶: 若要更灵活掌控知识库,需使用 AnythingLLM 软件,其包含 Open WebUI 的所有能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 操作包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案)、测试对话。 3. 使用 embeddings: 将文本转换成向量能节省空间,可理解为索引。 把大文本拆分成小文本块,通过 embeddings API 转换成向量,在向量储存库保存向量和文本块作为知识库。 用户提问时,问题先转成向量,与储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API 。 例如,对于“此文作者是谁?”的问题,通过比较向量可找到关联度高的文本块。
2025-02-13
如何搭建自己的知识库
搭建自己的知识库可以参考以下步骤: 1. 了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过检索增强生成 RAG 实现。 RAG 应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种来源加载文档,LangChain 提供 100 多种文档加载器,包括非结构化、结构化和代码等数据。 文本分割:把文档切分为指定大小的块。 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:把问题及检索出来的嵌入片提交给 LLM 生成答案。 2. 基于 GPT API 搭建: 涉及给 GPT 输入定制化知识,但 GPT3.5 一次交互支持的 Token 有限。 OpenAI 提供了 embedding API 解决方案,embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度。 3. 本地知识库进阶: 若想更灵活掌控知识库,可使用额外软件 AnythingLLM,它包含 Open WebUI 的能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。 安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。 在 AnythingLLM 中创建 Workspace 构建本地知识库,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式综合给出答案,Query 模式仅依靠文档数据给出答案)、测试对话。 总之,“看十遍不如实操一遍,实操十遍不如分享一遍”,希望您能成功搭建自己的知识库。如果对 AI Agent 技术感兴趣,可以联系相关人员或加入免费知识星球(备注 AGI 知识库)。
2025-02-12