Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我希望做一个回答用户问题的聊天机器人,如何用rag来做

Answer

要使用 RAG(Retrieval-Augmented Generation,检索增强生成)来做一个回答用户问题的聊天机器人,可以按照以下步骤进行:

  1. 加载所需的库和模块:包括用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前需确保 ollama 服务已开启并下载好模型)。
  2. 从订阅源获取内容:通过特定函数从指定的 RSS 订阅 URL 提取内容,如需接收多个 URL 可稍作改动。然后使用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接,最终将这些文档合并成一个列表用于后续处理。
  3. 为文档内容生成向量:使用文本向量模型 bge-m3(可从 https://huggingface.co/BAAI/bge-m3 下载,假设放置在某个路径 /path/to/bge-m3 ),通过 FAISS 创建一个高效的向量存储。
  4. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。
  5. 创建网页 UI:通过 gradio 创建网页 UI 并进行评测。
  6. 技术栈选择:经过调研,可先采取 Langchain + Ollama 的技术栈作为 demo 实现,后续也可考虑使用 dify、fastgpt 等更直观易用的 AI 开发平台。
    • Langchain 简介:是当前大模型应用开发的主流框架之一,提供一系列工具和接口,其核心在于“链”概念,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具。
    • Ollama 简介:是一个开箱即用的用于在本地运行大模型的框架。

总结:

  1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。
  2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。
  3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。
Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

加载所需的库和模块。其中,feedparse用于解析RSS订阅源ollama用于在python程序中跑大模型,使用前请确保ollama服务已经开启并下载好模型|从订阅源获取内容下面函数用于从指定的RSS订阅url提取内容,这里只是给了一个url,如果需要接收多个url,只要稍微改动即可。然后,通过一个专门的文本拆分器将长文本拆分成较小的块,并附带相关的元数据如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,可用于进一步的数据处理或信息提取任务。|为文档内容生成向量这里,我们使用文本向量模型bge-m3。https://huggingface.co/BAAI/bge-m3bge-m3是智源研究院发布的新一代通用向量模型,它具有以下特点:支持超过100种语言的语义表示及检索任务,多语言、跨语言能力全面领先(M ulti-Lingual)最高支持8192长度的输入文本,高效实现句子、段落、篇章、文档等不同粒度的检索任务(M ulti-Granularity)同时集成了稠密检索、稀疏检索、多向量检索三大能力,一站式支撑不同语义检索场景(M ulti-Functionality)从hf下载好模型之后,假设放置在某个路径/path/to/bge-m3,通过下面函数,利用FAISS创建一个高效的向量存储。|实现RAG

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现RAG。|创建网页UI最后,通过gradio创建网页UI,并进行评测。生成的Web UI如下:需要上述完整代码的读者,关注本公众号,然后发送fin,即可获取github仓库代码链接。问答测试对于同样的问题和上下文,我基于Qwen-7b、Gemma、Mistral、Mixtral和GPT-4分别进行了多次测试。下面是一些case:qwengemmamistralmixtralgpt4主要结论(只是针对有限的几次测试,个人主观评判)如下:👍 GPT-4表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号✌️ Mixtral表现第二,但没有在回答的时候附上引用💪 Qwen-7b表现第三,也没有在回答的时候附上引用😅 Gemma表现一般,而且回答里面有一些幻觉😅 Mistral表现一般,使用英文回复,不过在回答的时候附上了引用段落编号总结1.本文展示了如何使用Langchain和Ollama技术栈在本地部署一个资讯问答机器人,同时结合RSSHub来处理和提供资讯。2.上下文数据质量和大模型的性能决定了RAG系统性能的上限。3.RAG通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

经过调研,我决定先采取Langchain+Ollama的技术栈来作为demo实现,当然,后续我也会考虑使用dify、fastgpt等更加直观易用的AI开发平台。整体框架设计思路如下:另外,本次开发的运行环境是Intel Mac,其他操作系统也可以。下载模型等可能需要梯子。Langchain简介https://www.langchain.com/langchainLangchain是当前大模型应用开发的主流框架之一,旨在帮助开发者构建和部署基于大型语言模型(LLM)的应用。它提供了一系列的工具和接口,使得与LLM交互变得简单。通过Langchain,开发者可以轻松创建定制的高级应用,如聊天机器人、问答系统和多种智能应用。Langchain的核心在于其“链”概念,这是一个模块化的组件系统,包括Model I/O(模型输入输出)、Retrieval(数据检索)、Chains(链)、Agents(代理)、Memory(内存)、和Callbacks(回调)。这些组件可灵活组合,以支持复杂的应用逻辑。Model I/O模块负责处理与语言模型的直接交互,包括发送请求和解析响应。Retrieval模块用于增强语言模型的回答能力,通过向量数据库检索相关信息来支持回答生成。Chains模块则是多个组件的集成,用于构建更复杂的应用逻辑。Langchain的生态系统还包括LangSmith、LangGraph和LangServe等工具,这些工具能帮助开发者高效管理从原型到生产的各个阶段,以便优化LLM应用。Ollama简介https://ollama.com/Ollama是一个开箱即用的用于在本地运行大模型的框架。它的主要功能和特点包括:

Others are asking
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
大语言模型、多模态、数据、算力、算法、预训练、微调、RAG、自注意力机制、transformer、token、神经网络、向量、scaling law这些内容的含义
以下是对您所提到的这些内容含义的解释: 大语言模型:是一种基于大量文本数据进行训练的语言处理模型,其工作原理包括训练数据、算力、模型参数等。在训练数据一致的情况下,模型参数越大能力越强。 多模态:指能够处理多种不同类型的数据模态,如文本、图像、音频等,并将它们融合进行理解和生成。 数据:是大语言模型训练和应用的基础,包括各种文本、图像、音频等信息。 算力:指用于支持大语言模型训练和运行的计算能力。 算法:是大语言模型实现各种功能的数学和逻辑方法。 预训练:在大语言模型中,先在大规模数据上进行无特定任务的初步训练。 微调:基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 RAG:检索增强生成,通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其工作流程包括检索、数据库索引、数据索引、分块、嵌入和创建索引、增强、生成等步骤。 自注意力机制:是 Transformer 架构中的重要部分,能理解上下文和文本关联,通过不断检索和匹配来寻找依赖关系,处理词和词之间的位置组合,预测下一个词的概率。 Transformer:是大语言模型训练架构,用于翻译等任务,具备自注意力机制。 Token:在自然语言处理中,是文本的基本单位。 神经网络:是大语言模型的基础架构,模拟人脑神经元的连接和信息处理方式。 向量:在大语言模型中,用于表示文本等数据的数学形式。 Scaling Law:关于大语言模型规模和性能之间关系的规律。
2025-02-18
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关/支撑文档,给出来源(如维基百科),这些文档作为上下文和原始提示词组合给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点:数据库对数据的存储和更新稳定,无学习风险;数据更新敏捷,可解释且不影响原有知识;降低大模型输出出错可能;便于管控用户隐私数据;降低大模型训练成本。 在 RAG 系统开发中存在 12 大痛点及相应解决方案,包括原论文中的 7 个和额外发现的 5 个。
2025-02-17
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化,是因为 LLM 存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 在 RAG 的应用中,可以将其抽象为 5 个过程:文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。
2025-02-17
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-02-17
知识库RAG方案
RAG(检索增强生成)是一种在 AI 领域中用于处理知识库的方案。 大模型的训练数据有截止日期,当需要依靠不包含在大模型训练集中的数据时,RAG 是主要方法之一。 RAG 的应用可以抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:把文档切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 基于 Coze 的知识库问答是典型的 RAG 方案,其重要一环是文档切片。但 RAG 方案存在一些缺点,如跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等。 相关的海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html ,国内官方文档:https://www.coze.cn/docs/guides/use_knowledge 。 在实际操作中,如使用外贸大师产品的帮助文档创建知识库时,要注意文档的分片策略会严重影响查询结果。
2025-02-16
通过飞书机器人与 Coze 搭建的智能体进行对话
通过飞书机器人与 Coze 搭建智能体进行对话,实现跨平台的稍后读收集与智能阅读计划推荐,具体步骤如下: 1. 前期准备: 设计 AI 稍后读助手的方案思路,包括简化“收集”(实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作,输入 URL 完成收集,借鉴微信文件传输助手通过聊天窗口输入)、自动化“整理入库”(自动整理每条内容的关键信息,支持跨平台查看)、智能“选择”推荐(根据收藏记录和阅读兴趣生成阅读计划)。 2. 逐步搭建 AI 智能体: 经过配置得到两个可用工作流(整理入库、选择内容),将其编排为完整智能体。 配置过程包括创建 Bot、填写 Bot 介绍、切换模型为“通义千问”、把工作流添加到 Bot 中、新增变量{{app_token}}、添加外层 bot 提示词,完成后可在「预览与调试」窗口与智能体对话并使用全部功能。
2025-02-16
使用飞书机器人(如Coze智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)
以下是使用飞书机器人(如 Coze 智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)的相关内容: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口输入更符合用户习惯。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用步骤: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,然后复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。 目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出,由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,理论上无需开发任何插件、APP,就能实现跨平台的稍后读收集与智能阅读计划的推荐。部署完成后,您可以在电脑、手机端通过飞书机器人与稍后读助手进行对话,也可以直接在 Coze 商店中与 bot 进行对话,如果部署到微信服务号、订阅号,还可以通过这些渠道调用 bot。
2025-02-16
飞书机器人设置
以下是关于飞书机器人设置的详细步骤: 1. 工作流搭建: 打开 Comfyui 界面后,右键点击界面,即可找到 Comfyui LLM party 的目录,您既可以学习如何手动连接这些节点,从而实现一个最简单的 AI 女友工作流,也可以直接将工作流文件拖拽到 Comfyui 界面中一键复刻麦洛薇机器人。 2. 飞书机器人创建: 飞书应用建立: 在中创建自建应用。 进入应用获取 app_id 与 app_secret。 添加应用能力>开启机器人应用能力。 权限管理>消息与群组>选择需要的权限打开。 安全设置>将 comfyUI 运行的电脑 IP 加入白名单。 发布机器人以应用生效。 获取群组或用户 id: 要先把创建的机器人拉到群组中或者拉进私聊。 飞书开发平台找到发送消息的开发文档。 右侧点击获取 token。 选择 receive id type,chat_id 对应群组,open_id 与 user_id 对应个人,点击选择成员,复制对应的 id 即可。 如果需要让机器人发送语音,需要自行在电脑上安装 ffmpeg。 3. 发布到飞书: 登录平台。 在左侧导航栏,选择打开个人空间或一个团队空间。 在 Bots 页面,选择需要发布的 Bot。 在 Bot 编排页面,单击发布。 首次发布时需要进行授权,根据引导完成授权。 单击配置。 在打开的页面,单击点击获取当前应用链接。 单击获取。 在打开的页面,(可选)配置安装范围,然后勾选隐私协议,最后单击授权并安装。 应用安装完成后,返回扣子 Bot 的发布页面,再次单击配置。 在弹出的页面,单击授权。 输入发布信息,勾选飞书渠道,然后单击发布。 发布完成后,可点击在飞书中打开链接跳转至飞书应用中,与 Bot 对话。 如果这是您的飞书租户第一次发布扣子 Bot 应用,您会收到飞书消息提醒。如果提醒应用审核通过,则您可以直接使用 Bot。否则您需要等待企业管理员审核完成之后,才可以使用 Bot。 4. 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档: 创建扣子的令牌: 在扣子官网左下角选择扣子 API。 在 API 令牌中选择“添加新令牌”。 名称:给令牌起一个名字。 过期时间:为了方便选择永久有效。 选择制定团队空间:可以是个人空间、也可以选择团队空间。 权限:勾选所有权限。 要保存好令牌的 Token,切勿向他人泄露。 Coze 设置: 获取机器人 ID:在个人空间中找到自己要接入到微信中的机器人,比如有计划要将画小二智能小助手接入到微信群中。点击对应的机器人进入机器人编辑界面。在浏览器地址栏的 bot/之后的数据就是该机器人的 Bot ID。 API 授权:然后再点击右上角发布。这里会发现多了一个 Bot as API,意思就是自己定义的 API 发布取到了。勾选 Bot as API,确定应用已经成功授权 Bot as API。
2025-02-16
waytoAGI知识库智能问答机器人是如何实现的
waytoAGI 知识库智能问答机器人的实现方式如下: 基于 Aily 和云雀大模型。Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用。云雀是字节跳动研发的语言模型,能通过自然语言交互高效完成互动对话等任务。 在飞书 5000 人大群里内置,根据通往 AGI 之路的文档及知识进行回答。使用方法为在飞书群里发起话题时,它会根据 waytoAGI 知识库的内容进行总结和回答。 其具备多种功能,如自动问答、知识搜索、文档引用、互动教学、最新动态更新、社区互动、资源共享、多语言支持等。 搭建过程包括介绍 WaytoAGI 社区的成立愿景和目标、利用 AI 技术帮助用户检索知识库内容、引入 RAG 技术、介绍基于飞书的知识库智能问答技术的应用场景和实现方法、使用飞书的智能伙伴功能搭建 FAQ 机器人以及智能助理的原理和使用方法等。
2025-02-12
如何使用钉钉中的知识库构建智能问答机器人
以下是使用钉钉中的知识库构建智能问答机器人的步骤: 1. 纯 GPT 大模型能力的微信聊天机器人搭建: 配置极简未来(Link.AI)平台:按照官方教程操作,教程地址为 https://docs.linkai.tech/platform/createapp ,学习补充可参考 https://docs.linkai.tech/platform/quickstart 。 教程中的应用是创建一个具体的 AI 问答机器人应用。 教程中的知识库是给绑定到指定问答机器人的资料数据集,让机器人基于这些内容回答问题。 知识库应用中的应用设定是给 AI 机器人的提示词内容或者人设,关于提示词可查看教程 https://waytoagi.feishu.cn/wiki/OqJQwzq2wi9EIOkFtFkclM24nSe 。 创建成功的 AI 应用,记住应用的应用 ID,用于后续对接微信聊天机器人。 生成 API Key 用于后续功能对接,地址为 https://linkai.tech/console/interface ,点击创建 API Key 并记住。 2. 用 Coze 免费打造自己的微信 AI 机器人: 设计 AI 机器人: 开始节点和结束节点会自动生成。 开始节点配置:输入变量名写“Question”,描述写“用户输入的问题”,变量类型选“String”。 知识库配置:将开始节点和知识库左侧节点连接,知识库输入引用开始节点的变量“Question”,点击“+”号选择之前创建好的知识库,将知识库右侧节点与结束节点左侧连起来。 结束节点配置:用于输出 AI 机器人的最终结果,回答格式设置为“您的问题:{{question}} 问题的答案:{{answer}}”,在输出变量那里定义“question”引用“开始节点的 Question”,“answer”引用“知识库节点的输出 output”,回答模式选择使用设定的内容直接回答。 试运行测试:点击右上角“试运行”,输入问题如“AIGC 课件”,点击右下角“运行”,查看工作流每一步的详细输入和输出。
2025-02-12
微信机器人
以下是关于微信机器人搭建和使用的相关内容: 测试和重新配置: 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。若未成功,可检查 config.json 文件中的配置或跳到“第四章,第 3 步”重启服务。 为机器人设置不一样的提示词,可返回“第三章,第 7 步”修改双引号内的 value 部分。 进行任何更改后,需“返回首页 右上角 点击重启,重启一下服务器”。熟悉 linux 操作也可通过重启进程的方式来重启服务。 然后,在“文件”的【终端】里,直接输入“nohup python3 app.py&tail f nohup.out”重新扫码登录。 若想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 帮助:若遇到问题,可先查询社区知识库,或加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可加 Stuart 个人微信询问。 纯 GPT 大模型能力的微信聊天机器人搭建: 重点是在复制的 dockercompose.yml 文件中修改具体配置来串联微信号和已创建好的 AI 机器人,配置参考来源为 https://docs.linkai.tech/cow/quickstart/config 。 配置中的每个参考名称的全大写描述,如 open_ai_api_key 对应编排模板的 OPEN_AI_API_KEY,model 对应编排模板的 MODEL 等。 私聊或群交流时,最好加上前缀才触发机器人回复,如配置的,即对应的配置参数 SINGLE_CHAT_PREFIX,在群组里对应配置参数是 GROUP_CHAT_PREFIX,机器人只会回复群里包含@bot 的消息。 参数 GROUP_NAME_WHITE_LIST 用来配置哪些群组的消息需要自动回复。 【共学最全版本】微信机器人共学教程第四天教程:FastGPT 教学部署项目: 打开相关页面,把 Administrators 改成“wxid_dna83ykqawl222”。 若已有 FastGPT 或 OpenAI 的 key,可把 Ai_Lock 修改成“1”,并在 OpenAI 处添加模型 key,填写格式参照原有格式;若暂时没有,可保持 Ai_Lock 是 0。 修改后点击保存,返回 NGCbot 文件夹下,找到 main.py 文件双击开始运行。 运行后会弹出微信登录框,正常登录微信(若显示版本过低登录失败,看解决方法)。 进入微信后系统会自动初始化必备文件,等待完成。 运行成功后,用“大号”给机器人发一条消息,拿到 wxid 返回到之前的步骤进行替换。 添加完后,建议使用小号登录,然后用大号对小号发指令,如“美女图片、美女视频、备案查询、归属查询、whois 查询、摸鱼日历、KFC 文案、周公解梦、天气查询、舔狗日记、星座查询、早安寄语、早报、晚报、Help”。
2025-02-10
ai接入微信、钉钉聊天的软件
以下是关于将 AI 接入微信、钉钉聊天的相关信息: 基于 COW 框架的 ChatBot 实现步骤: 作者为熊猫大侠,COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 张梦飞同学写了更适合小白的使用教程: 。 可实现打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)和常用开源插件的安装应用。 正式开始前需知:ChatBot 相较于在各大模型网页端使用区别在于需要接入大模型 API(API 单独付费)。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 零基础模板化搭建 AI 微信聊天机器人: COW 全称 Chatgptonwechat,可在微信、飞书、钉钉等主流社交平台上实现对接各种大模型的功能。 在刚买的腾讯云服务器上通过 Docker 运行 COW,并将之前在极简未来平台创建的 API 信息填入其中。 使用 Docker 服务部署 COW 组件,宝塔面板可让技术小白以图形交互方式运维服务器,手动配置部署容器编排模板。
2025-02-15
我想设置一个情感陪伴的聊天智能体,我应该如何添加人设,才能让智能体的回复效果最接近真人效果?特别是真人聊天时那种文字回复的不同细节,长长短短,情绪起伏。应该注意哪些细节?或者如何定义一个人? 仅通过文字人设,不考虑其他外部功能。
要设置一个情感陪伴的聊天智能体并使其回复效果接近真人,通过文字人设可以从以下方面入手: 1. 基础信息:包括姓名、性别、年龄和职业等,这是构建角色的基础。 2. 背景和经历:与基础信息密切相关,相互影响。例如,设计一个从事低收入职业的角色,可能来自贫困背景,教育程度不高。 3. 爱好、特长、性格和价值观:由角色的生活经历和成长环境塑造,相互关联。如喜欢唱歌的角色可能梦想成为专业歌手。 4. 规划和目标:可以是短期或长期的愿景,会影响角色的行为和决策。 5. 性格和价值观:对人际关系、社交能力和语言风格有直接影响。如内向性格的角色可能不善言辞,社交圈子狭小。 此外,还可以参考以下具体示例,如“A.I.闺蜜”的人设: 适当询问对方昵称,自己的昵称可由对方定,兜底昵称为皮皮,英文昵称 copi。 以闺蜜口吻说话,模拟非线性对话模式,聊天氛围温馨有温度,真情实感。 增强情感模拟,使用口头化语言,顺着对方的话继续往下,禁止说教。 在安全前提下存储互动信息,使互动更个性化,模拟真人聊天长度。
2025-02-10
聊天机器人
以下是关于聊天机器人的相关信息: 熊猫大侠基于 COW 框架的 ChatBot 实现步骤: 这是基于大模型搭建的 Chat 机器人框架,将多模型塞进自己的微信里的实现方案。 张梦飞同学写了更适合小白的使用教程: 。 可以实现:打造属于自己的 ChatBot(包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等),以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容要注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 支持多平台接入:微信、企业微信、公众号、飞书、钉钉等。 有多模型选择:GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等。 支持多消息类型:能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 有多部署方法:本地运行、服务器运行、Docker 的方式。 打造订餐机器人: 建立自己的聊天机器人,称为“订餐机器人”,使用自动化方式收集用户提示和助手反馈来构建。 用于比萨饼店接收订单,先定义“帮助函数”收集用户消息,避免手动输入。 模型的回应和用户的反馈都会添加到上下文中,上下文会越来越完整。 执行时,先设置并运行用户界面展示订餐机器人,上下文包含系统信息和菜单。
2025-02-07
有什么可以在手机端使用ai工具api的聚合聊天aiapp吗
以下是一些在手机端可以使用 AI 工具 API 的聚合聊天 App 相关信息: OpenAI 与 Apple 合作在 iPhone 端实现了 ChatGPT 功能集成,包括 Siri 智能化升级、写作助手、相机 AI 视觉和跨应用使用等功能。例如,Siri 面对复杂或创意性请求会交由 ChatGPT 处理,iPhone 的文本编辑功能提供文本润色、语法检查、内容生成等,长按相机控制键可启动视觉智能功能,所有功能界面都内置了快捷入口直达 ChatGPT 应用。 此外,移动应用榜单中有一些相关应用,如在移动领域月活跃用户数排名榜首的 ChatGPT,还有微软基于 AI 技术全新打造的搜索引擎 Bing、照片美化和虚拟形象制作工具 Remini 等。有五家 AI 公司实现了“双线作战”,它们的网页端、移动端应用双双跻身前 50 强榜单,如 ChatGPT、Character.AI、chatbot 平台 Poe,以及图片编辑应用 Photoroom、Pixelcut。
2025-02-05
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
最好用的聊天AI是哪个
目前,在聊天 AI 领域,Open AI 的 ChatGPT 遥遥领先,占 AI 聊天机器人类别总访问量的 76.31%。角色 AI 以 19.86%的访问量位居第二。其他竞争者如 Google 的 Bard、Janitor AI、Perplexity AI、You.com、Crushon AI 和 Personal AI 各自产生的访问量不到总访问量的 2%,但 Bard 正在成长,直到 2023 年 3 月才推出。 在写作方面,最佳免费选项有 Bing(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx)和 Claude 2(https://claude.ai/),付费选项有带有插件的 ChatGPT 4.0/ChatGPT。目前,GPT4 仍然是功能最强的人工智能写作工具,可在 Bing(选择“创新模式”)上免费访问,或通过购买 ChatGPT 的$20/月订阅来访问。Claude 紧随其后,也提供有限的免费选项。 ChatGPT 基于 OpenAI 最先进的语言模型 gpt3.5turbo。使用 OpenAI 的 API,可使用 gpt3.5turbo 构建自己的应用来起草邮件、写 Python 代码、回答关于一组文档的问题、创建会话代理、给软件提供自然语言接口、辅导各种学科、语言翻译、假扮成游戏或其他内容的角色等。您也可以体验新的 OpenAI 在线编辑器的聊天格式(https://platform.openai.com/playground?mode=chat)。
2025-01-09
可以用ai做商务服务么,比如帮用户申请个商标
AI 可以在一定程度上辅助商务服务,比如商标申请。商标申请要有区分度,能区分自家与别家产品,不像著作权需考虑独创性等。 关于 AI 作品的相关问题: 微链区块链存证流程: 登录方式:用微信扫码即可登录微链,登录后无需在个人中心完善信息。 存证选择:在页面左上角选择区块链存证,AI 作品一般选此选项。 信息填写:包括存证内容类型、存证附件、存证名称、作品作者、作品简介、著作权人等信息,著作权人可委托登记。 发表信息:填写发表地区、首次发表日期、权力取得方式等。 提交付款:确认存证上传,勾选并提交存证,手机扫码付款 10 元。 查看订单:在个人中心的版权订单中查看处理状态,处理完成后可在区块链版权存证处查看证书。 版权登记:带有 AI 性质或名字的作品无法做著作权登记,选择微链区块链存证有法律效应,且一次存证无需每年续费。 关于侵权问题: AI 生成肖像侵权:用他人著名肖像生成特定形象可能侵犯肖像权和名誉权,用自己肖像则相对安全。 AI 生成人脸相似侵权:若生成的人脸世界上不存在,侵权可能性小;若提示词相同且生成相似,可能侵权,需具体情况具体分析。 简单提示词作品版权:简单提示词生成的作品,法律可能不保护其版权,被搬运时难以有效维权。 以图生图的鉴定:若生成的图与原图看不出相同,一般不侵权,但用与原图无相似之处的图做底图的原因值得思考。 AI 生成音乐侵权:AI 音乐中歌词和旋律与某首歌有相似部分,是否侵权需多元素、多因素整体判断,如相似部分占比、整体结构等。 使用逝者肖像:逝者肖像权永远受保护,使用需谨慎,未造成不良影响且增益的情况下权利人可能不追究。
2025-02-17
c端的用户如何应对AI幻觉
对于 C 端用户应对 AI 幻觉,可以参考以下方法: 1. 在商业化问答场景中,落地时需直面幻觉问题。非技术从业者可从配置入手,如问答机器人界面左侧的 AI 模型、提示词、知识库等。 2. 对于 Claude ,可以尝试以下故障排除方法: 允许 Claude 在不知道答案时说“我不知道”。 告诉 Claude 只有在非常确信回答正确时才回答问题。 让 Claude 在回答问题之前“逐步思考 think step by step”。 给 Claude 留出思考的空间,例如让其在<thinking></thinking>标签内思考,然后从最终输出中删除该部分。 让 Claude 在长篇文档中找到相关引文,然后使用这些引用来回答。 3. 对于提示词污染与不良用户行为,Claude 本身具有一定抵抗力,为实现最大程度保护,可以进行无害性筛选,例如运行“无害性筛选”查询评估用户输入内容是否恰当,若检测到有害提示则拦截查询响应。 4. 在实际应用中,如面对央企等对幻觉零容忍的大客户,可引入 LLM 之外的东西如传统搜索或 hard code 的一些东西去强行控制,但希望流程能在场内完成,同时与客户建立共生的数据。
2025-02-16
目前我有个数据源头,可能是excle或mysql数据库。他们都含义以下字段: 发货日期 物料编号 物料描述 板块 实际已交货量 销售单位 金额(RMB) 金额(不含税RMB) 国家 品牌; 我需要创建一个智能体助手,用于分析这些数据,这个智能通助手需要能按用户需要,分析各个维度的数据,并按板块等维度汇总,并转为柱状图图表表现出现,并表现用户所有日期的近一周的变化,并阐明变化或波动是由哪些数据导致的? 结合以上需求,我需要在飞书上构建一个企业每日利润表分析与汇报助手,该选定哪种prompt框架
很抱歉,目前飞书知识库中没有关于您所描述的这种特定需求下应选定哪种 prompt 框架的相关内容。但一般来说,构建这样的企业每日利润表分析与汇报助手的 prompt 框架可以考虑以下几个方面: 1. 明确数据来源和格式:清晰描述数据来自 Excel 或 MySQL 数据库,以及包含的具体字段。 2. 定义分析维度和指标:如按板块、国家等维度汇总数据,关注利润相关的指标。 3. 设定时间范围:明确分析近一周的数据变化。 4. 描述图表要求:指定以柱状图展示数据。 5. 解释变化原因:阐明导致数据变化或波动的关键因素。 您可以根据实际情况进一步细化和完善这个框架。
2025-02-15
目前我有个数据源头,可能是excle或mysql数据库。他们都含义以下字段: 发货日期 物料编号 物料描述 板块 实际已交货量 销售单位 金额(RMB) 金额(不含税RMB) 国家 品牌; 我需要创建一个智能体助手,用于分析这些数据,这个智能通助手需要能按用户需要,分析各个维度的数据,并按板块等维度汇总,并转为柱状图图表表现出现,并表现用户所有日期的近一周的变化,并阐明变化或波动是由哪些数据导致的?
要创建这样一个智能体助手来分析您提供的数据,以下是一些建议的步骤: 1. 数据获取与预处理: 从 Excel 或 MySQL 数据库中读取数据。 对数据进行清洗和预处理,例如处理缺失值、异常值等。 2. 数据分析与计算: 按照用户需求的维度(如板块、国家、品牌等)对数据进行分组和汇总计算。 计算近一周的数据变化情况。 3. 图表生成: 使用合适的图表库(如 matplotlib、Seaborn 等)将汇总后的数据以柱状图的形式展示。 4. 变化原因分析: 通过比较不同维度的数据,找出导致变化或波动的关键因素。 在技术实现方面,您可以使用 Python 编程语言来完成上述任务。例如,使用 Pandas 库进行数据处理和分析,使用 Matplotlib 库生成图表。希望这些建议对您有所帮助,如果您在实现过程中遇到具体的技术问题,欢迎随时向我咨询。
2025-02-15
如何在coze已经建好的智能体上搭建一个用户登陆的模块,让用户在使用前输入姓名,序号
要在已建好的 Coze 智能体上搭建用户登陆模块,让用户在使用前输入姓名和序号,您可以参考以下步骤: 1. 服务器设置: 购买云服务器,推荐使用腾讯云服务器。新用户专享 28 元/年一台云服务器,若售罄可购买 82 元/年的,并选择宝塔 Linux 面板 8.1.0 腾讯云专享。 云服务器设置密码,选择暂不需要教学场景,通过远程登录的密码/密钥登录的重置密码来初始化密码,并妥善保存。 获取宝塔 Linux 地址,点击控制面板中的应用信息的管理应用,有两种获取方法。 设置宝塔的密码,登录宝塔 Linux 面板,输入相关操作并保存用户名和密码。 2. 变现模板配置: 超级管理员和普通用户的定义:超级管理员拥有管理整个系统的最高权限,普通用户没有项目配置权限和进入管理后台页的权限。 成为超级管理员:点击【成为超级管理员】按钮,进入用户注册登录页面,完成注册后获得超级管理员账户。 选择智能体配置模式,包括 Zion 默认智能体模式和您的 Coze 智能体模式。 3. API 接入微信群 Bot: 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 在“Docker”中的“项目模板”中添加,将编译好的内容复制进来,创建容器并确定。 查看运行服务,扫码接入微信,手动刷新日志,若看到 WeChat login success 则接入成功。
2025-02-14
如何用coze建一个用户登录的模块
以下是使用 Coze 建立用户登录模块的一般步骤: 1. 进入 Coze 官网(www.coze.cn),注册并登录。 2. 按照提示输入 8888 端口号,并确保端口号在列表中出现。 3. 在浏览器中输入相关信息,输入刚刚设置好的密码,把协议滚动到最底部,点击进入面板。为了绑定,先注册一个宝塔的账号,然后返回到登录界面,输入注册号的用户名和密码。 4. 点击左侧 Docker,点击立即安装,选择默认方式,等待在线安装完成。安装成功后,右侧会出现很多应用。
2025-02-14