Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有没有把资料信息存放到知识库,通过问答方式得到答案的案例

Answer

以下是把资料信息存放到知识库,通过问答方式得到答案的案例:

安仔在开源 AI 社区中,基于 RAG 机制实现了知识库问答功能。首先创建一个包含大量社区 AI 相关文章和资料的知识库,例如创建有关 AI 启蒙和信息来源的知识库,通过手工录入方式上传栏目所有文章内容,然后陆续将社区其他板块的文章和资料导入。在设计 Bot 时,添加这个知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以更好地利用知识库返回的内容进行结合回答。

在阅读书籍、论文的互动式问答场景中,对应的关键词库包括书籍、报告、文件、详细信息、查询、主题、作者、出版日期、出版社、问题、方面、原则、方法、概括、主要观点、解释。需要注意的是,ChatGPT 的知识库截止于 2021 年 9 月,对于更新的数据或最新出版的书籍、报告和文件,它无法提供答案。如果有现成的 PDF,建议通过 CHATDOC 网站进行互动式问答。

Content generated by AI large model, please carefully verify (powered by aily)

References

安仔:玩转 Coze,我帮开源 AI 社区搞了一个社群运营机器人

基于RAG机制,我们可以实现知识库问答功能。首先,我们需要创建一个知识库,里面包含了大量社区的AI相关的文章和资料。比如我这里创建了一个有关AI启蒙和信息来源的知识库,然后通过手工录入的方式上传这个栏目的所有文章内容:就这样,陆陆续续地将社区其他板块的文章和资料导入到知识库中。在设计Bot中,我们添加这个知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,尽可能好地利用知识库返回的内容进行结合回答:

安仔:玩转 Coze,我帮开源 AI 社区搞了一个社群运营机器人

基于RAG机制,我们可以实现知识库问答功能。首先,我们需要创建一个知识库,里面包含了大量社区的AI相关的文章和资料。比如我这里创建了一个有关AI启蒙和信息来源的知识库,然后通过手工录入的方式上传这个栏目的所有文章内容:就这样,陆陆续续地将社区其他板块的文章和资料导入到知识库中。在设计Bot中,我们添加这个知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,尽可能好地利用知识库返回的内容进行结合回答:

阅读:书籍、论文的互动式问答

书籍、报告、文件、详细信息、查询、主题、作者、出版日期、出版社、问题、方面、原则、方法、概括、主要观点、解释。注意:ChatGPT的知识库截止于2021年9月,对于更新的数据或最新出版的书籍、报告和文件,它无法提供答案。如果有现成的PDF,建议通过CHATDOC网站进行互动式问答:ChatDOC - Chat with your documents

Others are asking
本地部署deep seek后如何搭建个人知识库,详细说明一下每个步骤
以下是本地部署 Deep Seek 后搭建个人知识库的详细步骤: 1. 在 RAGFlow 中配置 Deep Seek 模型 返回 RAGFlow ,打开右上角设置,进入模型提供商界面。 配置本地部署的 Deep Seek 模型,选择 Ollama ,并根据运行的模型配置相关信息。 设置基础 URL 。 点击确定。 2. 导入嵌入模型 导入一个用于文本向量化的嵌入模型。 3. 设置系统模型设置 4. 创建知识库 返回知识库,进入数据集,导入文件或设置文件夹当作知识库。 5. 文件解析 对导入的文件进行解析,解析速度取决于本机 GPU 性能(显卡性能),越好的显卡解析越快。 6. 检索测试 解析完成后,进行检索测试。 7. 进入聊天界面 测试没问题后,可进入聊天界面,助理设置可自行进行。 此外,如果想要对知识库进行更灵活的掌控,可以使用 AnythingLLM 软件,步骤如下: 1. 安装 AnythingLLM ,安装地址:https://useanything.com/download 。 2. 安装完成后进入配置页面,主要分为三步: 选择大模型。 选择文本嵌入模型。 选择向量数据库。 3. 构建本地知识库 在 AnythingLLM 中创建独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 4. 测试对话 完成上述配置后,即可与大模型进行对话。 在进行本地知识库搭建实操之前,还需要对 RAG 有大概的了解: RAG 是一种检索增强生成技术,应用过程包括文档加载、文本分割、存储(包括将文档块嵌入转换成向量形式并存储到向量数据库)、检索、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。文本加载器用于将用户提供的文本加载到内存中以便后续处理。
2025-03-07
本地部署ollama+deep seek后怎么有效搭机械领域建知识库或微调为机械领域
以下是本地部署 ollama + deep seek 后有效搭建机械领域知识库或微调为机械领域的步骤: 1. 下载 Ollama 程序:官方网址为 https://ollama.com/ 。默认下载到 C 盘,若想修改安装目录到 D 盘,后续会有相关说明。下载完成后,右下角会出现 Ollama 的图标,打开命令行输入相应命令回车。根据自身独立显卡性能选择模型,如英伟达 2060Super 可选择 Deepseekr1:14b 的模型。若下载速度慢,可按 Ctrl+C 强制退出重新下载。下载完毕后,再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bgem3 ,输入相应命令,下载好后直接退出终端。 2. 配置模型:返回 RAGFlow 中,打开右上角设置,进入模型提供商进行配置。选择 Ollama,并配置相关信息,基础 URL 按要求设置,设置完成后点击确定。 3. 导入嵌入模型:导入一个嵌入模型用于文本向量化。 4. 设置系统模型:完成相关设置。 5. 创建知识库:返回知识库,进入数据集,可导入文件或设置文件夹当作知识库,自行设置。导入完毕后,对文件进行解析,解析速度取决于本机 GPU 性能,越好的显卡解析越快。解析完成后,进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。
2025-03-07
如何在Kimi创建我的个人知识库
以下是在 Kimi 创建个人知识库的相关信息: 使用 GPT 打造个人知识库: 由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。 将文本拆分成小文本块(chunk),通过 embeddings API 转换成 embeddings 向量并保存。 当用户提问时,将问题也转换成向量,与向量储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。 理解 embeddings: embeddings 是浮点数字的向量,两个向量之间的距离衡量关联性,小距离表示高关联度。 向量是用一串数字表示的量,在计算机科学中常用列表表示。 常见的向量距离计算方式是欧几里得距离。 使用 Coze 创建个人知识库: 来到个人空间,找到知识库导航栏,点击创建知识库。 知识库是共享资源,多个 Bot 可以引用同一个知识库。 选择知识库的格式(目前支持文档、表格、图片)并填写信息。 可选择本地文档或问答对表格,还能进行自定义的文档切割。 数据处理完成后,一个问答对会被切割成一个文档片。 关于使用知识库,可参考教程:
2025-03-07
知识库如何建立如何使用
以下是关于知识库建立和使用的详细信息: 创建知识库: 上传表格数据: API 方式: 1. 在表格格式页签下,选择 API,然后单击下一步。 2. 单击新增 API。 3. 输入网址 URL 并选择数据的更新频率,然后单击下一步。 4. 输入单元名称或使用自动添加的名称,然后单击下一步。 5. 配置数据表信息,包括确认表结构(可自定义修改列名或删除某一列名,指定语义匹配字段),查看表结构和数据,确认无误后单击下一步。 6. 完成上传后,单击确定。 自定义方式: 1. 在表格格式页面下,选择自定义,然后单击下一步。 2. 输入单元名称。 3. 在表结构区域添加字段,单击增加字段添加多个字段。 4. 设置列名,并选择指定列字段作为搜索匹配的语义字段。 5. 单击确定。 6. 单击创建分段,然后在弹出的页面输入字段值,然后单击保存。 上传文本内容: Notion 方式: 1. 在文本格式页签下,选择 Notion,然后单击下一步。 2. 单击授权。首次导入 Notion 数据和页面时,需要进行授权。在弹出的页面完成登录,并选择要导入的页面。 3. 选择要导入的数据,然后单击下一步。 4. 选择内容分段方式(自动分段与清洗或自定义)。自动分段与清洗时,系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据;自定义时,可手动设置分段规则和预处理规则,包括分段标识符、分段最大长度、文本预处理规则(替换掉连续的空格、换行符和制表符,删除所有 URL 和电子邮箱地址)。 5. 单击下一步完成内容上传和分片。 自定义方式: 1. 在文本格式页签下,选择自定义,然后单击下一步。 2. 输入单元名称,然后单击确认。 3. 单击创建分段,然后在弹出的页面输入要上传的内容。每个分段最多可添加 2000 个字符。 4. 单击保存。 使用知识库:扣子的知识库功能提供了简单易用的方式来存储和管理外部数据,让 Bot 可以与指定的数据进行交互。将数据上传到知识库后,扣子会自动将文档分割成一个个内容片段进行存储,并通过向量搜索来检索最相关的内容来回答用户问题。知识库由大到小可分为:知识库(一整套领域知识,是 Bot 加载的最小单位)、单元(知识库的一部分,可上传的最小内容单位可以是一个.txt、.pdf、.csv 文件或一个网页)、分段(一个单元切分成多个分段,模型查询的最小单位。分段内容的完整度和准确性度会影响模型回答问题的准确性)。
2025-03-07
dify如何将一个pdf文件上传到知识库中,pdf文件中包含图文信息
要将一个包含图文信息的 PDF 文件上传到知识库中,您可以按照以下步骤操作: 1. 在文本格式页签下,选择本地文档,然后单击下一步。 2. 将要上传的 PDF 文件拖拽到上传区,或单击上传区域选择要上传的文件。 注意事项: 目前支持上传.txt、.pdf、.docx 格式的文件内容。 每个文件不得大于 20M。 一次最多可上传 10 个文件。 3. 当上传完成后单击下一步。 4. 选择内容分段方式: 自动分段与清洗:系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据。 自定义:手动设置分段规则和预处理规则。 分段标识符:选择符合实际所需的标识符。 分段最大长度:设置每个片段内的字符数上限。 文本预处理规则: 替换掉连续的空格、换行符和制表符。 删除所有 URL 和电子邮箱地址。 5. 单击下一步完成内容上传和分片。
2025-03-07
我是小白用户,已经建立cherry studio本地知识库,我想更自动化的使用知识库,有什么具体操作方法
以下是关于更自动化使用 cherry studio 本地知识库的具体操作方法: 使用知识库: 将知识库直接与 Bot 进行关联用于响应用户回复,或者在工作流中添加知识库节点,成为工作流中的一环。 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项。 配置项说明: 最大召回数量:Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多。 最小匹配度:Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回。 调用方式:知识库的调用方式。 自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回。 按需调用:您需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 创建知识库并上传文本内容: |上传方式|操作步骤| ||| |本地文档|1. 在文本格式页签下,选择本地文档,然后单击下一步。<br>2. 将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档。<br>目前支持上传.txt,.pdf,.docx 格式的文件内容。<br>每个文件不得大于 20M。<br>一次最多可上传 10 个文件<br>1. 当上传完成后单击下一步。<br>2. 选择内容分段方式:<br>2.1. 自动分段与清洗:系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据。<br>2.2. 自定义:手动设置分段规则和预处理规则。<br>分段标识符:选择符合实际所需的标识符。<br>分段最大长度:设置每个片段内的字符数上限。<br>文本预处理规则:<br>替换掉连续的空格、换行符和制表符<br>删除所有 URL 和电子邮箱地址<br>1. 单击下一步完成内容上传和分片。| 创建知识库并上传表格数据: |上传方式|操作步骤| ||| |本地文档|选择将本地文件中的表格数据上传至知识库中。<br>1. 在表格格式页签下,选择本地文档,然后单击下一步。<br>2. 将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档,然后单击下一步。<br>目前支持上传.csv 和.xlsx 格式的文件内容,且表格内需要有列名和对应的数据。<br>每个文件不得大于 20M。<br>一次最多可上传 10 个文件。<br>1. 配置数据表信息后,单击下一步。<br>1.1. 指定数据范围:通过选择数据表、表头、数据起始行指定数据范围。<br>1.2. 确认表结构:系统已默认获取了表头的列名,您可以自定义修改列名,或删除某一列名。<br>1.3. 指定语义匹配字段:选择哪个字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。<br>2. 查看表结构和数据,确认无误后单击下一步。<br>3. 完成上传后,单击确定。|
2025-03-06
有哪些好用的搭建知识库然后进行问答的 AI 工具?
以下是一些好用的搭建知识库然后进行问答的 AI 工具: 1. DIN: 搭建 OneAPI,用于汇聚整合多种大模型接口。 搭建 FastGpt,这是一个知识库问答系统,可放入知识文件,并接入大模型作为分析知识库的大脑,它有问答界面。 搭建 chatgptonwechat,将知识库问答系统接入微信,但建议先用小号以防封禁风险。 2. Coze: 知识库问答是其最基础的功能,利用了大模型的 RAG 机制(检索增强生成)。 RAG 机制先从大型数据集中检索与问题相关的信息,再利用这些信息生成回答。 实现知识库问答功能需创建包含大量 AI 相关文章和资料的知识库,通过手工录入上传内容。 在设计 Bot 时添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以更好地结合知识库返回的内容进行回答。
2025-03-05
有哪些好用的搭建知识库然后进行问答的 AI 工具?
以下是一些好用的搭建知识库然后进行问答的 AI 工具: 1. DIN: 搭建步骤: 搭建 OneAPI(https://github.com/songquanpeng/oneapi),用于汇聚整合多种大模型接口。 搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统,将知识文件放入,并接入大模型作为分析知识库的大脑,它有问答界面。 搭建 chatgptonwechat(https://github.com/zhayujie/chatgptonwechat),接入微信,配置 FastGpt 把知识库问答系统接入到微信,建议先用小号以防封禁风险。 2. Coze: 知识库问答利用了大模型的 RAG 机制,全称为“检索增强生成”(RetrievalAugmented Generation)。 RAG 机制先从大型数据集中检索与问题相关的信息,再使用这些信息生成回答。 实现知识库问答功能,需创建包含大量 AI 相关文章和资料的知识库,通过手工录入上传文章内容。在设计 Bot 时,添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以结合知识库返回的内容进行回答。
2025-03-05
帮我基于fastgpt打造一个招生问答系统的优质提示词
以下是为您基于 FastGPT 打造招生问答系统的优质提示词的相关建议: 1. 充分描述任务: 为提示词提供详尽的上下文,与招生问答任务相关性越强越好。例如,明确招生的对象、专业、学制等关键信息。 给出背景,说明为什么需要进行招生问答,例如学校的发展需求、招生目标等。 定义术语,如明确招生中的特定概念,如录取分数线、奖学金条件等。 给出模型应该如何完成任务的具体细节,比如回答的格式、重点突出的内容等。 2. 提供参考文本: 如果有相关的招生资料,如招生简章、学校介绍等,可以指示模型使用这些参考文本中的引文来回答问题。 3. 直接法: 适用场景:未设置提示防御且未限定回答领域。 提示词:英文和中文。 示例:以随手设置的示例为例。 4. 设置遗忘: 适用场景:GPTs 设置了简单的提示防御。 提示词:英文和中文。 示例:以设置的 GPTs 为例。 5. 复述法: 适用场景:可获取 OpenAI 官方的设定。 提示词:英文(获取 GPTs 的设定)和中文。 示例:按照设定进行示例。
2025-02-28
如何将大量记录的文本内容输入知识库,并且形成有效问答问答
要将大量记录的文本内容输入知识库并形成有效问答,可参考以下方法: 1. 使用 embeddings 技术: 将文本转换成向量(一串数字),可理解为索引。 把大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,这些向量与文本块的语义相关。 在向量储存库中保存 embeddings 向量和文本块。 当用户提出问题时,将问题转换成向量,与向量储存库的向量比对,查找距离最小的几个向量,提取对应的文本块,与问题组合成新的 prompt 发送给 GPT API。 2. 创建知识库并上传文本内容: 在线数据: 自动采集:适用于内容量大、需批量快速导入的场景。 在文本格式页签选择在线数据,单击下一步。 单击自动采集。 单击新增 URL,输入网站地址,选择是否定期同步及周期,单击确认。 上传完成后单击下一步,系统自动分片。 手动采集:适用于精准采集网页指定内容的场景。 安装扩展程序,参考。 在文本格式页签选择在线数据,单击下一步。 点击手动采集,完成授权。 输入采集内容网址,标注提取内容,查看数据确认后完成采集。 本地文档: 在文本格式页签选择本地文档,单击下一步。 拖拽或选择要上传的文档,支持.txt、.pdf、.docx 格式,每个文件不大于 20M,一次最多上传 10 个文件。 上传完成后单击下一步,选择内容分段方式,包括自动分段与清洗(系统自动处理)和自定义(手动设置分段规则和预处理规则)。
2025-02-28
怎样分析一篇PDF文档中的信息并创建问答对,将问答对按行输出到多维表格?
以下是分析一篇 PDF 文档中的信息并创建问答对,按行输出到多维表格的一些要点: 1. 文档格式规范: Markdown:建议优先使用 Markdown 格式。 Word:优先采用 2007 版或之后的 Word 格式,使用全局样式,统一使用全局标题和段落样式,避免字符样式,使用段落样式保持文档格式一致性。 PDF:避免使用图片,将图像中的重要信息转录成文本并按规范组织,不包含嵌入压缩文件,保持文档单栏布局。 CSV:避免使用图片,不嵌入压缩文件,表头作为第一行。 2. 问答对内容规范: 推荐保存 FAQ(常见问题解答)中的问答对,问题表述清晰明确,答案简洁易懂,使用用户熟悉的术语,突出关键词,以提高检索召回准确度。 不推荐在 CSV 中上传复杂的关系型数据表,可能导致数据处理时间超长和失败。 希望这些要点对您有所帮助。若您想深入了解 RAG,可以进入知识库专区:
2025-02-25
如何构建智能问答Agent
以下是关于构建智能问答 Agent 的相关信息: Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具拓展 Bot 能力边界。 2. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 在飞书上构建 FAQ 机器人: 1. 会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区的情况。 2. 讨论了利用 AI 技术帮助用户更好地检索知识库中的内容,引入了 RAG 技术,通过机器人来帮助用户快速检索内容。 3. 介绍了基于飞书的知识库智能问答技术的应用场景和实现方法,可以快速地给大模型补充新鲜的知识,提供大量新的内容。 4. 讨论了如何使用飞书的智能伙伴功能来搭建 FAQ 机器人,以及智能助理的原理和使用方法。 5. 飞书智能伙伴创建平台(Aily)是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用。 本地部署资讯问答机器人: 决定先采取 Langchain + Ollama 的技术栈来作为 demo 实现,后续也会考虑使用 dify、fastgpt 等更加直观易用的 AI 开发平台。 整体框架设计思路如下: Langchain 是当前大模型应用开发的主流框架之一,提供一系列工具和接口,核心在于其“链”概念,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,可灵活组合支持复杂应用逻辑,其生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具。 Ollama 是一个开箱即用的用于在本地运行大模型的框架。 请注意,以上信息由 AI 大模型生成,请仔细甄别。
2025-02-24
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. 也可以将 depth lora 模型存放到 ComfyUI/models/loras 文件夹中。 depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora 3. 百度网盘中也有相关模型: 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2025-02-05
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora ,放到:comfyUI\\models\\loras 。 3. 百度网盘分享的 flux1depthdevlora.safetensors : 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2024-12-17
AI客服案例
以下是为您整理的一些 AI 客服相关案例: 扣子案例合集:包括保姆级教程教您用扣子搭建免费好用的“图片转表格”AI 客服(附实操过程+效果)、前端智能化中扣子能做的事、如何用扣子搭建“赛事活动 AI 客服”机器人等。 SOP + AI 案例:X 公司客服团队引入 SOP 和 AI 助手后,工作效率显著提升。引入 SOP 前工作流程混乱,引入后标准化操作提高了效率,进一步引入 AI 助手实现自动化,如自动回复常见问题、处理简单请求等,最终工作效率提升 30%以上,客户满意度提高。 阿里云百炼案例:订票平台需具备结构清晰、全面的 FAQ 库,可基于用户信息提前呈现可能问题及解答,并动态更新。还提到可通过百炼的 Assistant API 构建 MultiAgent 架构的大模型应用实现智能导购。此外,企业可通过内部规章制度等文档构建知识库,借助 RAG 智能体实现内部知识问答功能,该功能已灰度上线,需提供 UID 并通过白名单开启。
2025-03-07
AI办公提效案例
以下是一些 AI 办公提效的案例: 案例二:【调研达人秘籍】 效益:通过清晰的 AI 工作流,能在短时间内完成深度调研,为决策提供有力支持。 AI 赋能调研工作流: 启动智库引擎:问 AI 怎么理解问题。 搭建信息骨架:问 AI 怎么汇报内容。 精准信息挖掘:问“秘塔 AI”定向搜索。 信息融合与分析:问“Kimichat”综合分析。 汇报成果精炼:整合分析结果,制作报告,分享实用调研工具。详情可查看链接:https://m.okjike.com/originalPosts/65 案例六:【AI 听播客音频,获取信息提速 20 倍】 操作步骤: 点开小宇宙播客分享链接。 打开微信通义听悟小程序。 可以直接在通义听悟看概括总结(2h 播客可以在 4min 左右分析完);也可一键转录解析导出 txt 文字版,丢到 kimi 自定义分析;(kimi 也可以读取播客链接进行音频解析,但是目前好像无法进行逐字稿)。视频解说看这里,播客速读 ai 工作流.mp4 可通过链接下载:https://bytedance.feishu.cn/space/api/box/stream/download/all/HXDcb9dNHoJH0bxeK9ecPEA6nYd?allow_redirect=1 案例:最近被《》种草,5h 时长的播客,用上述工作流 15min 内搞定所有精华信息,提效 20 倍。 宝玉日报 2 月 23 日: 管理经验加持 AI 应用:沟通明确,善于提供上下文,让 AI 更有效地执行任务;明晰 AI 能力边界,善于合理授权并监督检查;擅长任务拆解和整合,提升 AI 协作效率。详情链接:https://x.com/dotey/status/1893538744671641649 医保严禁 AI 自动开处方:DeepSeek、Grok 等 AI 工具看病仅需几十秒,引发关注。湖南省医保局正式表态,明确禁止使用人工智能生成医疗处方。详情链接:https://x.com/dotey/status/1893533370535051528 Coinbase 全面推动 AI 应用:所有工程师均使用 Cursor AI 工具进行编程,显著提高效率。AI 技术广泛应用于欺诈预防、客户支持、风险评分、设计等领域。下一步将实现从 Jira 或 Linear 工单到 PR 代码的 AI 自动生成,助力需求自动化落地。微信全文链接:https://mp.weixin.qq.com/s/dXodWGaPQgcOoMqwi7U_lQ ;详情链接:https://x.com/dotey/status/1893071537835557363
2025-03-07
企业场景AI办公案例
以下是为您整理的企业场景 AI 办公案例: 社区 AI 讲师招募 招募要求: 具有丰富的企业端 AI 实践经验,包括以下场景(具备其中一个或多个场景的实践能力沉淀): AI 生成爆款内容:利用 AI 分析挖掘同品类爆款内容,借助 AI 工具生成电商商品图、小红书图文内容、种草短视频内容等。 公域阵地场景:基于视频号、抖音、小红书、公众号等平台搭建企业营销推广能力,包括矩阵号和 IP 号,通过短视频、直播等方式获取 leads,涉及矩阵号工具、内容抓取分析、脚本创作、AI 剪辑、自动回复评论、无人直播工具等。 私域阵地场景:朋友圈、小红书、社群、个人 IP 的获客转化,使用销售企微 SCRM 工具、企业智能体进行 AI 内容抓取和自动回复。 服务自动化工具,数据监控和预警,流程优化,自动运营等。 快速搭建数据分析看板。 跨境电商场景:tiktok 视频制作及投放、电商图片设计、精准营销、语言翻译、AI 独立站建设、社媒私域、批量混剪、海外达人直播、无人直播(数字人直播)等。 具备良好的表达能力,能清晰条理地阐述在技术和业务方面的沉淀。 招募流程:对感兴趣的小伙伴,提交个人简历(包括基本信息介绍、学历、专业、工作经验,以及 AI 企业端的案例),填写问卷,预约电话面谈,面谈通过后进行公开课试讲。 AI 决策背后的黑箱:企业如何避免陷入智能陷阱,重塑决策流程 创新与效率的平衡:AI 时代的人类创新力 AI 效率的优势与创新力的挑战:AI 的核心优势在于高效处理复杂数据任务、快速发现规律并生成解决方案,显著提升企业日常运营效率,如生产制造流程优化、客户服务自动化、财务数据分析精准化等。但随着 AI 深入应用,需反思效率提升是否抑制企业创新潜力。 企业的创新挑战:企业中,AI 可提升工作效率,但过度依赖可能导致员工失去主动创新空间,如市场部依赖 AI 生成广告创意。企业需在使用 AI 时确保员工有创新空间,如设计跨部门合作项目。 案例场景:在一家科技公司中,AI 系统接管日常决策工作,起初减轻负担,但员工逐渐依赖 AI 生成的“最佳方案”,不再主动提出想法,导致团队自主创新能力削弱,失去探索新市场和开发创新产品的动力,揭示了过度依赖 AI 的潜在风险,即缺乏情境理解与直觉性创造,长期依赖可能导致员工丧失提出突破性想法的勇气和能力,阻碍企业未来创新发展。
2025-03-07
AI应用案例有哪些
以下是一些 AI 的应用案例: 1. 在大淘宝设计部: 品牌超级符号映射:根据品牌符号的模型训练和结构控制,用户输入关键词可快速完成准确的超级符号主视觉,如双 11 AI 创作赢红包、双 11 联合传播猫头海报&花车大巡游、超级品类日 品牌符号系列海报等案例。 品牌 IP 形象 AI 生成:训练特定的天猫/淘宝/营销 IP 公仔模型,稳定输出定制化 IP 形象,如天猫 AI 玩行动 品牌联合海报、天猫双 11 出游主题喵卡、淘宝天猫一起冲亚、天猫 U 先公仔三视图生成及应用等案例。 传播&投放:如双 11 超级发布 品牌联合海报、媒介投放开屏海报等案例。 2. 在汽车行业: 自动驾驶技术:利用 AI 进行图像识别、传感器数据分析和决策制定,如特斯拉、Waymo 和 Cruise 等公司的开发和测试。 车辆安全系统:用于增强车辆的安全性能,如自动紧急制动、车道保持辅助和盲点检测系统。 个性化用户体验:根据驾驶员的偏好和习惯调整车辆设置。 预测性维护:通过分析车辆实时数据预测潜在故障和维护需求。 生产自动化:用于汽车制造过程中的自动化生产线。 销售和市场分析:分析市场趋势、消费者行为和销售数据。 电动化和能源管理:在电动汽车的电池管理和充电策略中发挥作用。 共享出行服务:优化路线规划、调度车辆和定价策略。 语音助手和车载娱乐:如 Amazon Alexa Auto 和 Google Assistant 等。 车辆远程监控和诊断:远程监控车辆状态,提供实时诊断和支持。 3. 在活动策划中: 活动主题及内容生成:根据活动目标、参与者背景等信息生成合适的主题和内容框架建议。 邀请函和宣传文案生成:基于活动信息生成吸引人的邀请函和宣传文案。 现场活动管理:利用计算机视觉、语音识别等辅助管理活动现场的人流、秩序等。 虚拟助手:AI 对话系统作为虚拟活动助手,为参与者提供信息查询、问题咨询等服务。 活动反馈分析:自动分析活动反馈,总结关键观点和改进建议。 活动营销优化:基于参与者行为数据优化营销策略,实现个性化营销。
2025-03-06
RAG架构图和实现案例
以下是关于 RAG 架构图和实现案例的相关内容: RAG 是当今大多数现代人工智能应用程序的标准架构。以 Sana 的企业搜索用例为例,其工作原理如下: 1. 应用程序加载和转换无结构文件(如 PDF、幻灯片、文本文件),跨越企业数据孤岛(如 Google Drive 和 Notion),通过数据预处理引擎(如 Unstructured)转换为 LLM 可查询格式。 2. 这些文件被“分块”成更小的文本块,以实现更精确的检索,并作为向量嵌入存储在数据库(如 Pinecone)中。 3. 当用户提出问题时,系统检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM。LLM 从检索到的上下文中合成答复返回给用户。 在生产中,AI 应用程序具有更复杂的流程,包含数十甚至数百个检索步骤,通常具有“提示链”,不同类型的任务并行执行多个“提示链”,然后将结果综合在一起生成最终输出。 随着 RAG 的发展,出现了自适应的检索(也被称作主动检索),其核心思想与 LLM Agent 相似。根据判断依据可分为 Promptbase 和 Tuningbase: 1. Promptbase:通过 Prompt Engineering 的方式让 LLM 对流程进行控制。典型实现案例是 FLARE,其核心思想是 LM 仅在缺乏所需知识时进行检索,以避免被动检索增强的 LM 中出现不必要或不适当的检索。FLARE 迭代地生成下一个临时句子,并检查是否包含低概率标记。如果是这样,系统将检索相关文档并重新生成句子。 2. Tuningbase:对 LLM 进行微调使其生成特殊的 token,以此来触发检索或生成。典型案例是 SelfRAG,具体步骤包括:给定输入提示和前面的生成结果,首先预测特殊 token“Retrieve”判断是否通过检索段落对继续的生成进行增强是有帮助;如果有帮助,调用检索模型,模型会生成一个 critique token 来评估检索段的相关性、下一个响应片段和一个批判令牌来评估响应片段中的信息是否得到了检索段的支持;最后,一个新的批判令牌评估响应的整体效用。模型会并行处理这些内容,并选择最佳结果作为最终的输出。 此外,系统的内存是 LMM 的上下文窗口,存在架构限制,窗口越大推理越慢,同时模型会失焦,降低推理的准确度。前沿模型研发团队都力争做到吞吐量、速度还有准确度的最佳平衡。大模型应用领域常用的方法是 RAG,例如 Perplexity、面向企业知识库的 Glean 以及面向个人知识库的 Maimo 等应用。
2025-03-05
有没有具体的案例供参考呢?
以下为您提供一些 AI 应用的具体案例供参考: 即梦的智能参考功能: 模特图方面,可实现变装、换发型、换脸、换发色和调整人物姿势等,例如将模特衣服换成婚纱、将图片背景换成橙色等。 产品图方面,能改变产品材质和调整画面背景,比如将沙发材质换成布或毛绒等。 电商海报方面,支持随意更改背景、元素以适应不同营销主题,例如把图片背景改成居家风格。 基础操作包括打开即梦官网 https://jimeng.jianying.com/ ,选择图片生成,然后选择导入参考图并点击智能参考。 原文链接:https://mp.weixin.qq.com/s/sD0RFMqnFZ6Bj9ZcyFuZNA AIGC 落地应用案例推荐: 部分案例取自以下来源:AIGC 交流群工具沉淀.by 向阳、通往 AGI 之路、No.1 关于 AI 的 107 个人,61 个工具和 28 个通讯.by 赛博禅心、Chat GPT Plugins 全面测评.by 捡到一束光、https://www.futurepedia.io/aitools/funtools 等。 周三【workshop】一起写 Prompts 成果展示: 小组 1 中,一个 prompt 主要用于输入主题为老师生成 PPT,使用者为教师(生成)和学生(阅读)。目前的最好解决方案包括提炼教学内容核心概念确定主题、增加提纲、对提纲进行关键词描述、根据关键词书写提纲下的摘要,并让用户确认生成的课件提纲和内容是否需要修改。成熟的案例参考:step 1(根据 PPT 大纲助手 GPTs 生成 PPT 大纲):https://chat.openai.com/g/gOKorMBxxUpptdagangzhushou ;step 2(根据输入文本生成 PPT 内容 GPTs 生成 PPT 内容):https://chat.openai.com/g/gYJs9jxVBHshuruwenbenshengchengpptneirong ;step 3(将生成的内容复制到 Marp Web 渲染简洁的 PPT):https://web.marp.app/
2025-02-28