直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

RAG应用的案例,结合本地知识库和开放搜索

回答

以下是一些 RAG 应用的案例:

  1. 用户向 ChatGPT 查询最近引起广泛关注的事件,如 OpenAI 首席执行官的突然解雇和复职,由于 ChatGPT 预训练数据的限制缺乏对最新事件的了解。RAG 通过从外部知识库中检索最新的文档摘录来解决这一问题,获取相关新闻文章并与最初的问题合并成丰富的提示,使 ChatGPT 能够合成知情的回答,展示了其通过实时信息检索增强模型响应能力的过程。
  2. 在本地知识库的搭建中,利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。RAG 应用可抽象为 5 个过程:文档加载,从多种来源加载文档;文本分割,把文档切分为指定大小的块;存储,包括将切分好的文档块嵌入转换成向量形式并存储到向量数据库;检索,通过检索算法找到与输入问题相似的嵌入片;输出,把问题及检索出来的嵌入片一起提交给 LLM,让其生成更合理的答案。
  3. 在了解 RAG 全貌时,其流程分为离线数据处理和在线检索两个过程。离线数据处理目的是构建知识库这本“活字典”,在线检索则是利用知识库和大模型进行查询的过程。以构建智能问答客服这一最经典的应用场景为例,可深入了解 RAG 所有流程中的“What”与“Why”。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

开发:产品视角的大模型 RAG 应用

下图中展示了一个典型的RAG应用工作流程:用户向ChatGPT查询最近引起广泛关注的事件(例如,OpenAI首席执行官的突然解雇和复职),这些事件引发了大量的公众讨论。作为最著名和广泛使用的LLMs,受限于其预训练数据,ChatGPT缺乏对最新事件的了解。RAG通过从外部知识库中检索最新的文档摘录来解决这一问题。在这种情况下,它获取了与查询相关的一些新闻文章。这些文章连同最初的问题被合并成一个丰富的提示,使ChatGPT能够合成一个知情的回答。这个示例说明了RAG的过程,展示了它通过实时信息检索来增强模型的响应能力。从技术上讲,RAG已经通过各种创新方法得到丰富,这些方法解决了关键问题,例如“要检索什么”、“何时检索”和“如何使用检索到的信息”。关于“要检索什么”的研究已经从简单的标记检索和实体检索发展到更复杂的结构,如块和知识图研究重点放在检索的粒度和数据结构的级别上。粗粒度带来更多的信息,但精度较低。检索结构化文本提供了更多信息,但效率较低。关于“何时检索”的问题已经产生了各种策略,从单一检索到自适应检索和多次检索,再到高频率检索的方法。

手把手教你本地部署大模型以及搭建个人知识库

文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

胎教级教程:万字长文带你理解 RAG 全流程

旁白:一路千辛万苦,终于要真正了解RAG的全貌了,好激动前面的开胃菜已经完毕,这里我们进入正餐,先上一张图注:这张图引用自:https://mp.weixin.qq.com/s/37tKVQbxenVVBAeMZ334aQ公众号:AI花果山一位RAG大佬,正在编写一系列教程《RAG高效应用指南》这张图将会是我们本章的知识地图,看到这么多的概念,不要慌,我们先整体理解下RAG。自顶向下,RAG的流程分为离线数据处理和在线检索两个过程。我们前面讲到,知识库是RAG的“活字典”,可以让AI随时进行查阅。而离线数据处理的目的就是为了构建出这本“活字典”。经过离线数据后,知识则会按照某种格式以及排列方式存储在知识库中,等待被使用。而在线检索则是我们使用利用知识库+大模型进行查询的过程。在学习一门新知识的时候,是什么与为什么同等重要是什么让你知其然为什么让你知其所以然接下来我们就以RAG最经典的应用场景《构建智能问答客服》来了解RAG所有流程中的What与Why

其他人在问
怎么写文档会让RAG 效果更好
要让 RAG 效果更好地写文档,您可以参考以下要点: 1. 文档切割: 合理的文档切割能让系统返回更完整、连贯的结果。例如,对于“猫咪的饮食习惯是什么?”的查询,将相关内容切割为“猫咪的饮食习惯取决于它们的年龄、健康状况和品种。”和“幼猫需要更多的蛋白质,而成年猫则需要均衡的营养。”这样的文档块。 目前免费平台一般提供智能切割和手动切割两种方式。但在当下技术水平下,智能切割效果一般,对于以问答为主的客服场景,将一个问答对切成一个文档片,检索效果会很好。 2. 整理知识库文档阶段: 确定知识库包含的文档类型,如政策原文文档、业务积累的 QA、操作指引、产品说明等,并进行预处理。 知识库本身质量对最终效果至关重要,是大模型生成回答的原始语料。 优化方向包括: 文档格式:PDF 文档格式信息相对简洁,干扰少,但也有说.docx 效果更优的,需根据场景测试。 文档命名:尽量控制在 10 字左右,涵义简洁明了,避免无意义的数字、符号或缩写。 文档语言:尽量统一为同一种,避免中英文混切导致乱码和无用数据。 文档内容:设置清晰的一二级标题,对特殊元素进行处理。 构建问答对:能达到更好效果,但耗费人力和运营成本,需综合考虑。 3. 通用语言模型微调可完成常见任务,更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源。Meta AI 引入的 RAG 方法把信息检索组件和文本生成模型结合,可接受输入并检索相关文档,给出来源,适应事实变化,不用重新训练就能获取最新信息并生成可靠输出。Lewis 等人(2021)提出通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。
2024-10-21
大模型中的RAG
RAG 即 RetrievalaugmentedGeneration(检索增强技术),是大模型中的一个重要概念。 首先回顾 LLM 的原理,它是把互联网文献材料降维到 latent space 中,并通过 transformer 方式学习其中的“经验”。但固定文献资料存在局限性,可能无法回答某些问题。 RAG 的出现解决了这一问题,它允许模型到搜索引擎上搜索问题相关资料,并结合自身知识体系综合回复。其中,RAG 的“R”即搜索环节并非简单操作,还涉及传统搜索的逻辑,如对输入问题的纠错、补充、拆分,以及对搜索内容的权重逻辑等。 例如,对于“中国界世杯夺冠那年的啤酒销量如何”的问题,会先纠错为“中国世界杯夺冠那年的啤酒销量如何”,然后拆分问题进行综合搜索,将搜索到的资料提供给大模型进行总结性输出。 RAG 是一种结合检索和生成的技术,能让大模型在生成文本时利用额外数据源,提高生成质量和准确性。其基本流程为:首先,给定用户输入(如问题或话题),RAG 从数据源中检索出相关文本片段(称为上下文);然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型(如 GPT),输入通常包含提示,指导模型生成期望输出(如答案或摘要);最后,从大模型输出中提取或格式化所需信息返回给用户。
2024-10-20
有没有RAG 基本架构的中文图示
以下是关于 RAG 基本架构的介绍: RAG 是当今大多数现代人工智能应用程序的标准架构。以 Sana 的企业搜索用例为例,其工作原理如下: 1. 应用程序加载和转换无结构文件(如 PDF、幻灯片、文本文件),跨越企业数据孤岛(如 Google Drive 和 Notion),通过数据预处理引擎(如 Unstructured)转换为 LLM 可查询格式。 2. 这些文件被“分块”成更小的文本块,作为向量嵌入并存储在数据库(如 Pinecone)中,以实现更精确的检索。 3. 当用户提出问题时,系统检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM。 4. LLM 从检索到的上下文中合成答复返回给用户。 RAG 的基本概念: RAG 是一种结合了检索和生成的技术,能让大模型在生成文本时利用额外的数据源,提高生成的质量和准确性。其基本流程为: 首先,给定用户输入(如问题或话题),RAG 从数据源中检索出相关文本片段(称为上下文)。 然后,将用户输入和检索到的上下文拼接成完整输入传递给大模型(如 GPT),输入通常包含提示,指导模型生成期望输出(如答案或摘要)。 最后,从大模型的输出中提取或格式化所需信息返回给用户。
2024-10-17
基于飞书的知识库RAG的搭建,需要什么接口进行全文搜索
基于飞书的知识库 RAG 搭建,可用于全文搜索的接口方式主要有以下几种: 1. 语义检索:语义匹配关注查询和文档内容的意义,而非仅仅表面的词汇匹配。通过向量的相似性来判断语义的相似性。 2. 全文检索:这是基于关键词的检索方式。例如,对于句子“猫的饮食习惯包括吃鱼和鸡肉”,输入“猫”“饮食”“猫的饮食习惯”“吃鱼”等关键词可搜索到该句子,但输入“猫喜欢吃什么呀”则无法搜索到。 3. 混合检索:结合了语义匹配和全文检索的优点,通常系统先进行全文检索获取初步结果,然后再对这些结果进行语义匹配和排序。 此外,在本地部署资讯问答机器人实现 RAG 时,会涉及加载所需的库和模块,如 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型。还会为文档内容生成向量,如使用文本向量模型 bgem3 等。 在开发 LangChain 应用开发指南中,实现 LangChain 和 RAG 的结合时,需要加载数据、分割文档、转换嵌入并存储到向量存储器、创建检索器以及聊天模型等步骤。
2024-10-17
如何在个人电脑中部署本地RAG
在个人电脑中部署本地 RAG 可以按照以下步骤进行: 1. 加载所需的库和模块: 确保 ollama 服务已开启并下载好模型,ollama 用于在 python 程序中跑大模型。 feedparse 用于解析 RSS 订阅源。 2. 从订阅源获取内容: 函数用于从指定的 RSS 订阅 url 提取内容,如需接收多个 url 可稍作改动。 通过专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,用于进一步的数据处理或信息提取任务。 3. 为文档内容生成向量: 使用文本向量模型 bgem3,从 hf 下载好模型后放置在指定路径,如 /path/to/bgem3,通过函数利用 FAISS 创建一个高效的向量存储。 4. 创建 Python 虚拟环境: 创建 python 虚拟环境,并安装相关库,版本如下: ollama:0.1.8 langchain:0.1.14 faisscpu:1.8.0(有 gpu 则安装 gpu 版本) gradio:4.25.0 feedparser:6.0.11 sentencetransformers:2.6.1 lxml:5.2.1 5. 导入依赖库。 6. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 7. 创建网页 UI:通过 gradio 创建网页 UI,并进行评测。 8. 问答测试:对于同样的问题和上下文,基于 Qwen7b、Gemma、Mistral、Mixtral 和 GPT4 分别进行多次测试。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。
2024-10-13
知识图片与RAG
RAG 分为离线数据处理和在线检索两个过程。离线数据处理旨在构建知识库,就像准备一本“活字典”,知识会按特定格式和排列方式存储在其中以待使用。在线检索则是利用知识库和大模型进行查询的过程。 LangChain 是专注于大模型应用开发的平台,提供一系列组件和工具帮助构建 RAG 应用,包括: 1. 数据加载器(DocumentLoader):能从数据源加载数据并转换为包含 page_content(文本内容)和 metadata(元数据)的文档对象。 2. 文本分割器(DocumentSplitter):将文档对象分割成多个小文档对象,方便后续检索和生成,因大模型输入窗口有限,短文本更易找相关信息。 3. 文本嵌入器(Embeddings):将文本转换为高维向量的嵌入,用于衡量文本相似度以实现检索。 4. 向量存储器(VectorStore):存储和查询嵌入,通常使用 Faiss 或 Annoy 等索引技术加速检索。 5. 检索器(Retriever):根据文本查询返回相关文档对象,常见实现是向量存储器检索器,利用向量存储器的相似度搜索功能检索。 6. 聊天模型(ChatModel):基于大模型如 GPT3,根据输入序列生成输出消息。 使用 LangChain 构建 RAG 应用的一般流程如下:(具体流程未给出)
2024-10-11
你是基于什么大模型做的知识库
以下是关于大模型和知识库的相关知识: 1. RAG(检索增强生成)技术:利用大模型搭建知识库是 RAG 技术的应用。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过 RAG 实现。RAG 包括文档加载、文本分割、存储(包括嵌入和向量数据存储到向量数据库)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)等 5 个过程。文档加载可从多种来源加载不同类型的文档,文本分割将文档切分为指定大小的块。 2. 硬件配置要求:运行大模型需要较高的机器配置。生成文字大模型最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(跑 GPT3.5 差不多性能的大模型);生成图片大模型最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM;生成音频大模型最低配置为 8G VRAM,建议配置为 24G VRAM。 3. 实例:在一个设定中,使用阿里千问模型,设定角色为“美嘉”,知识库为《爱情公寓》全季剧情,实现问答。
2024-10-22
私人知识库
以下是关于私人知识库的相关知识: 使用 GPT 打造个人知识库: 可先将大文本拆分成若干小文本块(chunk),通过 embeddings API 将小文本块转换成与语义相关的 embeddings 向量,并在向量储存库中保存这些向量和文本块作为问答的知识库。 当用户提出问题时,问题先通过 embeddings API 转换成问题向量,然后与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成新的 prompt 发送给 GPT API。 理解 embeddings: embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。 向量是数学中表示大小和方向的量,通常用一串数字表示,在计算机科学和数据科学中常用列表来表示。 计算向量之间距离常见的方式是欧几里得距离,即对应元素相减取平方和再开平方。 AI 时代的私人知识库: 私人知识库中的内容一般有两种:日常从互联网收集的优质信息和个人日常的思考以及分享。 基于私人知识库打造个人专属的 ChatGPT 常见有两种技术方案:训练专有大模型和利用 RAG(检索增强生成)技术。 训练专有大模型:可以使用个人知识库训练专有的大模型,但此方案并非当下主流,存在高成本、更新难度大等缺陷。高成本体现在需要大量计算资源和专业知识;更新难度大在于若要更新模型知识,需重新训练或微调模型,过程复杂耗时。
2024-10-22
如果我需要撰写一个以“AI对音乐行业就业岗位的影响”为主题的约3000字的科普类文章,我应该优先关注WaytoAGI 知识库中的哪些内容?
很抱歉,目前“通往 AGI 之路”知识库中没有与“AI 对音乐行业就业岗位的影响”相关的直接内容。但您可以从以下几个方面入手来撰写这篇文章: 1. 了解 AI 在音乐创作、制作、表演等方面的应用现状和发展趋势。 2. 研究 AI 技术如何改变音乐的生产流程和效率。 3. 分析 AI 对音乐创作者、演奏者、制作人等不同岗位的具体影响,包括可能的岗位替代和新岗位的产生。 4. 探讨 AI 带来的音乐版权和知识产权问题,以及对相关法律和政策的影响。 5. 关注音乐消费者对 AI 参与音乐创作和表演的接受程度和需求变化。
2024-10-19
结合知识库的商业项目, 给我100个ai创业的落地方案
很抱歉,目前知识库中没有为您提供 100 个 AI 创业的落地方案。但以下为您列举一些常见的 AI 创业方向供您参考: 1. 开发基于 AI 的智能客服系统,为企业提供高效的客户服务解决方案。 2. 利用 AI 技术进行精准营销,通过数据分析和预测为企业制定个性化的营销策略。 3. 打造 AI 驱动的医疗诊断辅助工具,帮助医生更准确地诊断疾病。 4. 研发 AI 教育软件,实现个性化学习和智能辅导。 5. 构建 AI 智能家居系统,实现家居设备的自动化控制和智能化管理。 6. 开发 AI 图像识别技术,应用于安防、交通等领域。 7. 推出 AI 金融风险评估模型,为金融机构提供更准确的风险评估。 8. 打造 AI 内容创作平台,生成文章、视频脚本等。 9. 研发 AI 人力资源管理工具,进行人才筛选和绩效评估。 10. 构建 AI 物流优化系统,提高物流效率和降低成本。 您可以根据自身的资源和优势,进一步细化和拓展这些方向,形成具体的创业方案。
2024-10-18
知识库都有哪些提示词框架
以下是一些常见的提示词框架: ICIO 框架:包括 Instruction(指令)、Context(背景信息)、Input Data(输入数据)、Output Indicator(输出引导)。 CRISPE 框架:涵盖 Capacity and Role(能力和角色)、Insight(见解)、Statement(声明)、Personality(个性)、Experiment(实验)。 BROKE 框架:包含 Background(背景)、Role(角色)、Objectives(目标)、Key Result(关键结果)。 TRACE 框架:有 TASK(任务)、REQUEST(请求)、ACTION(行动)、CONTEXT(上下文)、EXAMPLE(示例)。 ERA 框架:包括 EXPECTATION(期望)、ROLE(角色)、ACTION(行动)。 CARE 框架:由 CONTEXT(上下文)、ACTION(行动)、RESULT(结果)、EXAMPLE(示例)组成。 ROSES 框架:包含 ROLE(角色)、OBJECTIVE(目的)、SCENARIO(方案)。 Evolve 框架:包括试验并改进,通过改进输入、改进答案、重新生成等方法。 APE 框架。 COAST 框架:包含 CONTEXT(上下文背景)、OBJECTIVE(目的)、ACTION(行动)、SCENARIO(方案)、TASK(任务)。 TAG 框架:包括 TASK(任务)、ACTION(行动)、GOAL(目标)。 RISE 框架。
2024-10-17
我的app应用想要对接大语言模型,结合APP用户自身的数据,实现更精准的对话,是否有行业比较成功的案例可以借鉴
以下是一些在 APP 应用对接大语言模型方面比较成功的案例,可供您借鉴: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Perplexity.ai: 本质是个可联网的搜索引擎,完全免费,支持网页版、APP(目前支持 iOS,安卓即将推出)、Chrome 插件。 网页版能力全面,能够根据提问从互联网上搜寻信息并给出总结后的答案。 很多 Chat GPT 中调用插件才能解决的事情(联网查询、旅行、住宿、商品推荐)靠 Perplexity 就可以解决。 能给出信息来源网址,并根据搜索内容给出继续对话的问题建议。 最新推出的 Copilot 能力支持根据搜索内容进行信息补充,每 4h 内使用 5 次,调用 GPT4。 支持分享聊天内容到多渠道。 首页推荐当下流行的新闻、搜索内容。 支持筛选 Academic(包含不同领域的学术研究论文)、Wolfram|Alpha(包含数学、科学、经济学、语言学、工程学、社会科学、文化等领域的知识库)、Wikipedia(维基百科)、Youtube、Reddit(娱乐、社交和新闻网站)、News 进行搜索。 Chrome 插件可针对当前页面给出即时摘要。 访问地址:
2024-10-18
找一些关于 AI 帮助赚钱的案例
以下是一些关于 AI 帮助赚钱的案例: 在艺术创作方面,生成式 AI 使得内容创作成为可能,如 Lensa 应用,人们可以通过创作肖像画等内容实现盈利。 对于创作者或个体创业者,生成式 AI 产品可服务于各种用例,从消费者“仅为了娱乐”地创造内容,到通过内容实现盈利。 关于 GPTs/GLMs 能否赚钱,虽然能,但大多数人难以做到。以 BeBeGPTs 为例,其收录了大量 GPTs 数据,通过对相关数据的分析可以探讨 AI 赚钱(应用落地)的情况。
2024-10-17
ai与在线教育结合的成功案例
以下是一些 AI 与在线教育结合的成功案例: 教学方面:帮助学生做好组会准备,使用 Claude + Gamma.app 节省时间。 调研方面:用特定的 prompt ,2 小时帮同学完成 3 篇调研报告;用 ChatGPT 做调研。 医疗方面:蛋白质结构预测和蛋白质合成,AI 加速医疗健康生物制药的研究,在抗癌、抗衰老、早期疾病防治等研究应用中发挥重要作用。 教师方面:AI 赋能教师全场景。 未来教育方面:探讨未来教育如果跟不上 AI 可能出现的裂缝。 化学方面:使用大型语言模型进行自主化学研究。 翻译方面:介绍把一份英文 PDF 完整翻译成中文的 8 种方法。
2024-10-12
可以给我一份ai生成的很精美的ppt案例吗
以下为您提供一些 AI 生成的精美 PPT 相关案例和信息: 案例: 营销:定制营销报告:涵盖汇报对象身份、销售数据、财务报告、市场分析、客户反馈、营销效果评估等内容。 办公:高效做 PPT:介绍了用 ChatGPT 生成 Markdown 语法内容,再借助 MindShow 转换为精美的 PPT。 办公:编写 Excel 公式:可通过具体问题与答案的交互来获取所需公式。 办公:写邮件:关于未及时提供数据的中等大长度的摘要邮件及问题项目清单。 工具: 歌者 PPT:是一款永久免费的智能 PPT 生成工具,具有话题生成、资料转换、多语言支持、模板和案例丰富、在线编辑和分享、增值服务等功能。其优势包括免费使用、智能易用、海量案例、资料转 PPT 专业、AI 翻译等。 相关网站和应用:SlidesAI、Decktopus AI、Tome、MagicSlides、Presentations.AI、Canva、Simplified、GlimmerAI、Sendsteps、Plus AI、Microsoft 365 Copilot、Gamma、Canva Magic Design、ChatGPT、Beautiful.AI 等。同时,收录了群友熊猫 Jay 的实践教程:https://mp.weixin.qq.com/s/uVoIIcePa7WTx7GNqkAPA
2024-10-11
法律行业搜索案例的免费ai哪个好用
在法律行业,进行案例搜索时最好使用法律行业垂类的 AI 产品,通用型 AI 可能存在查不出来、数据不全或生成内容不满足需求的情况。以下是一些案例检索的 Prompt 指令词示例及相关场景: 场景一:案例检索 Prompt 指令词:请搜索近五年内关于商标侵权案件中“混淆可能性”标准的具体判例,并提供相似度最高的三个案例的关键要点摘要。 预计效果:AI 系统将检索相关数据库,找出符合要求的判例,并提炼出这些案例中有关“混淆可能性”标准的关键判决理由和结果,形成摘要报告。 其他例子: Prompt 指令词:检索近三年内所有涉及软件算法专利侵权的案例,分析法院判决中关于技术特征对比和侵权判定的标准,为即将面临的专利侵权案件提供参考。 Prompt 指令词:比对不同地区法院在处理劳动争议案件时对加班费计算标准的差异判决,总结对雇主有利的判决趋势,为客户提供合规操作指导。 Prompt 指令词:研究环境法相关案例,特别是涉及工业废弃物处理的法律责任,为客户提供合规处理建议,以降低潜在的法律风险。 Prompt 结构提示:【案例领域或类型+明确需要查找的重点内容+查找案例的目的+其他希望 AI 做的事情】 场景二:类案检索 Prompt 指令词:(与场景一类似) 预计效果:(与场景一类似) 其他例子:(与场景一类似) Prompt 结构提示:(与场景一类似) 场景四:法规研究与解读 Prompt 指令词:根据最新修订的《数据安全法》,解析企业在处理个人信息时应遵循的主要原则,并给出具体操作建议。 预计效果:AI 助手将依据《数据安全法》的最新条款,解析企业处理个人信息所必须遵循的原则,并结合实践情况提出详细的操作指南或合规建议。 其他例子: Prompt 指令词:分析新出台的《网络安全法》对电子商务平台的具体影响,特别是数据保护和用户隐私方面的规定,为客户提供合规操作指南。 Prompt 指令词:【输入一段具体法律规定如:国际贸易规定】,以上是国际贸易法规的最新变化,为客户提供跨境交易的合规指南,特别是关税和进出口限制方面的内容。 Prompt 指令词:解读新修订的税法对中小企业的影响,提供税务规划和避税策略的建议,确保客户在合法范围内优化税务负担。 Prompt 结构提示:【需求 or 目的+根据具体法条或者根据某部法律+具体需要研究或则具体的研究细节内容】 场景五:法律意见书撰写或非诉交易文件材料 Prompt 指令词:针对我方当事人涉及的版权纠纷案,输入【已有的证据材料】+【相关法律条文】,撰写一份初步法律意见书,论证我方主张的合理性和胜诉的可能性。 预计效果:AI 将基于商标法的相关条款和案例法,提供关于商标侵权案件的诉讼策略。这将包括对原告商标权利的详细分析、被告侵权行为的法律评估、关键证据的搜集建议、可能的法律抗辩点以及在适当情况下和解或调解的策略。AI 的目标是帮助律师构建一个全面的诉讼计划,以提高胜诉几率并为客户争取最大利益。 其他例子: Prompt 指令词:为一起涉及专利侵权的案件制定诉讼策略,分析专利的有效性、被告的侵权行为以及可能的抗辩理由,提出如何证明侵权和计算损害赔偿的建议。 Prompt 指令词:针对一起劳动合同纠纷案件,分析员工的权益和雇主的责任,提出诉讼策略,包括主张的权益、证据收集的重点以及如何证明雇主的违约行为。 Prompt 指令词:在一场涉及知识产权许可的诉讼中,分析许可协议的条款和双方的权利义务,提出诉讼策略,包括如何证明许可协议的违反、计算损失赔偿以及可能的合同解除条件。 其他可以尝试的场景:模拟法庭 Prompt 指令词:模拟一场涉及商业合同违约的法庭审理,分析原告主张的违约责任和被告提出的免责抗辩,预测法庭可能的判决,并提出如何优化法庭陈述和证据呈现的建议。 预计效果:AI 将根据商业合同法的相关规定和案例法,模拟法庭审理过程。AI 将提供对原告和被告双方可能的论点、证据和法律依据的分析,预测法庭可能的判决结果,并给出如何更有效地在法庭上进行陈述、展示证据和进行交叉审问的建议。这将帮助律师准备更有说服力的法庭策略,以期达到最佳的诉讼结果。 其他例子:(与上述类似)
2024-10-10
有哪些优秀的智能体案例
以下是一些优秀的智能体案例: 在企业自动化方面,新兴的智能体公司有(用于财务后勤),以及横跨销售、安全运营和供应链等领域的许多其他智能体。 在 C 端,社交方向有用户注册后先捏一个自己的智能体,然后让其与他人的智能体聊天,两个智能体聊到一起后再真人介入的有趣场景,还有借 Onlyfans 入局打造个性化聊天的创业公司。 在 B 端,如果字节扣子和腾讯元器是面向普通人的低代码平台,类似 APP 时代的个人开发者,那还有帮助 B 端商家搭建智能体的机会。常见的智能体开发平台有字节的“扣子”(Coze)、Dify.AI 等。
2024-10-07
怎么用chatgpt搜索网络,如小红书等
以下是一些关于使用 ChatGPT 进行网络搜索的信息: GPTs 中有一些与网络相关的应用,如小红书写作专家,其直达链接为。 存在能联网检索的 AI,例如 ChatGPT Plus 用户现在可以开启 web browsing 功能实现联网。 像 Perplexity 结合了 ChatGPT 式的问答和普通搜索引擎的功能,允许用户指定希望聊天机器人在制定响应时搜索的源类型。 Bing Copilot 作为 AI 助手,可简化在线查询和浏览活动。 还有如 You.com 和 Neeva AI 等搜索引擎,提供基于人工智能的定制搜索体验,并保持用户数据的私密性。 需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2024-10-22
怎么用chatgpt搜索外部
使用 ChatGPT 搜索外部信息的方法如下: 1. 可以像 Andrej Karpathy 所做的那样,向 ChatGPT 提出收集特定信息并整理成表格的请求,例如有关规模人工智能及其创始轮次的信息。ChatGPT 会理解请求,并通过特殊方式发出搜索指令,类似于人类使用浏览器搜索。然后接受该查询并转到 Bing 搜索,查找结果,将文本返回给语言模型,让其基于那段文本生成响应。 2. 对于程序开发人员,可利用基于嵌入的搜索实现高效的知识检索。这需要以下步骤: 选择文本嵌入工具,如 Word2Vec、BERT、FastText 等,将文本转化为向量。 构建包含详细信息的数据库,如电影数据库,可以是简单的文本文件或复杂的数据库系统。 对数据库中的信息进行预处理和嵌入,得到向量表示并存储。 当用户提出查询时,将查询进行文本嵌入得到查询向量。 使用快速的向量搜索算法(如余弦相似度、KNN 搜索等)在数据库中找到最接近的向量。 根据找到的向量从数据库中检索相关信息并返回给用户。 还可以将上述步骤封装成 API 或函数,在 ChatGPT 的对话逻辑中调用,当用户提出相关查询时,ChatGPT 调用并返回相关信息。但实际实现可能涉及更多细节和技术挑战。
2024-10-22
AI搜索与传统搜索的比较研究
AI 搜索与传统搜索相比具有以下特点和差异: 360 AI 搜索:定位为新一代答案引擎,在传统搜索网页检索能力基础上,结合大型语言模型的多种技术能力,学习人类思维和语言组织模式,生成优质答案。具有针对模糊问题通过反问和交互理解给出答案、搜索全网丰富内容生成丰富答案、回答更具时效性、通过主动追问帮助用户延展学习等特点。其工作流程包括分析问题语义、提炼搜索关键词、查询全网相关内容、精选高价值网页、进行结构化总结等。Web 端和 H5 端网址为,手机端可扫码下载 360 AI 搜索 APP。 一般情况:如果将人工智能作为搜索引擎,存在幻觉风险,大多数未连接互联网。但有证据表明在某些情况下,如技术支持、决定吃饭地点或获取建议等,若谨慎使用,人工智能能提供比搜索更有用的答案,必应通常比谷歌更好。 竞争格局:今年二月份以来,AI 搜索赛道不断有新产品,市场定位有差异。国内有大模型厂商和搜索厂商或创业团队推出的产品,海外也有成熟和新出的产品。如 Perplexity、ThinkAny 是通用搜索,Phind、Devv、Reportify 是垂直搜索。通用搜索没有明显受众倾向,能回答各类问题;垂直搜索面向特定人群或领域,在特定问题上有更好结果。其好坏没有客观评判标准。
2024-10-16
AI搜索的底层逻辑是怎样的
AI 搜索的底层逻辑主要是“检索增强生成(RAG)”,具体包括以下步骤: 1. 检索(Retrieve):使用用户的查询(query)调用搜索引擎 API,获取搜索结果。 2. 增强(Augmented):设置提示词,将检索结果作为挂载的上下文。 3. 生成(Generation):大模型回答问题,并标注引用来源。 在检索过程中,还涉及以下原理: 1. 信息筛选与确认:对检索器提供的信息进行评估,筛选出最相关和最可信的内容,并验证信息的来源、时效性和相关性。 2. 消除冗余:识别和去除多个文档或数据源中的重复信息,避免在生成回答时出现重复或矛盾。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建结构化的知识框架。 4. 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括排序、归类和整合。 5. 语义融合:必要时合并意义相近但表达不同的信息片段,减少语义重复并增强表达力。 6. 预备生成阶段:将整合好的上下文信息编码成适合生成器处理的格式,如转化为适合输入到生成模型的向量形式。 最后,全新的上下文被传递给大语言模型,大语言模型根据提供的信息生成准确和连贯的答案。影响 AI 搜索的关键因素包括挂载的上下文信息密度和基座模型的智能程度。在响应速度方面,Retrieve 要求联网检索信息的速度快,Generation 要求大模型生成内容的速度快,同时为提高准确度可能存在耗时的重排和获取内容详情步骤。
2024-10-16
请搜索生成式对话crm软件
以下是关于生成式对话 CRM 软件的相关信息: 生成式 AI Studio 方面: 创建聊天提示:可与模型进行自由形式聊天,跟踪之前内容并根据上下文响应。返回语言页面,单击 + CREATE CHAT PROMPT 按钮创建新聊天提示,添加上下文到上下文字段,将相关文本复制到 Responses 下的聊天框,按 Enter 键或单击发送消息,模型会根据提供的额外上下文在约束范围内回答问题。 探索提示库:Prompt Gallery 可让您探索生成式 AI 模型在各种用例中的应用。在 Generative AI Studio 菜单中,单击 Language 可在 Get Started 页面上找到 Prompt Gallery,可从总结、分类、提取、写作和构思等用例中选择并探索。 课程字幕:介绍了生成式 AI Studio 中的一些模型参数,如调整温度(选择概率低、比较不寻常的词)、top K(从可能性最高的 K 个词中随机返回一个词)、top P(从 top P 个词中随机返回一个词的概率)等。 AIGC 在 CRM 中的应用: 个性化营销内容创作:根据客户数据生成个性化营销文案、视觉内容等,提高营销效率和转化率。 客户服务对话系统:开发智能客服系统,通过自然语言交互解答客户咨询、投诉等。 产品推荐引擎:生成产品描述、视觉展示等内容结合推荐算法为客户推荐产品,提升销售业绩。 CRM 数据分析报告生成:自动生成数据分析报告,包括多种形式,加快生产流程。 智能翻译和本地化:提供高质量多语种翻译及本地化服务,打造全球化营销内容。 虚拟数字人和营销视频内容生成:快速生成虚拟数字人形象、场景背景和营销视频内容,降低制作成本。 客户反馈分析:高效分析客户反馈文本和多媒体信息,挖掘需求和潜在痛点。 需要注意的是,AIGC 在应用过程中仍需解决算法偏差、版权和知识产权等伦理法律问题。
2024-10-15