直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

RAG 案例

回答

以下是为您提供的关于 RAG 案例的相关内容:

在商业化问答场景中,存在大模型根据知识库回复不准确的情况,如回答牛头不对马嘴、未依据正确内容回答等错误场景,这凸显了优化大模型根据知识库回答准确性的重要性,而在 AI 领域中,此优化过程称为 RAG。

RAG(Retrieval-Augmented Generation)即检索增强生成,由检索器和生成器两部分组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统。

在案例研究中:

  • 案例 B 中,用户查询特定研究论文中的“表格 8”及所列因变量,ChatDOC 能有效检索整个表格,包括标题和内容,准确响应查询,而 Baseline 模型未检索到真正的“表格 8”。
  • OpenAI 在提升 RAG 准确率方面,从 45%开始,尝试多种方法,如假设性文档嵌入和精调嵌入等效果不理想,通过调整信息块大小、嵌入不同内容部分、Reranking、对不同类别问题特别处理、提示工程、查询扩展等方法,最终达到 98%的准确率,强调了模型精调和 RAG 结合使用的潜力。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。[heading3]1、RAG介绍[content]RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合信息检索和文本生成能力的技术,它由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得RAG非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。

通过增强PDF结构识别,革新检索增强生成技术(RAG)

案例B中,用户要查询的是一篇特定的研究论文。该查询要求系统识别论文中的“表格8”,并列举它所列出的所有因变量。表格的标题和内容对于识别这些变量都是必需的。图11和图12显示了ChatDOC和Baseline模型在该案例中的表现。图11 ChatDOC模型在研究论文中定位特定表格的结果(原始文档:[7])图12 Baseline模型在研究论文中定位特定表格的结果(原始文档:[7])ChatDOC有效地检索了整个表格,包括其标题和内容。这种全面的检索使其能够准确地响应查询。Baseline模型没有检索到真正的“表格8”,而只检索到“表格7”下面的文本块(因为它包含“表格8”的文本)。由于Baseline模型的分割策略,“表格8”的内容和同一页面上的其他内容被合并为一个大的分块。这个分块中混合了不相关的内容,与查询的相关性系数较低,因此不会出现在检索结果中。这个案例突出了ChatDOC处理复杂文档结构的卓越能力,以及它在检索特定片段以获得准确响应方面的作用。

大模型RAG问答行业最佳案例及微调、推理双阶段实现模式:基于模块化(Modular)RAG自定义RAG Flow

上面的章节提到了了很多论文,论文的特点决定了他们的方法更多的是从细节出发,解决具体的细节问题。而RAG是更是一个在工业领域大放异彩的技术,下面我们将从RAG Flow的角度介绍几个行业最佳的RAG实践,看看在真实应用场景下应该如何构建RAG Flow。[heading3]1、OpenAI[content]从OpenAI Demo day的演讲整理所得,并不能完全代表OpenAI的实际操作。在提升RAG的成功案例中,OpenAI团队从45%的准确率开始,尝试了多种方法并标记哪些方法最终被采用到生产中。他们尝试了假设性文档嵌入(HyDE)和精调嵌入等方法,但效果并不理想。通过尝试不同大小块的信息和嵌入不同的内容部分,他们将准确率提升到65%。通过Reranking和对不同类别问题特别处理的方法,他们进一步提升到85%的准确率。最终,通过提示工程、查询扩展和其他方法的结合,他们达到了98%的准确率。团队强调了模型精调和RAG结合使用时的强大潜力,尤其是在没有使用复杂技术的情况下,仅通过简单的模型精调和提示工程就接近了行业领先水平。

其他人在问
RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 大模型需要 RAG 进行检索优化,是因为大模型存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在内容黑盒、不可控及受幻觉问题干扰的情况。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且不影响原有知识。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt 中,提交给大模型,此时大模型的回答会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 RAG 由一个“检索器”和一个“生成器”组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息来制作精确和连贯的答案,非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。
2024-12-19
如何搭建一个RAG应用?
搭建一个 RAG 应用可以使用 LangChain 平台,以下是相关步骤和组件: 1. 数据加载器(DocumentLoader):这是一个对象,能从数据源加载数据并转换为包含 page_content(文本内容)和 metadata(元数据,如标题、作者、日期等)的文档对象。 2. 文本分割器(DocumentSplitter):可将文档对象分割成多个较小的文档对象,方便后续检索和生成,因为大模型输入窗口有限,短文本更易找到相关信息。 3. 文本嵌入器(Embeddings):能将文本转换为高维向量的嵌入,用于衡量文本相似度以实现检索功能。 4. 向量存储器(VectorStore):可存储和查询嵌入,通常使用 Faiss 或 Annoy 等索引技术加速检索。 5. 检索器(Retriever):能根据文本查询返回相关文档对象,常见实现是向量存储器检索器,利用向量存储器的相似度搜索功能检索。 6. 聊天模型(ChatModel):可根据输入序列生成输出消息,通常基于大模型如 GPT3 实现文本生成功能。 使用 LangChain 构建 RAG 应用的一般流程如下: 首先,使用合适的数据加载器根据数据源类型加载数据。例如,数据源是网页可用 WebBaseLoader 加载和解析网页得到文档对象。 然后,用合适的文本分割器将文档对象分割成较小的符合要求的文档对象。如文本是博客文章,可用 RecursiveCharacterTextSplitter 分割。 接下来,用文本嵌入器将文档对象转换为嵌入,并存储到向量存储器中。可根据嵌入质量和速度选择合适的嵌入器和存储器,如 OpenAIEmbeddings 和 ChromaVectorStore。 之后,创建向量存储器检索器,传递向量存储器对象和文本嵌入器对象作为参数。 最后,创建聊天模型,根据性能和成本选择合适的模型,如 OpenAIChatModel。 以下是一个使用 LangChain 构建 RAG 应用的示例代码。
2024-12-15
RAG 如何测评?
RAG(检索增强生成)的测评方法如下: 1. 可以使用 TruLens 来实现 RAG 三角形的评估方法,具体步骤为: 在 LangChain 中,创建一个 RAG 对象,使用 RAGPromptTemplate 作为提示模板,指定检索系统和知识库的参数。 在 TruLens 中,创建一个 TruChain 对象,包装 RAG 对象,指定反馈函数和应用 ID。反馈函数可以使用 TruLens 提供的 f_context_relevance、f_groundness、f_answer_relevance,也可以自定义。 使用 with 语句来运行 RAG 对象,并记录反馈数据。输入一个问题,得到一个回答,以及检索出的文档。 查看和分析反馈数据,根据 RAG 三角形的评估指标,评价 RAG 的表现。 2. 评估 RAG 生成的文本质量,常用的评估方法包括自动评估指标(如 BLEU、ROUGE 等)、人工评估和事实验证,以衡量生成文本的流畅性、准确性和相关性。 3. 评估 RAG 检索的效果,包括检索的准确性、召回率和效率,其好坏直接影响生成文本的质量。 4. 通过用户调查、用户反馈和用户交互数据来实现用户满意度评估。 5. 对于生成多模态内容的 RAG 系统,需要通过多模态评估指标来评估不同模态之间的一致性和相关性。 6. 对于需要实时更新的 RAG 任务,要考虑信息更新的及时性和效率进行实时性评估。 7. 为了进行客观的评估,通常会使用基准测试集来进行实验和比较不同的 RAG 系统。这些基准测试集包含了多样化的任务和查询,以涵盖不同的应用场景。 评估方法和指标的选择取决于具体的任务和应用场景。综合使用多种评估方法可以更全面地了解 RAG 系统的性能和效果,评估结果可以指导系统的改进和优化,以满足用户的需求。
2024-12-13
rag调优
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合信息检索和文本生成能力的技术,由检索器和生成器两部分组成。检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息来制作精确和连贯的答案,非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。 LLM 需要 RAG 进行检索优化的原因在于 LLM 存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调模型的接受能力不高且慢,甚至有丢失原有知识的风险。 3. 输出难以解释和验证,最终输出内容黑盒且不可控,可能受到幻觉等问题干扰。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,大模型输出出错的可能大大降低。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 性能提升的策略和方法包括: 1. 优化索引: 按照子部分索引,将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引,适用于有多个主题、有冲突信息的复杂长文本信息。 按照文本框可以回答的问题索引,让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确问题的情况,可减少模糊性。 按照文本块的摘要进行索引,适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后选择合适的信息,大部分场景下选择最相似的即可。
2024-12-05
RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 其旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息,通过检索模式为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。 LLM 需要 RAG 进行检索优化的原因在于 LLM 存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在内容黑盒、不可控及受幻觉问题干扰的情况。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,可降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt 中,提交给大模型,此时大模型的回答会充分考虑到“包含答案的内容”。其最常见应用场景为知识问答系统。在商业化问答场景中,优化 AI 更准确回答问题的过程称为 RAG,它由“检索器”和“生成器”两部分组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确和连贯的答案,非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。
2024-11-30
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 其旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。通过检索的模式,为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾的)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型。其最常见应用场景是知识问答系统。 在一个 RAG 的应用中,可抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把文档切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。
2024-11-28
智能体搭建案例
以下为您提供两个智能体搭建案例: 案例一: 智能体名称:市场分析报告 智能体简介:品牌营销公司在用的生成智能体,输入行业/类目关键词自动检索关联信息并生成报告。数据化呈现更具真实性,附带信息来源网址便于源信息校正。可帮助品牌主/营销人员减少信息收集时间,聚焦决策判断。 应用场景: 目标人群:企业管理层(做发展策略评估)、投资者(评估投资机会)、创业者(评估项目可行性)、营销人员(做营销计划依据)。 当前痛点:信息收集需要长时间;报告的真实性是否可验证;现有大模型做的市场报告太过概念化,不能做有效参考。 应用价值:减少信息收集时间、真实可验证、聚焦决策判断。 智能体主要功能:根据用户的要求或指定的行业、产品,搜索网络信息,生成一份完整的市场调研报告,用数据支撑,并附引用链接。 案例二: 智能体开发平台:字节扣子和腾讯元器。 概念定义:智能体(Agent)简单理解就是 AI 机器人小助手,参照移动互联网,类似 APP 应用的概念。AI 大模型是技术,面向用户提供服务的是产品,很多公司开始关注 AI 应用层的产品机会。 C 端案例:社交方向,用户注册后先捏一个自己的 Agent,然后让自己的 Agent 和其他人的 Agent 聊天,两个 Agent 聊到一起后再真人介入;还有借 Onlyfans 入局打造个性化聊天的创业公司。 B 端案例:帮助 B 端商家搭建 Agent。 智能体开发平台介绍:字节于 2 月 1 日正式推出 AI 聊天机器人构建平台 Coze 的国内版“扣子”,主要用于开发下一代 AI 聊天机器人。国内还有很多智能体开发平台,如 Dify.AI,但个人比较常用的还是扣子。
2024-12-20
Ai视频镜头提示词,及案例
以下是一些 AI 视频镜头的提示词及案例: 一、视频镜头 1. 浅焦镜头(Shallow focus shot) 提示词:一个老奶奶手拿照片面对观众,镜头从照片聚焦到老奶奶脸上,营造出温馨和怀旧的氛围。 2. 窥视镜头(Spy shot) 提示词:镜头在一个隐蔽的位置拍摄。一位头发发白的老奶奶坐在窗前双手捧着一张老照片,面带思念地看着照片,场景温馨。 3. 摇晃镜头(Handheld shot) 提示词:镜头摇晃地跟随一个在战斗中的士兵,画面展示战场上的混乱、飞扬的尘土和四处奔跑的战友,增加紧张和真实感。 4. 穿梭镜头(Hyperlapse shot) 提示词:镜头穿过一条隧道,通过隧道外面是美丽的雪山。 5. 跟随镜头(Tracking shot) 提示词:镜头紧跟一辆在赛道上高速行驶和漂移的跑车。 6. 车载镜头(Carmounted shot) 提示词:镜头从驾驶员或汽车前部的视角出发,展示前方的道路和沿途的建筑物。 7. 动作镜头 提示词:镜头快速捕捉一个男人在激烈的打斗中差点摔倒,增强紧张感和动态性。 8. 无人机视角(Drone perspective shot) 提示词:无人机视角展示一个人站在高山顶峰,俯瞰壮丽景色,远处是连绵的山脉和云海,营造广阔和宏伟的氛围。 9. 低视角镜头 提示词:镜头从楼梯低处仰视一个天空和建筑,增强仰视感和宏伟感 提示词:相机在地上拍摄一个清晨正在跑步的人,背景远处虚焦。 10. 仰拍镜头(Lowangle shot) 提示词:镜头从树底向上拍摄,展示高大的树干和繁茂的树冠。 11. 推镜头(Dolly in) 提示词:镜头从远处向前推进,打开城堡的大门。 12. 旋转变焦镜头 提示词:镜头在变焦的同时快速旋转,展示一个人在旋转木马上。 13. 时间流逝镜头(Timelapse shot) 提示词:镜头固定不动,长时间拍摄并加速播放,展示城市从白天到夜晚的变化。 14. 背光镜头 提示词:镜头逆光拍摄,一个男人站在夕阳下,背光照亮他的轮廓,面部隐在阴影中。 15. 失焦镜头 提示词:镜头失焦拍摄城市的霓虹灯,灯光模糊,呈现出梦幻的效果。 16. 平行镜头(Side dolly shot) 提示词:镜头与骑自行车的少年平行移动,跟随他的骑行路径,保持在相同的水平线上。 17. 镜头推拉变焦 提示词:镜头同时进行推拉和变焦,展示一个人在惊讶地看着远方。 18. 虚实结合镜头 提示词:镜头将真实场景和虚拟场景结合,以 X 光效果拍摄骨骼,以真实场景展示一个手拿着一把钥匙,钥匙的轮廓清晰,背景虚化。 19. 反射镜面镜头(Reflection shot) 提示词:反射镜头,通过浴室镜子反射展示一个人在洗脸的画面 20. 黑白镜头 提示词:黑白镜头,展示一个老街区的复古场景,增强怀旧感。 21. 特写镜头(Closeup shot) 提示词:特写镜头展示一双男性眼睛。 二、全新 AI 整活计划第一期:平行宇宙通勤指南 1. 一致性多镜头提示词 Prompt:女孩后退,拿着斧头的骷髅朝镜头走近。镜头切换,近景正面拍摄女孩的上半身,她满脸惊恐发出尖叫。 基础参数:镜头固定,16:9,10s 视频链接: 2. 一致性多镜头提示词 Prompt:远景拍摄,一个男人转身朝画面左侧走去。镜头切换,近景拍摄男人的上半身,他一脸忧愁。 基础参数:镜头固定,16:9,10s 视频链接: 3. 一致性多镜头提示词 Prompt:穿黄色外套的长发白人女人和卷发黑色外套的男人对视微笑。镜头切换,近景拍摄黄色外套的长发女人微笑的脸。镜头切换,近景拍摄卷发黑外套男人微笑的脸。 基础参数:镜头固定,16:9,10s 视频链接:
2024-12-19
智能客服的实践案例有哪些?
以下是一些智能客服的实践案例: 在销售方面,有“销售:话术总结优缺点”,涉及产品特点、服务优势、目标客户需求和痛点等方面。 详情: 入库时间:2023/10/30 在销售方面,还有“销售:定制销售解决方案”,涵盖企业产品和服务内容、客户需求和参数等内容。 详情: 入库时间:2023/10/30 在客服方面,有“客服:定制客服话术”,包含产品知识、使用方法等 13 个关键词库。 详情: 入库时间:2023/10/30 腾讯运营在智能客服方面的应用: ChatGPT 承担客服功能,通过告知其具体客服身份,要求其解答用户问题并进行私域流量转化。 ChatGPT 能够理解社区用户的评论和问题,并生成合适的回复,管理社区互动,模拟运营人的语言风格,与用户进行更自然的互动。 ChatGPT 可以监测舆情和热点,从多个来源抓取互联网上的热门话题、新闻和社交媒体动态,并对抓取到的文本数据进行深度分析。 其他相关案例:
2024-12-17
AI应用在测试领域的案例
以下是 AI 应用在测试领域的一些案例: 基于模型的测试生成: 状态模型: GraphWalker:基于状态模型生成测试用例,适用于复杂系统的行为测试。 Spec Explorer:微软开发的模型驱动测试工具,通过探索状态模型生成测试用例。 场景模拟: Modelbased Testing:基于系统模型自动生成测试用例,覆盖各种可能的操作场景和状态转换。 Tosca Testsuite:基于模型的测试工具,自动生成和执行测试用例,适用于复杂应用的端到端测试。 实践中的应用示例: Web 应用测试:使用 Testim 分析用户行为和日志数据,自动生成高覆盖率的测试用例,检测不同浏览器和设备上的兼容性问题。 移动应用测试:利用 Test.ai 从需求文档中提取测试用例,确保覆盖关键功能和用户路径,提高测试效率和质量。 复杂系统测试:采用 GraphWalker 基于系统状态模型生成测试用例,确保覆盖所有可能的状态和操作场景,检测系统的边界情况和异常处理能力。 工具和平台: Testim:AI 驱动的自动化测试平台,生成和管理测试用例。 Test.ai:基于 NLP 技术的测试用例生成工具,适用于移动应用和 Web 应用。 DeepTest:利用深度学习生成自动驾驶系统测试用例。 GraphWalker:基于状态模型生成测试用例,适用于复杂系统的行为测试。 Pex:微软开发的智能测试生成工具,自动生成高覆盖率的单元测试。 基于规则的测试生成: 测试用例生成工具: Randoop:基于代码路径和规则生成测试用例,适用于 Java 应用程序。 Pex:微软开发的智能测试生成工具,自动生成高覆盖率的单元测试,适用于.NET 应用。 模式识别: Clang Static Analyzer:利用静态分析技术识别代码模式和潜在缺陷,生成相应的测试用例。 Infer:Facebook 开发的静态分析工具,自动生成测试用例,帮助发现和修复潜在错误。 基于机器学习的测试生成: 深度学习模型: DeepTest:利用深度学习模型生成自动驾驶系统的测试用例,模拟不同驾驶场景,评估系统性能。 DiffTest:基于对抗生成网络(GAN)生成测试用例,检测系统的脆弱性。 强化学习: RLTest:利用强化学习生成测试用例,通过与环境交互学习最优测试策略,提高测试效率和覆盖率。 A3C:基于强化学习的测试生成工具,通过策略梯度方法生成高质量测试用例。 基于自然语言处理(NLP)的测试生成: 文档驱动测试生成: Testim:AI 驱动的测试平台,通过分析文档和用户故事自动生成测试用例,减少人工编写时间。 Test.ai:利用 NLP 技术从需求文档中提取测试用例,确保测试覆盖业务需求。 自动化测试脚本生成: Selenium IDE + NLP:结合 NLP 技术扩展 Selenium IDE,从自然语言描述中生成自动化测试脚本。 Cucumber:使用 Gherkin 语言编写的行为驱动开发(BDD)框架,通过解析自然语言描述生成测试用例。 总结:AI 在生成测试用例方面具有显著的优势,可以自动化和智能化生成高覆盖率的测试用例,减少人工编写测试用例的时间和成本。通过合理应用 AI 工具,前端开发工程师可以提高测试效率、增强测试覆盖率和发现潜在问题,从而提升软件质量和用户体验。但请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-13
现在系统中有一些案例,这些案例包括一些PDF\PPT\WORD等文件,如何引入AI对这些案例进行解析,方便用户智能搜索、对文本中的内容进行全文提问
要引入 AI 对包括 PDF、PPT、WORD 等文件的案例进行解析,以方便用户智能搜索和对文本内容进行全文提问,可以参考以下方法: 1. 对于法律文本阅读场景: 操作动作:选择某一份或者若干份文档上传,AI 完成解析,然后根据需要了解的内容进行提问。 Prompt 指令词示例:“图纸是谁设计的?”“谁负责承担本项目的设计、建设?”“贷款期限是多少?”“谁承担律师费?”“请概括原告的诉讼请求和事实理由?”“根据民事答辩状,被告张三一方还有更好的答辩建议吗?” 拼接模板:根据以下材料内容回答我的问题【每个材料内容都以数字序号+文件名开头】。你需要尽可能的参考材料内容:【文档 1 内容】+【文档 2 内容】+...+【文档 n 内容】+ 我的问题是:参考上述 Prompt 指令词。 2. 对于 AI 产品案例和投稿中的自媒体场景: 例如“创作:社群的每日资讯”“创作:写科普内容”“分发:内容分发”“沟通:小团队与甲方沟通”等案例,涵盖了品牌推广、科普创作、内容分发、团队沟通等方面。 3. 对于 AI 产品案例和投稿中的工作场景: 包括企业运营、教育、游戏/媒体、零售/电商、金融/保险等七大行业的商业化应用,如企业日常办公文档撰写、教育资源平等获取、游戏剧情生成、电商舆情监测、金融理财顾问等方面。
2024-12-10
请给我一些优秀的、好用的智能体的“提示词”案例,我想用于学习如何撰写精良的提示词,以及更加深入的使用AI工具
以下是一些优秀的智能体提示词案例和相关学习建议: 藏师傅教您用 AI 三步制作任意公司的周边图片: 整个流程分为三个部分:获取 Logo 图片的描述;根据 Logo 图片的描述和生成意图生成图片提示词;将图片和提示词输入 Comfyui 工作生成。 提示词示例:“The pair of images highlights a logo and its realworld use for a hitech farming equipment; this logo is applied as a black and white tattoo on lower back of an inmate” 学习提示词运用的建议: 理解提示词的作用:向模型提供上下文和指示,影响模型输出质量。 学习提示词的构建技巧:明确任务目标,用简洁准确语言描述,给予足够背景信息和示例,使用清晰指令,对特殊要求明确指示。 参考优秀案例:在领域社区、Github 等资源中寻找。 实践、迭代、优化:多与语言模型互动,根据输出提高提示词质量。 活用提示工程工具:如 Anthropic 的 Constitutional AI。 跟上前沿研究:关注最新研究成果和方法论。 相关网站分享: Learn Prompting:https://learnprompting.org/docs/intro AI Short:https://www.aishort.top/en/ AIPRM:https://www.aiprm.com/prompts/ Prompt Library:https://promptlibrary.org/
2024-12-09