Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

RAG的优化思路

Answer

RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。

LLM 需要 RAG 进行检索优化的原因在于其存在一些缺点:

  1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。
  2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。
  3. LLM 的输出难以解释和验证,存在黑盒不可控以及受幻觉等问题干扰的情况。
  4. LLM 容易泄露隐私训练数据。
  5. LLM 规模大,训练和运行成本高。

RAG 具有以下优点:

  1. 数据库对数据的存储和更新稳定,不存在学不会的风险。
  2. 数据库的数据更新敏捷,可解释且不影响原有知识。
  3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。
  4. 知识库存储用户数据便于管控用户隐私数据,且可控、稳定、准确。
  5. 数据库维护可降低大模型的训练成本。

在优化 RAG 性能方面,对于向量化基本平权的情况,可引入来源机制进行改进,对向量化的数据进行综合评分,如相似度*置信度等,然后再进行 rebank。特别是对于私有化数据,业务方清楚数据的置信度,有优化空间。

Content generated by AI large model, please carefully verify (powered by aily)

References

问:RAG 是什么?

RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,它旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。简单来说,就是通过检索的模式,为大语言模型的生成提供帮助,从而使大模型生成的答案更符合要求。[heading2]为什么LLM需要RAG?[content]众所周知,大模型已经在很多领域和问题下都取得了很好的效果,那为什么还需要RAG进行检索优化呢?[heading3]LLM的缺点[content]1.LLM无法记住所有知识,尤其是长尾的。受限于训练数据、现有的学习方式,对长尾知识的接受能力并不是很高;长尾数据是指数据集中某些类别数量较少,而其他类别样本数较多的不平衡“长尾”状态。例如在自然语言处理中,一些少见的词汇出现频率很低,而常见的词汇出现频率很高。2.LLM的知识容易过时,而且不好更新。只是通过微调,模型的接受能力其实并不高而且很慢,甚至有丢失原有知识的风险;3.LLM的输出难以解释和验证。一方面最终的输出的内容黑盒且不可控,另一方面最终的结果输出可能会受到幻觉之类的问题的干扰;4.LLM容易泄露隐私训练数据。用用户个人信息训练模型,会让模型可以通过诱导泄露用户的隐私;5.LLM的规模大,训练和运行的成本都很大。[heading3]RAG的优点[content]1.数据库对数据的存储和更新是稳定的,不像模型会存在学不会的风险。2.数据库的数据更新可以做得很敏捷,增删改查可解释,而且对原有的知识不会有影响。3.数据库的内容是明确、结构化的,加上模型本身的理解能力,一般而言数据库中的内容以及检索算法不出错,大模型的输出出错的可能就大大降低。4.知识库中存储用户数据,为用户隐私数据的管控带来很大的便利,而且可控、稳定、准确。5.数据库维护起来,可以降低大模型的训练成本,毕竟新知识存储在数据库即可,不用频繁更新模型,尤其是不用因为知识的更新而训练模型。

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。

RAG性能提升策略和评估方法(产品视角)

但是,您在想一想,现在的向量化基本都是平权的,也就是每个向量的置信度是一致,我举个例子,官媒报道的消息的权重应该大于小道消息。但是现在的权限是相等的,不真实的信息也可以污染这个RAG的搜索结果,而这个位置就可以有优化空间,特别是对于私有化的数据来说,你的数据的置信度业务方是非常清楚的。所以在这方面可以进行改进,引入来源机制进行调整。对向量化的数据进行综合评分,例如相似度*置信度等,然后再进行rebank。以上就是笔者在做这个RAG知识问答上的一些思考,也感谢前辈们的智慧结晶,给与相关的思路和建议。共勉

Others are asking
ragflow
RAGflow 的能力拆解包括以下方面: 文档拆分方式: 通用模式:主要参考每个块的 token 数量,同时考虑语意完整性,切分段落点通常在句号或叹号等完整句子结束处,拆分结果和 langchain 大同小异。 Q&A 问答对:将左边内容加上“问题:”,右边内容加上“回答:”,数据清洗工作量大。 简历:格式不可控,解析易失败,建议官方给出模板。 手册:一整段文字提取,分割处在页面分页、段落分段处,块大小通常较大。 表格:拆分后每一行被当成一个块,第一行表头插入到每一块头部。 数据清洗:RAGflow 提供分段后的数据处理,可自行添加、修改数据及添加标签。测试中添加特定术语和数据并进行召回测试,发现数据正确召回但大模型可能因上下文问题无法匹配。结论包括:RAGflow 召回同时使用向量相似度和关键词相似度并加权得到混合相似度;关键词相似度不仅匹配文本段内容还匹配标签内容;关键词相似度单个实体出现即为 100%;检索内容需同时包含“问题信息”和“答案信息”大模型才能解答;RAGflow 未提供对外接口,应用不便。 此外,还有关于大模型 RAG 问答行业最佳案例及微调、推理双阶段实现模式的相关内容,如在模块化 RAG 范式下探讨 RAG Flow 的设计思路,包括典型的 RAG Flow 模式、特定的 RAG 流实现以及最佳的行业案例,在典型的 RAG Flow 模式方面介绍了微调阶段模式和推理阶段模式等。
2025-03-18
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-03-18
我想知道如何用dify搭建rag工作流
要使用 Dify 搭建 RAG 工作流,首先需要在“工程化框架”选择部分了解 Dify 。然后使用 Dify 推出的“工作流”功能将流程设计和提示词进行落地。具体来说,要建立整体工作流程,但此流程可能缺少知识检索环节。您可以通过延申阅读获取更多信息:Dify——工作流:https://docs.dify.ai/v/zhhans/guides/workflow/introduce 。另外,还有案例提到让 Manus 创建一个需要上传文件的 Dify 工作流,如根据上传的多篇文章写一个脱口秀段子,并制作美观、使用简便的网页来使用这个工作流,最后将此工作流的 api 接入进去,各功能与网页 UI 按钮一一对应,直到上线部署可供使用。
2025-03-18
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 研究人员引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 LLM(大语言模型)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 个主要难题及相应的解决方案。
2025-03-17
作为一个产品经理,我现在要设计一个企业内的销售培训智能体,我手里有产品知识、销售基础知识,我该怎么设计,是只做rag还是做多智能体协同?
以下是为您设计企业内销售培训智能体的一些建议: 首先,了解多智能体模式的设置。它包括全局设置和多个代理之间的编排协调两个核心部分。全局设置涵盖角色设定与回复逻辑、记忆管理以及对话体验等,其中人物设定与回复逻辑应侧重于角色塑造。在智能体的交互流程设计上,要形成完整的互动链条,当用户意图未满足跳转条件时,保持与当前智能体的沟通。设计多轮协作的智能体时,应将其交互设计为闭环结构,以确保用户能自由切换。 其次,动手实践制作智能体。对于 Chat GPT 版本,可按以下步骤:点击“浏览 GPTs”按钮,点击“Create”按钮创建,使用自然语言对话或手工设置进行具体配置,然后调试并发布。对于 Chat GLM 版本,点击“创建智能体”按钮,输入智能体描述,可粘贴准备好的提示词模板,其配置可自动生成,可根据需求调整并上传本地文件作为知识库。 然后,考虑多智能体协同的概念。在处理复杂任务时,单智能体可能面临提示词修改和逻辑不清晰的问题。多智能体协作如吴恩达所举例,每个智能体被赋予不同身份,互相合作对话,能模拟现实工作场景,成为复杂系统,但可能存在效率不高的情况。 最后,您可以根据实际情况选择是采用 RAG 还是多智能体协同。如果任务相对简单,RAG 可能足够;若任务复杂,涉及多个环节和角色的协作,多智能体协同可能更合适。您还可以通过具体的例子,如旅游场景中负责景点推荐、路线规划和食宿安排的三个智能体,来更好地理解和设计。
2025-03-16
什么是rag?
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把文档切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。
2025-03-14
关于使用deepseek的创业思路有什么
以下是一些关于使用 DeepSeek 的创业思路: 1. 将 Agent 封装成 Prompt,并将 Prompt 储存在文件中,以保证最低成本的人人可用,同时减轻调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 4. 照猫画虎参考大模型的 temperature 设计阈值系统,后续根据反馈可能会修改。 5. 用 XML 来进行更为规范的设定,而非 Lisp(有难度)和 Markdown(运行不稳定)。 用户对 DeepSeek 的使用场景包括但不限于: 1. 脑爆活动方案。 2. 生成会议纪要和方案,稍加修改即可呈现高质量的会议总结。 3. 本地搭建超级 AI 助手。 4. 与飞书结合批量处理客户评论。 5. 分析总结复盘内容。 6. 生成专业专用软件详细使用过程。 7. 写课程方案、做产品最小 MVP、做创业想法梳理。 8. 检索资料搜索。 9. 编程,推荐装机硬件。 10. 写小说大纲和细纲,系统查资料,评估买车等。 11. 做雷达算法框架、自媒体公众号文章。 12. 批处理,完成原型设计,产品深度思考,勾画 MVP 关键点,评估。 13. 做项目工作。 14. 教小朋友学英语。 15. 学习量化交易。 16. AI 咨询,为企业赋能。 17. 自动提醒团队形成。 18. 结合飞书多维表格+DeepSeek 搭建创业软件小助手,一句话生成软件落地方案。 19. 解决数学建模的解题思路。 20. 问诊推荐感冒中成药。
2025-02-26
我如何AI应用产品创业思路 目前有商业和项目概念没有IT基础
以下是为您提供的关于 AI 应用产品创业思路的相关内容: 从过去的经验来看,2014 年是移动互联网的红利时代,当时有很多创业者和投资人在深圳的咖啡馆交流项目。有人参与移动互联网创业,做了一款帮人养成好习惯的 APP,积累了百万用户并拿到投资,但因商业化思考较浅等原因项目折戟。 对于现在的 AI 应用创业,有观点认为这一波 AI 更利好大厂,因为创业公司缺乏数据和场景。但也有观点指出,任何技术进步,现有的大公司虽会获利,但创业公司能创造新的价值和场景。以移动互联网为例,最大的四个应用如移动端的 IM 工具、打车、外卖、短视频,除微信外都来自创业公司,且新的技术优势应是解决新问题,而非做更好的上一代产品。此外,AI 时代有利于创业者的一个好处是,利用大模型的能力,创业公司人员更精简,很多 AI 应用创业者仅几人就能完成产品开发上线测试。而且从应用层面看,2B 的应用公司在中国可能会迎来跨越式发展的机会。 如果您没有 IT 基础但有商业和项目概念,建议您: 1. 深入研究目标市场和用户需求,找准新的问题和价值点。 2. 关注创新的应用场景,避免与大厂在已有产品上竞争。 3. 充分利用大模型的能力,优化团队结构,提高效率。 4. 考虑与有 IT 技术能力的团队或个人合作。
2025-02-25
我希望通过ai做好我企业内部的智能巡检。巡检内容主要是针对企业的门店的招牌门头是否合规给出意见。主要合规性检查包括:Logo是否符合公司的设计标准;门头的颜色搭配、尺寸是否符合标准(还要提醒褪色),请问大体应该是各什么思路?
很抱歉,飞书知识库中没有与您关于通过 AI 做好企业内部门店招牌门头智能巡检思路的直接相关内容。但一般来说,您可以考虑以下思路: 1. 数据采集:使用图像采集设备获取门店招牌门头的图像数据。 2. 图像识别技术:运用 AI 的图像识别能力,对采集到的图像进行分析,识别 Logo、颜色、尺寸等元素。 3. 建立标准模型:根据公司设计的标准,建立合规性的模型,以便与采集到的图像进行对比。 4. 智能判断:通过算法判断门头的各项元素是否符合标准,包括 Logo 是否与标准一致,颜色搭配、尺寸是否在规定范围内,以及是否存在褪色等问题。 5. 生成报告和提醒:根据判断结果生成详细的报告,并及时提醒相关人员进行整改。
2025-02-25
我的毕业论文是AIGC的陶寺遗址空间可视分析技术研究,请问有何思路
对于您的毕业论文主题“AIGC 的陶寺遗址空间可视分析技术研究”,以下是一些可能的思路供您参考: 首先,深入了解陶寺遗址的相关背景和特点,包括其历史、文化、地理等方面的信息,这将为后续的分析提供基础。 其次,研究 AIGC 技术在空间可视分析方面的应用现状和前沿成果,了解相关的算法、模型和工具。 然后,考虑如何收集和整理陶寺遗址的空间数据,例如通过实地测量、卫星图像、考古记录等方式获取数据,并对数据进行预处理和清洗。 接着,运用合适的 AIGC 技术和算法,对陶寺遗址的空间数据进行可视化呈现,例如创建三维模型、绘制地图、生成动态图像等,以直观展示遗址的空间特征和关系。 在可视化的基础上,进行深入的分析,例如探究遗址的布局规律、空间结构、功能分区等,挖掘潜在的历史和文化信息。 最后,对研究结果进行评估和验证,确保其准确性和可靠性,并提出进一步的改进和优化方向。 希望这些思路能对您有所帮助,祝您顺利完成毕业论文!
2025-02-18
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
现在页面UI生成有好用的AI辅助思路么
以下是关于页面 UI 生成的一些好用的 AI 辅助思路: 1. 使用 Midjourney 生成 UI 界面:如果想指定生成某个页面(如首页、登录页等),只需添加一段页面指令描述,例如“landing page”“Profile Page”等。通过一系列操作,会发现 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 2. 推荐的网页原型图生成工具: 即时设计:https://js.design/ ,是可在线使用的“专业 UI 设计工具”,更注重云端文件管理、团队协作等。 V0.dev:https://v0.dev/ ,Vercel Labs 推出的 AI 生成式用户界面系统,能通过文本或图像生成代码化的用户界面。 Wix:https://wix.com/ ,用户友好的 AI 工具,无需编码知识即可创建和自定义网站,提供多种模板和设计选择。 Dora:https://www.dora.run/ ,使用 Dora AI 可通过一个 prompt 借助 AI 3D 动画生成强大网站。 3. 案例教程:在开发游戏时,让 AI 生成羊、狼、锤子、栅栏、胜利图片、失败图片等元素,其中部分元素生成较顺利,部分需多次尝试。生成的 HTML 代码简洁,CSS 结构不错但部分定位模式需调整。个人感觉 AI 生成的东西不能完全信任,仍需人工调整,学习和请教专家也是必要的。
2025-01-18
优化PPT排版的ai
以下是关于优化 PPT 排版的 AI 相关内容: AI 生成 PPT 的主要思路: 可以导入大纲到工具生成 PPT,以爱设计为例,其他工具操作方式大同小异,基于 Markdown 语法的内容完成生成。具体步骤可移步到 MindShow、闪击、爱设计等章节。 优化整体结构,按照公司要求自行优化字体、图片等元素,针对下载后的 PPT 可删改内容以达到预期。 利用 AI 制作 PPT 的示例: 卓 sir 确定结合电商网站研究 5 种不同电商模式的主题,通过与 GPT4 交流解决疑问,写出 PPT 大纲并迭代,最后由 WPS AI 优化大纲,内容更丰富且可二次修改。 张翼然介绍了教师使用 AI 的小技巧,如 AI 辅助 PPT 的原理和作用为用户输入→AI 输出→排版,网站会根据内容选择适合的 UI 组件,有的网站配图也由 GenAI 生成,用户不满意可自行选择模板。 希望以上内容对您有所帮助。
2025-03-16
免费优化简历 的AI有哪些推荐
以下是一些免费的优化简历的 AI 工具推荐: 1. ResumeMatcher:这是一个 AI 驱动的开源简历优化工具。它提供智能关键词匹配和深入的分析见解,能够提升简历通过 ATS 筛选的几率。采用 FastEmbed 计算简历与职位匹配度,结合 textacy 提取核心术语,精准优化简历内容。相关链接: 2. Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,能为简历摘要、工作经验和教育等专业部分编写内容,并保持一致语调。 3. Rezi:是一个受到超过 200 万用户信任的领先 AI 简历构建平台,使用先进的 AI 技术自动化创建可雇佣简历的每个方面,包括写作、编辑、格式化和优化。 4. Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结/技能/成就生成器和 AI 驱动的简历工作匹配。 更多 AI 简历产品,还可以查看这里:https://www.waytoagi.com/category/79 。以上工具都可以帮助您快速、高效地创建出专业的简历,您可以根据自己的需要选择最适合您的工具。需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-03-13
有没有能自动帮我优化生成图像的Agent
以下是为您找到的一些可能有助于自动优化生成图像的 Agent 相关信息: Agent Scheduler:在 Stable Diffusion 中,可通过点击排队设置任务。在控制面板中能看到设置的任务及处理状态,可暂停或禁用队列自动处理。能设置多个任务,完成后在任务历史中查看参数和结果,不满意还可重新生成。如需该插件,可添加公众号【白马与少年】回复【SD】获取。 Mistral AI 推出的 Le Chat 更新版:支持聊天中搜索、PDF 上传、编程、图像生成等功能。图像生成基于 FLUX1.1 pro 模型,可免费使用。新增 Canvas 功能,以及自动化代理(Agents)可定制高频任务。 DALL·E 自动优化提示词:提供了详细的原 prompt 建议,包括绘画和数字方面的相关描述,以及生成图像的要求和注意事项。
2025-03-12
请帮我推荐优化大模型+知识库的提示词技巧,重点是解决将知识库配置给大模型做RAG后,召回率不高或者不遵循指令。
以下是关于优化大模型+知识库的提示词技巧,以解决将知识库配置给大模型做 RAG 后召回率不高或者不遵循指令的问题: 首先,了解 LLM 应用性能优化的推荐路径: 1. 从 prompt 工程开始把 LLM 应用快速跑起来。 2. 若遇到表现性能不足等问题,如结构化提示词占用上下文过长,可尝试精简提示词长度;若指令遵循度不足,则加强指令约束。 3. 若提示工程无法满足要求,分析问题,若缺失知识,先简单做知识库 RAG。 4. RAG 之后若想让模型表现更收敛更稳定,尝试微调模型。 5. 微调模型后,若模型表现变好,使用更多高级 RAG 技术,构造输入输出样本,进一步用于微调模型,构建正向迭代循环。 需要注意的是,该路径有个隐藏前提:该 LLM 应用依赖外部知识,需要 RAG。若不需要外部知识,则不需要使用 RAG,可以直接进入 prompt 工程与微调的正向迭代循环。 对于 RAG 流程中的检索有用信息部分,有以下改进策略: 1. 优化索引: 按照子部分索引:将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引。适用于有多个主题、有冲突信息的复杂长文本信息,确保与查询相关的上下文。 按照文本框可以回答的问题索引:让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确的问题,减少模糊性。 按照文本块的摘要进行索引:适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后,选择策略,大部分场景下选择最相似的即可。 在从知识库中检索出内容后利用大模型进行总结时,有两点需要注意: 1. 优化 Prompt,但此处不展开,可参考相关文章。 2. 选择合适的大模型,考虑上下文长度、聪明度和生成速度。若回答场景是很长的文档,可能更关注上下文长度;大多数情况下,大模型越聪明,生成速度可能越慢。
2025-03-12
我有个计算流体力学相关的数值模式,代码是C++写的,几万行,有多个文件,各个文件之间是相互关联,现在想对代码的运行效率、代码规范等进行优化升级,有什么AI工具推荐
目前在您所描述的这种对大规模、相互关联的 C++代码进行运行效率和代码规范优化升级的场景中,暂时没有特别直接适用的 AI 工具。不过,您可以考虑使用一些传统的代码分析和优化工具,例如: 1. ClangTidy:这是一个用于 C++代码的静态分析工具,可以帮助发现代码中的潜在问题,并提供一些改进建议。 2. Valgrind:用于检测内存管理错误和性能问题。 同时,您也可以利用一些代码版本管理工具,如 Git,来更好地跟踪和管理代码的修改。
2025-03-08
优化简历的ai
以下是一些可以优化简历的 AI 工具: 1. ResumeMatcher:这是一个 AI 驱动的开源简历优化工具。它能提供智能关键词匹配和深入分析见解,提升简历通过 ATS 筛选的几率。采用 FastEmbed 计算简历与职位匹配度,结合 textacy 提取核心术语,精准优化简历内容。相关链接: 2. Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,能为简历摘要、工作经验和教育等专业部分编写内容,并保持一致语调。 3. Rezi:是一个受到超过 200 万用户信任的领先 AI 简历构建平台,使用先进的 AI 技术自动化创建可雇佣简历的每个方面,包括写作、编辑、格式化和优化。 4. Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结/技能/成就生成器和 AI 驱动的简历工作匹配。 5. 超级简历优化助手:分析简历内容并提供优化建议,帮助用户优化简历提高求职成功率。 此外,还有更多 AI 简历产品,您可以查看这里:https://www.waytoagi.com/category/79 。您可以根据自己的需要选择最适合您的工具。
2025-03-07