Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有没有关于RAG的实践

Answer

以下是关于 RAG 的一些实践:

  • OpenAI 的实践:从 45%的准确率开始,尝试多种方法,如假设性文档嵌入(HyDE)和精调嵌入等,效果不理想。通过尝试不同大小块的信息和嵌入不同的内容部分,准确率提升到 65%。通过 Reranking 和对不同类别问题特别处理,进一步提升到 85%。最终,通过提示工程、查询扩展等方法结合,达到 98%的准确率。团队强调了模型精调和 RAG 结合使用的强大潜力,尤其是在未使用复杂技术的情况下,仅通过简单的模型精调和提示工程就接近行业领先水平。
  • 本地部署大模型以及搭建个人知识库:利用大模型的能力搭建知识库是 RAG 技术的应用。RAG 应用可抽象为 5 个过程,包括文档加载、文本分割、存储(包括嵌入和向量数据存储)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。
  • 本地部署资讯问答机器人:基于用户问题从向量数据库中检索相关段落并过滤,让模型参考上下文信息回答,实现 RAG。通过 gradio 创建网页 UI 并进行评测,对不同模型如 Qwen-7b、Gemma、Mistral、Mixtral 和 GPT-4 进行测试,得出 GPT-4 表现最好等结论。同时总结指出上下文数据质量和大模型性能决定 RAG 系统性能上限,RAG 能提升答案质量和相关性,但不能完全消除大模型幻觉、信息滞后问题。
Content generated by AI large model, please carefully verify (powered by aily)

References

大模型RAG问答行业最佳案例及微调、推理双阶段实现模式:基于模块化(Modular)RAG自定义RAG Flow

从OpenAI Demo day的演讲整理所得,并不能完全代表OpenAI的实际操作。在提升RAG的成功案例中,OpenAI团队从45%的准确率开始,尝试了多种方法并标记哪些方法最终被采用到生产中。他们尝试了假设性文档嵌入(HyDE)和精调嵌入等方法,但效果并不理想。通过尝试不同大小块的信息和嵌入不同的内容部分,他们将准确率提升到65%。通过Reranking和对不同类别问题特别处理的方法,他们进一步提升到85%的准确率。最终,通过提示工程、查询扩展和其他方法的结合,他们达到了98%的准确率。团队强调了模型精调和RAG结合使用时的强大潜力,尤其是在没有使用复杂技术的情况下,仅通过简单的模型精调和提示工程就接近了行业领先水平。

手把手教你本地部署大模型以及搭建个人知识库

文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

[title]本地部署资讯问答机器人:Langchain+Ollama+RSSHub实现RAG基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现RAG。|创建网页UI最后,通过gradio创建网页UI,并进行评测。生成的Web UI如下:需要上述完整代码的读者,关注本公众号,然后发送fin,即可获取github仓库代码链接。问答测试对于同样的问题和上下文,我基于Qwen-7b、Gemma、Mistral、Mixtral和GPT-4分别进行了多次测试。下面是一些case:qwengemmamistralmixtralgpt4主要结论(只是针对有限的几次测试,个人主观评判)如下:👍 GPT-4表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号✌️ Mixtral表现第二,但没有在回答的时候附上引用💪 Qwen-7b表现第三,也没有在回答的时候附上引用😅 Gemma表现一般,而且回答里面有一些幻觉😅 Mistral表现一般,使用英文回复,不过在回答的时候附上了引用段落编号总结1.本文展示了如何使用Langchain和Ollama技术栈在本地部署一个资讯问答机器人,同时结合RSSHub来处理和提供资讯。2.上下文数据质量和大模型的性能决定了RAG系统性能的上限。3.RAG通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。

Others are asking
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-02-17
知识库RAG方案
RAG(检索增强生成)是一种在 AI 领域中用于处理知识库的方案。 大模型的训练数据有截止日期,当需要依靠不包含在大模型训练集中的数据时,RAG 是主要方法之一。 RAG 的应用可以抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:把文档切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。 基于 Coze 的知识库问答是典型的 RAG 方案,其重要一环是文档切片。但 RAG 方案存在一些缺点,如跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等。 相关的海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html ,国内官方文档:https://www.coze.cn/docs/guides/use_knowledge 。 在实际操作中,如使用外贸大师产品的帮助文档创建知识库时,要注意文档的分片策略会严重影响查询结果。
2025-02-16
知识库中是否有搭建在线RAG知识库的相关内容?
知识库中有搭建在线 RAG 知识库的相关内容。 RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型提供额外的、来自外部知识源的信息。 自顶向下,RAG 的流程分为离线数据处理和在线检索两个过程。离线数据处理的目的是构建知识库,知识按某种格式及排列方式存储在其中等待使用。在线检索是利用知识库和大模型进行查询的过程。 对于 RAG 来讲,检索的质量直接影响生成的结果,常见的检索方法有关键词检索和语义检索。关键词检索是最传统和基础的方法,基于查询词与文档中词语的精确或近似匹配,实现简单但难以处理同义词和上下文语义。语义检索将查询和文档映射到同一语义空间,通过计算向量相似度判断相关性,能捕捉深层语义但计算成本较高。 在构建知识库的流程中,在线检索各个流程的“是什么”与“为什么”同等重要。例如在检索环节,选择合适的检索方法或组合对系统性能至关重要。 大模型存在无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高等缺点,而 RAG 具有数据库存储和更新稳定、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。
2025-02-14
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 的研究人员引入了 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合在一起,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 会接受输入并检索相关支撑文档,给出来源(如维基百科),这些文档与原始提示词组合后送给文本生成器得到最终输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在本地部署方面,可基于用户问题从向量数据库中检索相关段落,根据阈值过滤,让模型参考上下文信息回答问题来实现 RAG。通过创建网页 UI 并进行评测,如对多种模型进行测试,发现 GPT4 表现最好,上下文数据质量和大模型性能决定 RAG 系统性能上限,RAG 能提升答案质量和相关性,但不能完全消除问题。
2025-02-14
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 研究人员引入 RAG 来完成这类任务,它将信息检索组件和文本生成模型结合。 RAG 会接受输入并检索相关支撑文档,给出文档来源(如维基百科),这些文档与原始提示词组合后送给文本生成器得到最终输出,能适应事实随时间变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库对数据的存储和更新稳定,数据更新敏捷且可解释,能降低大模型输出出错可能,便于管控用户隐私数据,降低大模型训练成本。 在本地部署资讯问答机器人方面,可基于用户问题从向量数据库中检索相关段落并过滤,让模型参考上下文信息回答,通过 gradio 创建网页 UI 并进行评测。测试表明,不同模型在回答表现上有所差异,上下文数据质量和大模型性能决定 RAG 系统性能上限,RAG 能提升答案质量和相关性,但不能完全消除问题。
2025-02-13
什么是rag模型
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 对于大语言模型(LLM)来说,存在一些缺点,如无法记住所有知识,尤其是长尾知识;知识容易过时且不好更新;输出难以解释和验证;容易泄露隐私训练数据;规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 允许模型到搜索引擎上搜索问题相关资料,并综合自身知识体系进行回复。但 RAG 的检索环节并非简单操作,还涉及传统搜索的逻辑,如输入问题的纠错、补充、拆分以及搜索内容的权重逻辑等。例如,对于错误表述“中国界世杯夺冠那年的啤酒销量如何”,会先纠错为“中国世界杯夺冠那年的啤酒销量如何”,然后拆分问题进行综合搜索,再将搜索到的资料交给大模型总结输出。 大语言模型技术存在输出结果不可预测、知识有局限性、存在幻觉问题、数据安全性等问题,而 RAG 是解决这些问题的有效方案,它能让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制文本输出,且用户能深入了解 LLM 生成最终结果的过程。并且,RAG 可与微调结合使用,适用于模型回答特定询问或解决特定信息检索任务,但不适合教模型理解广泛领域或学习新的语言、格式或样式。
2025-02-12
有没有lora怎么使用的教程
以下是关于 Lora 使用的教程: 1. 港风胶片 Lora 模型使用方法: 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 Lora。上一期活动链接:。胶片 Lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。 joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 2. Comfyui SDXLLightning 中 Lora 的使用: SDXLLightning 是字节跳动推出的高速文本生成图像模型,包含完整的 UNet 和 LoRA 检查点。用户可以使用 Diffusers 和 ComfyUI 等框架进行配置。模型地址:https://huggingface.co/ByteDance/SDXLLightning/tree/main 。 实际使用时,拿 Lora 的使用来做介绍,使用方法和平常的 Lora 用法一样,但需要注意 CFG 值需要调小,一般设置为 1,另外步数设置根据使用的 Lora 步数为准。 3. Stable Diffusion 中 Lora 的使用: 当想要生成多张同一张脸的照片时,需要用到 Lora 模型。Lora 可以固定照片的特征,如人物特征、动作特征、照片风格。 点击“生成”下面的第三个按钮,弹出新的选项框,找到 Lora,就会出现下载保存到电脑的 Lora 模型。 点击要用的 Lora,会自动添加到关键词的文本框里面。Lora 可以叠加使用,但建议新手不要使用太多 Lora,每个 Lora 后面的数字用于调整权重,一般只会降低权重。 选择 Lora 时,要根据最开始想要生成的照片类型来选择,比如想生成真人模特,对应的 Lora 也要选用真人模特。
2025-02-17
有没有形容在ai应用中 数据很重要的图
在 AI 应用中,数据具有极其重要的地位,主要体现在以下几个方面: 1. 训练过程:计算机通过数据进行自我学习,每一层节点代表的含义由数据决定,数据的质量和偏差会直接影响 AI 学习结果。 2. 模型效果:高质量的数据如同精炼后的汽油,能极大提升模型效果。而国内中文互联网数据质量相对较低,获取高质量数据困难,存在“垃圾进,垃圾出”的问题。 3. 企业应用:企业应确保数据的多样性与真实性,进行数据审查和多源验证,避免历史偏见被放大。很多企业虽认识到数据重要,但数据梳理是漫长枯燥的过程。 4. 避免陷阱:要警惕数据陷阱和新的信息茧房,避免因数据问题导致决策失误。
2025-02-17
我现在想根据我的博士论文,想出一个国家社科基金的选题。但是我的博士论文感觉核心不是特别突出,我希望找到一个AI助手,让AI帮我读论文的PDF格式然后总结出一个最合适的选题,有没有推荐的AI工具?
以下是一些关于利用 AI 辅助完成您需求的建议: 1. 先拆解您的博士论文工作流程,搞清楚每个步骤的输入输出和相互关系。 2. 思考论文中的哪些环节可以引入 AI 工具来提效,一切要从业务逻辑出发,AI 是锦上添花,不能本末倒置。 3. 搭建选题库,明确论文的定位(可用 AI 辅助分析),找相关的对标论文和优秀研究。 4. 在写作环节,可用 AI 辅助拆解对标论文,提炼写作技巧,然后根据借鉴的技巧结合自身特色列出写作大纲,并使用 AI 优化大纲、查找资料、润色文章,但核心内容要自己完成,不能过度依赖 AI。 5. 起标题与配图方面,用 AI 辅助批量生成标题,再自己修改优化,评估标题是否足够吸引眼球,让 AI 分析论文提供配图建议,去免费图库搜索配图。 6. 养成习惯与总结,做每件事前都思考 AI 能提供什么帮助,把整套流程实践几次,形成肌肉记忆,不断打磨完善属于自己的 AI 辅助流程,同时警惕过度依赖,AI 只是辅助,核心能力要靠自己。 目前常见的可用于辅助您的 AI 工具如 ChatGPT 等,但具体的选择还需根据您的实际需求和使用体验来决定。
2025-02-16
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入材质图片,得到经过设计后的成品衣服
目前尚未有成熟的 AI 大模型或智能体能够直接实现输入材质图片就得到经过设计后的成品衣服的功能。但在 AI 领域的不断发展中,可能会有相关的技术和模型在未来出现。
2025-02-16
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入衣服材质图片,得到经过设计后的材质成品衣服
目前尚未有专门的 AI 大模型或智能体能够直接实现您所描述的输入衣服材质图片就得到经过设计后的材质成品衣服的功能。但随着 AI 技术的不断发展,未来可能会出现相关的应用。
2025-02-16
有没有把文字生成图片,并配图的ai软件
以下是一些可以将文字生成图片并配图的 AI 软件: 1. Stable Diffusion:可以根据文本指令生成与文本信息匹配的图片,生成的图片样式取决于使用者输入的提示词,难以出现完全相同的两张输出图片。 2. 无界 AI:可用于快速制作海报底图,在操作步骤上与其他同类软件有相似之处,大致流程包括确定主题与文案、选择风格与布局、生成与筛选、配文与排版。 3. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 4. MidJourney:因高质量的图像生成效果和用户友好的界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您可以根据自己的需求选择使用。在 WaytoAGI 网站(https://www.waytoagi.com/category/104 ),可以查看更多文生图工具。需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-02-16
coze的deepseek实践
以下是关于 coze 的 deepseek 实践的相关信息: 一个提示词让 DeepSeek 的能力更上一层楼: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用:搜索 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 Deepseek,认真阅读开场白后正式开始对话。 设计思路:将 Agent 封装成 Prompt 并储存在文件,通过提示词文件让 DeepSeek 实现同时使用联网和深度思考功能,在模型默认能力基础上优化输出质量,设计阈值系统,用 XML 进行规范设定。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】提供思考方向,Thinking Claude 是设计灵感来源,Claude 3.5 Sonnet 是得力助手。 字节火山上线了 DeepSeek 系列模型并更改了模型服务价格: 2 月 14 日 8 点有直播,直播结束可看回放,相关学习文档可查看。 重点更新:上线 DeepSeek 系列模型,DeepSeekR1、V3 模型分别提供 50 万免费额度和 API 半价活动,即日起至 2025 年 2 月 18 日 23:59:59 所有用户均可享受价格优惠。 2024 年 7 月 18 日历史更新(归档): 《长文深度解析 Coze 的多 Agent 模式的实现机制》:艾木老师深入研究了 Coze 的多 Agent 模式机制,分析了三种节点跳转模式及应用场景和不足。 《揭秘 DeepSeek: 一个更极致的中国技术理想主义故事》:DeepSeek 以独特技术创新崭露头角,发布颠覆性价格的源模型 DeepSeek V2,创始人梁文锋是技术理想主义者。 《10 万卡集群:通往 AGI 的新门票》:分析了 10 万 GPU 集群建设的相关问题,指出数据中心设计和网络拓扑结构对大型 AI 训练集的重要性。
2025-02-16
ai实践的内容
以下是关于 AI 实践的相关内容: 社区 AI 讲师招募 招募要求: 具有丰富的企业端 AI 实践经验,涵盖以下场景之一或多个: AI 生成爆款内容,如借助 AI 分析挖掘同品类爆款,利用 AI 工具生成电商商品图、小红书图文内容、种草短视频等。 公域阵地场景,基于视频号、抖音、小红书、公众号等平台搭建企业营销推广能力,包括矩阵号和 IP 号,通过短视频、直播等方式获取 leads,涉及矩阵号工具、内容抓取分析、脚本创作、AI 剪辑、自动回复评论、无人直播工具等。 私域阵地场景,如朋友圈、小红书、社群、个人 IP 的获客转化,使用销售企微 SCRM 工具、企业智能体进行 AI 内容抓取和自动回复。 服务自动化工具,包括数据监控和预警、流程优化、自动运营等。 快速搭建数据分析看板。 跨境电商场景,如 tiktok 视频制作及投放、电商图片设计、精准营销、语言翻译、AI 独立站建设、社媒私域、批量混剪、海外达人直播、无人直播(数字人直播)等。 具备良好的表达能力,能清晰阐述技术和业务方面的沉淀。 招募流程:感兴趣的小伙伴提交个人简历(包括基本信息介绍、学历、专业、工作经验,以及 AI 企业端的案例),填写问卷,预约电话面谈,面谈通过后进行公开课试讲。 陈财猫:如何用 AI 写出比人更好的文字? AI+内容创作是现阶段的优质赛道,具有完美的产品模型匹配和产品市场匹配,且发展上限高。 AI 写作的实践成果包括营销、小说和短剧创作,开发了智能营销矩阵平台,参与喜马拉雅短故事和短剧写作课程,推出小财鼠程序版 agent。 好文字能引发人的生理共鸣与情绪,AI 因预训练数据量大能学会引发共鸣从而写出好文字。 用 AI 写出好文字的方法:选择合适的模型,评估模型的文风、语言能力、是否有过度道德说教与正面描述趋势、in context learning 能力和遵循复杂指令的能力;克服平庸,平衡“控制”与“松绑”;显式归纳想要的文本特征,通过 prompt 中的描述与词语映射到预训练数据中的特定类型文本,往 prompt 里塞例子。 对 AI 创作的看法:AI 创作的内容有灵魂,只要读者有灵魂,文本就有灵魂;有人讨厌 AI 是因其未改变多数人生活或自身是受害者,作者期望 AI 能力进一步提升以改变每个人的生活。 熊猫 Jay:用 AI+思维模型探索问题的全新解答 案例实践:利用 AI+六顶思考帽做个人 IP 定位。 推荐使用 GPT4,效果更稳定,内容质量更高。包括初始化提示词、回答每顶帽子对应的问题,最终得到答案和建议。 文心 4.0 同样包括初始化提示词、回答每顶帽子对应的问题,并得到答案和建议。 小结:该案例借助六顶思考帽提供不同思考维度,引导全面思考问题。当把思考后的信息输入给 AI 后,能总结出满意的答案和建议。开头提到人的惰性问题,借助 AI 可以更全面剖析个人决策或团队会议中的问题,找到更正确的决策方式。之后,大家可用六顶思考帽+AI 解决困扰自己的问题,无论是个人决策还是团队讨论。
2025-02-13
用Ai进行财务分析的最佳实践
以下是关于用 AI 进行财务分析的最佳实践: 1. 更动态的预测和报告: 生成式 AI 能帮助金融服务团队改进内部流程,简化财务团队日常工作。 可从更多数据源获取数据,并自动化突出趋势、生成预测和报告的过程。 预测方面,能帮助编写公式和查询,发现模式,为预测建议输入并适应模型。 报告方面,能自动创建文本、图表等内容,并根据不同示例调整报告。 会计和税务方面,能帮助综合、总结并提出可能答案。 采购和应付账款方面,能帮助自动生成和调整合同、订单、发票及提醒。 2. 局限性与挑战: 生成式 AI 输出当前有局限性,在需要判断或精确答案的领域,常需人工审查。 面临的挑战包括使用金融数据训练 LLM,新进入者可能先使用公开金融数据微调模型,现有参与者可利用专有数据,但可能过于保守,新进入者有竞争优势。 模型输出准确性至关重要,金融问题答案需尽可能准确,初期人类常作为最终验证环节。 总之,生成式 AI 为金融服务带来巨大变革,有潜力催生多种优势,但也面临挑战,未来消费者将是最终赢家。
2025-02-08
用Ai进行数据分析的最佳实践
以下是关于用 AI 进行数据分析的最佳实践: 流程: 逻辑流程图如下:SQL 分析中,用户描述想分析的内容,后台连接 DB,附带表结构信息让 AI 输出 SQL 语句,校验是 SELECT 类型的 SQL 后执行,将结果数据传给 GPT(附带上下文),让其学习并分析数据,最后输出分析结论和建议,与结果数据一起返回给前端页面渲染图表、展示分析结论。个性化分析中,用户上传文件,前端解析后传给 GPT 分析数据,后续步骤与 SQL 分析一致。 个性化分析示例: 上传的数据均为假数据,包括游戏 A 流水数据、游戏产品数据、页面事件统计和用户行为数据等。包括单维度数据、多维度数据(折线图、柱状图)。有时 AI 会误将数据项作为维度分析,可输入提示告诉它用哪个字段作为维度,也可描述其他数据信息使分析更准确。 总结和展望: ChatGPT 在数据分析领域应用前景广泛,本文案例与技巧展示了其在提高效率、降低技能门槛和支持决策等方面的优势。但案例分析结果可能简单,接入业务时可定制多种分析模板,增加分析多样性。实际业务中处理大量数据时,除长类型字段限制,要指定允许查询或解析的字段,对结果数据进行两次校验。随着技术进步,相信其将为数据分析带来更多创新和突破。 问题与技巧: SQL 分析: 反复校验是否为 SELECT SQL 语句,不仅因 AI 不完全可控,还因不能相信用户输入,防止恶意操作。 到 AI 分析步骤拼接上下文,提供表结构信息和 SQL 语句,助 GPT 更好理解数据和字段意义,使分析更准确。 针对表结构长类型字段,不允许直接查询,最好告诉 GPT 允许查询的字段或 SQL 函数,使生成可控。 个性化分析: 用户上传数据解析后判断格式是否符合要求,超长可限制截取前面若干项。 前端解析用户上传数据后可直接用于渲染数据图表,无需后端返回。 支持用户补充输入,描述数据、字段意义或作用辅助 AI 分析。遇到多维度数据,GPT 可能误将其他字段作为维度分析,可输入特定提示帮助分析。
2025-02-08
企业管理咨询顾问应用AI辅助工作的最佳实践
以下是企业管理咨询顾问应用 AI 辅助工作的一些最佳实践: 对于企业管理者: 1. AI 辅助决策:在小规模决策中运用 AI 分析工具,如利用其分析客户反馈或市场趋势数据,以此作为决策参考。 2. 员工培训计划:制定 AI 工具使用的培训计划,助力团队成员在日常工作中有效利用 AI。 3. 流程优化:识别公司内可能受益于 AI 自动化的重复性任务,先从一个小流程开始测试 AI 解决方案的效果。 4. AI 伦理和政策:着手制定公司的 AI 使用政策,确保 AI 的应用符合伦理标准和法律要求。 对于商业顾问: 1. 工具服务小型企业:生成式 AI 对于小型企业是一个重要的应用场景,如 Sameday 可接电话并预约,Truelark 能处理短信、电子邮件和聊天等。 2. 特定类型企业的垂直化工具:出现了为特定类型企业工作流定制的工具,如 Harvey 和 Spellbook 帮助法律团队自动化任务,Interior AI 和 Zuma 在房地产行业发挥作用。 无论您属于哪个群体,与 AI 协作是一个学习过程。应从小处着手,保持好奇心和开放态度,将 AI 视为强大的工具而非完全依赖的解决方案。同时,始终保持批判性思维,您会发现 AI 不仅能提高工作效率,还能激发创造力,开拓新的可能性。
2025-02-06
本人一般用ai语言模型来搜索所需的市场资料,现在想自学更多ai工具以便之后用ai工具发展副业,可以从哪里开始学习与实践
以下是关于您自学更多 AI 工具以发展副业的学习与实践建议: 1. 基础理解:了解大型语言模型的工作原理和局限性,例如它们在数学计算方面主要基于语言理解和生成,而非专门的数学计算设计,可能会在处理简单数学问题时出错。 2. 学习路径: 规划:明确学习目标和步骤。 记忆:记住关键知识和操作方法。 3. 实践操作: 掌握 GPT 的使用:了解 GPT 如 GPT4 的功能和特点,包括其工具选择和行动(Action)机制。 尝试工具:如 Webpilot,它能让 GPT 支持更实时的联网功能,获取网络资源。具体操作是在新建的 GPT 里勾掉 Web Browsing,然后点击添加 Actions(Add actions),再点击 import from URL 并填入相关网址。 4. 就业与应用: 了解人工智能领域的高薪工作,如数据科学家、机器学习工程师等,学习相关技能以增加就业机会。 关注 AI 技术在金融、医疗、制造业等行业的应用,掌握相关技能以拓展副业发展的可能性。 但需要注意的是,学习 AI 有可能赚钱,但不保证每个人都能成功,是否能赚钱还取决于个人的学习能力、实际应用能力、对市场和商业的理解等因素,需要持续学习和实践。
2025-02-03