Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

专门为大模型RAG设计的知识库产品 有哪些?

Answer

以下是一些专门为大模型 RAG 设计的知识库产品:

  1. Metaso.cn:适用于学术、研究领域。
  2. So.360.com:在生活方面提供便捷的搜索服务。
  3. Felo.ai/search:具有综合性的特点。
  4. Devv.ai:主要面向程序员、开发者。
  5. Perplexity:属于付费产品,提供高质量的服务。
  6. Bing.com:具有通用性。
  7. Google.com:在全球范围内提供精准的搜索结果。

RAG 就像一个超级智能的图书馆员,其工作流程包括检索、增强和生成三个环节。在不改变大模型本身的基础上,通过外挂知识库等方式,为模型提供特定领域的数据信息输入,让模型能基于特定的数据生成内容、降低幻觉,实现对该内容更准确的信息检索和生成。

RAG 具有成本效益、灵活性和可扩展性等优点,比如实现成本更低,可以利用多种数据源,能随时增加或更新知识库中的内容。但也存在回答准确性不够的缺点。

在一些示例中,如设定使用阿里千问模型作为 AI 模型,将角色设定为“美嘉”并按照其人设、背景和对话风格设定提示词,放入《爱情公寓》全季剧情作为知识库,从而让“美嘉”拥有过往“记忆”。

Content generated by AI large model, please carefully verify (powered by aily)

References

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

[title]【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)大语言模型:是一个学习过无数本书、拥有无穷智慧的人。他读过无数的书、看过无数的段子,因此对公共知识、学识技能、日常聊天十分擅长。然而,在工作场景下,只会聊天侃大山可不行,你想让他帮你干活。这个时候,就需要“提示词”出场了,提示词:是你告诉这个全知全能的人,他是一个什么样的角色、他要专注于哪些技能,让他能够按照你的想法,变成一个你需要的“员工”。知识库:相当于你给这个“聪明”员工的发放了一本工作手册。即使是看过再多的书、浏览过再多的文字,也不会准确的知道见到老板娘过来吃饭要打三折,张梦飞过去吃饭要打骨折。而知识库,就是把这些内容写在了工作手册上。让这个聪明的员工,见到有人来的时候,就翻一翻手册,然后再做出反应。我的设定:AI模型:这里使用的是阿里千问模型。提示词:这里设定的角色是“美嘉”,是按照美嘉的人设、背景和对话风格做的设定。知识库:这里放的是《爱情公寓》全季的剧情,让“美嘉”拥有了自己过往的“记忆”,知道自己做过什么、好朋友是谁等等。图中右侧是一个十分简单的问答,我问:“你是谁?你和子乔在台球厅吵架那次是为了什么吵架?”她的回复是:“我是陈美嘉,那次在台球厅和吕子乔吵架是因为他约会被人撞见,我讽刺他脸大影响信号,他还反击我。后来谈到过去的事情,我指责他忘恩负义,他就说我平。最后,我伤心地说要分手,因为他之前甩过我。”

张翼然:用AI为教师减负(3H).pdf

在不改变⼤模型本⾝的基础上,通过外挂知识库等⽅式,为模型提供特定领域的数据信息输⼊,让模型能基于特定的数据⽣成内容、降低幻觉,实现对该内容更准确的信息检索和⽣成RAG就像是一个超级智能的图书馆员:Retrieval-检索:图书馆员根据你的描述,从庞⼤的知识库中找到与你问题相关的信息。Augmented-增强:它会筛选和优化这些信息,确保找到的是最相关的段落和信息。Generation-⽣成:它会把这些信息整合起来,⽤通俗易懂的语⾔给出一个连贯的回答。优点:•成本效益:相⽐训练和维护一个⼤型专有模型,RAG的实现成本更低•灵活性:RAG可以利⽤多种数据源,包括结构化数据和⾮结构化数据。它能迅速适应不同领域和变化的数据•可扩展性:可以随时增加或更新知识库中的内容,⽽不需要重新训练模型缺点:•相⽐于专有模型的⽅案,他的回答准确性不够AI搜索引擎,也是⼤语⾔模型的搜索结果RAG1.Metaso.cn:学术、研究2.So.360.com:⽣活、便捷3.Felo.ai/search综合4.Devv.ai:程序员、开发者5.Perplexity:付费、⾼质量6.Bing.com:通⽤7.Google.com:全球、精准

张梦飞 :AI商用级问答场景,怎么让AI+知识库回答的更准确?一篇专门为小白讲透RAG而作的教程(上篇)

[title]张梦飞:AI商用级问答场景,怎么让AI+知识库回答的更准确?一篇专门为小白讲透RAG而作的教程(上篇)[heading1]一、对话示例以下是一个问答机器人的界面。这是一个示例,你可以把右侧的对话当做是微信的对话框,这些对话交互是可以在任何一个受支持的窗口下实现的。上方页面左侧画红框的地方,是这个“问答机器人”的配置,右侧是与“机器人”的一轮对话。问答机器人的配置这里有三处配置:AI模型提示词知识库。模型、提示词、知识库三者可以想象成:大语言模型:是一个学习过无数本书、拥有无穷智慧的人。他读过无数的书、看过无数的段子,因此对公共知识、学识技能、日常聊天十分擅长。然而,在工作场景下,只会聊天侃大山可不行,你想让他帮你干活。这个时候,就需要“提示词”出场了,提示词:是你告诉这个全知全能的人,他是一个什么样的角色、他要专注于哪些技能,让他能够按照你的想法,变成一个你需要的“员工”。知识库,相当于你给这个“聪明”员工的发放了一本工作手册。即使是看过再多的书、浏览过再多的文字,也不会准确的知道见到老板娘过来吃饭要打三折,张梦飞过去吃饭要打骨折。而知识库,就是把这些内容写在了工作手册上。让这个聪明的员工,见到有人来的时候,就翻一翻手册,然后再做出反应。那我这里的设定:AI模型:这里使用的是阿里千问模型。提示词:这里设定的角色是“美嘉”,是按照美嘉的人设、背景和对话风格做的设定。知识库:这里放的是《爱情公寓》全季的剧情,让“美嘉”拥有了自己过往的“记忆”,知道自己做过什么、好朋友是谁等等。

Others are asking
rag的召回策略
RAG(检索增强生成)的召回策略主要包括以下方面: 1. 检索是 RAG 框架的核心组件之一,其质量和效率对系统性能至关重要。 检索策略:需确定何时进行检索及如何选择要检索的信息,可根据任务和上下文调整。 检索粒度:能以不同粒度进行,选择取决于任务要求和数据结构。 检索方法:包括基于关键字、实体检索、自然语言查询和知识图检索等,各有适用情境和优势。 检索效率:在实时应用中,优化检索过程以降低延迟和资源消耗是重要任务。 外部数据源:可从多种外部数据源检索,选择合适的数据源对获取准确丰富信息很关键。 2. 随着 RAG 的发展,出现了自适应的检索(也称作主动检索),其与 LLM Agent 核心思想相似。 RAG 系统可主动判断检索时机和结束流程,输出最终结果。 根据判断依据,可分为 Promptbase 和 Tuningbase 两种方式。 Promptbase 方式通过 Prompt Engineering 让 LLM 控制流程,如 FLARE 案例。 Tuningbase 方式对 LLM 微调使其生成特殊 token 来触发检索或生成,如 SelfRAG 案例。 3. 在 RAG 系统开发中,为解决文档整合限制等问题,可采取以下措施: 调整检索策略:LlamaIndex 提供多种从基础到高级的检索策略,如基础检索、高级检索与搜索、自动检索、知识图谱检索、组合/层级检索等,以适应不同需求和场景,提高检索精确度和有效性。 微调嵌入技术:对开源嵌入模型进行微调是提高检索准确度的有效手段,LlamaIndex 提供了详细的微调指南和示例代码片段。
2025-01-23
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 其旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。通过检索的模式,为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. 知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. 输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. 容易泄露隐私训练数据。 5. 规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,可降低大模型输出出错的可能。 4. 便于管控用户隐私数据,且可控、稳定、准确。 5. 可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 在一个 RAG 的应用中,可以抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-01-21
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构。 它旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。通过检索的模式,为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 在实现 RAG 的应用时,可以抽象为以下 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-01-21
rag分几种模式
RAG 主要分为以下几种模式: 1. 基础 RAG(Naive RAG) 2. 高级 RAG(Advanced RAG) 3. 模块化 RAG(Modular RAG) 其工作流程包括: 1. 上传文档:用户上传包含知识的文档,支持 txt、pdf、docx 等格式,LangChain Chatchat 会将文档转换为 Markdown 格式。 2. 文本切割:为了便于分析和处理,将长文本切割为小块(chunk)。 3. 文本向量化:将切割的 chunk 通过 embedding 技术,转换为算法可以处理的向量,存入向量数据库。 4. 问句向量化:用户提问后,同样将用户的问句向量化。 5. 语义检索匹配:将用户的问句与向量数据库中的 chunk 匹配,匹配出与问句向量最相似的 top k 个。 6. 提交 Prompt 至 LLM:将匹配出的文本和问句,一起添加到配置好的 prompt 模板中,提交给 LLM。 7. 生成回答:LLM 生成回答,返回给用户。 在典型的 RAG Flow 模式方面,包括以下微调阶段模式和推理阶段模式。 此外,RAG 就像是一个超级智能的图书馆员,具有检索、增强和生成三个步骤。其优点包括成本效益、灵活性和可扩展性;缺点是回答准确性相对专有模型的方案不够。
2025-01-16
解释一下RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 在实际应用中,如本地部署大模型以及搭建个人知识库时,利用大模型搭建知识库就是 RAG 技术的应用。RAG 的应用可抽象为文档加载、文本分割、存储(包括嵌入和向量数据存储)、检索、输出这 5 个过程。在产品视角下,RAG 常见应用于知识问答系统,其核心流程是根据用户提问从私有知识中检索相关内容,与提问一起提交给大模型生成回答。
2025-01-16
解释一下RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 在实际应用中,如本地部署大模型以及搭建个人知识库时,利用大模型搭建知识库就是 RAG 技术的应用。RAG 的应用可抽象为文档加载、文本分割、存储(包括嵌入和向量数据存储)、检索、输出这 5 个过程。在产品视角下,RAG 常见应用于知识问答系统,其核心流程是根据用户提问从私有知识中检索相关内容,与提问一起提交给大模型生成回答。
2025-01-16
知识库中已有的ai工具按能力分类列举
以下是知识库中已有的 AI 工具按能力分类列举: 工具入门篇 数据工具: 多维表格小白之旅 适用人群:Excel 重度使用者、手动数据处理使用者、文件工作者 简要说明:用表格+AI 进行信息整理、提效、打标签,满足 80%数据处理需求 编程工具: Cursor 的小白试用反馈 适用人群:0 编程经验、觉得编程离我们很遥远的小白 简要说明:通过 AI 工具对编程祛魅,降低技术壁垒 音乐工具: Suno 的小白探索笔记 适用人群:0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白 简要说明:AI 赋能音乐创作,无需乐理知识即可参与音乐制作 100 个 AI 应用 81 100: AI 菜谱口味调整工具 已有产品:下厨房口味调整功能 一句话介绍:根据用户反馈调整菜谱口味。 AI 语言学习纠错平台 已有产品:英语流利说纠错功能 一句话介绍:帮助语言学习者纠正错误。 AI 电影剧情分析系统 已有产品:豆瓣电影剧情分析工具 一句话介绍:分析电影剧情,提供深度解读。 AI 办公文件分类系统 已有产品:腾讯文档分类功能 一句话介绍:自动分类办公文件,方便管理。 AI 美容护肤方案定制平台 已有产品:美丽修行定制方案功能 一句话介绍:根据用户肤质定制护肤方案。 21 40: AI 菜谱生成平台 已有产品:豆果美食 APP 一句话介绍:根据用户口味和现有食材生成个性化菜谱。 AI 语言学习助手 已有产品:沪江开心词场 一句话介绍:辅助用户学习语言,提供个性化学习方案。 AI 电影推荐系统 已有产品:爱奇艺智能推荐 一句话介绍:根据用户喜好推荐电影,发现优质影片。 AI 办公自动化工具 已有产品:WPS Office 一句话介绍:提高办公效率,实现自动化办公流程。
2025-01-23
如何构建企业AI知识库
构建企业 AI 知识库可以参考以下步骤: 1. 结合企业私有数据与 RAG 模型的私有化部署。如有特殊需求,还可以进行模型的 Finetuning(微调),以优化性能。基础模型负责提供推理提示,RAG 用于整合新知识,实现快速迭代和定制化信息检索。 2. 确定功能范围,包括编写【prompt】提示词,设定 Bot 的身份和目标。 3. 创建【知识库】: 整理“关键字”与“AI 相关资料链接”的对应关系,并将信息存储起来。 选择创建知识库路径,如个人空间知识库创建知识库。 支持的知识库文档类型包括本地文档、在线数据、飞书文档、Notion 等,可根据需求选择,如本次使用【本地文档】。 按照操作指引上传文档、分段设置、确认数据处理。 小技巧:知识库的好用程度与内容切分粒度有关,可以在内容中加上特殊分割符,如“”,便于自动切分数据。分段标识符号选择“自定义”,内容填“”。如果内容有误需要编辑,可以点击具体内容,鼠标右键会看到“编辑”和“删除”按钮进行相应操作。 在构建过程中,KnowHow 很重要,同时工作流不必复杂,能实现目的即可,所以在设计 Bot 前“确定目的”和“确定功能范围”很关键。
2025-01-23
本地怎么构建知识库
以下是关于本地构建知识库的详细步骤和相关知识: 一、硬件配置要求 运行大模型需要较高的机器配置,个人玩家可能负担不起。 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 二、RAG 技术 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 RAG 是指检索增强生成(Retrieval Augmented Generation),当需要依靠不包含在大模型训练集中的数据时,通过以下 5 个过程实现: 1. 文档加载(Document Loading):从多种不同来源加载文档。LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化的数据、SQL 在内的结构化的数据,以及 Python、Java 之类的代码等。 2. 文本分割(Splitting):文本分割器把 Documents 切分为指定大小的块。 3. 存储:涉及将切分好的文档块进行嵌入(Embedding)转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 三、本地知识库搭建步骤 如果想要对知识库进行更加灵活的掌控,需要一个额外的软件:AnythingLLM。 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后,会进入到其配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式。AnythingLLM 提供了两种对话模式: Chat 模式:大模型会根据自己的训练数据和上传的文档数据综合给出答案。 Query 模式:大模型仅仅会依靠文档中的数据给出答案。 测试对话:当上述配置完成之后,就可以跟大模型进行对话了。 四、写在最后 “看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可以联系作者或者加作者的免费知识星球(备注 AGI 知识库)。
2025-01-22
如何搭建定制知识库
以下是关于如何搭建定制知识库的相关内容: 要搭建基于 GPT API 的定制化知识库,需要给 GPT 输入定制化的知识。但 GPT3.5(即当前免费版的 ChatGPT)一次交互支持的 Token 数量有限,约 4096 个,相当于 3000 个单词或 2300 个汉字,容量对于多数领域知识不够。为处理大量领域知识,OpenAI 提供了 embedding API 解决方案,可参考 OpenAI embedding documents。 embeddings 是浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。向量是用一串数字表示大小和方向的量,在计算机科学和数据科学中通常用列表表示。向量之间的距离是度量相似性的方法,常见的如欧几里得距离。在 OpenAI 词嵌入中,靠近的向量词语在语义上相似。 LlamaIndex 是更高一层 LangChain 的抽象,之前叫 GPT Index。之前的文章中的例子使用了 LlamaIndex 包,它简化了 LangChain 对文本分割和查询的接口,并提供了更丰富的 Data Connector。LlamaIndex 只针对 GPT Model 做 Index,而 LangChain 可对接多个 LLMs,可扩展性更强。参考 https://gptindex.readthedocs.io/en/latest/ 在基于大模型+知识库的 Code Review 实践中,对于自定义知识库飞书文档(自定义),没有格式要求,能看懂正确代码即可。可直接使用 LangChain 提供的文档加载类,对有权限的飞书文档进行获取,使用 CharacterTextSplitter/RecursiveCharacterTextSplitter 将文本分割成固定长度的块(chunks),方法有两个主要参数:chunk_size 控制每个块的长度,如设置为 1024,则每个块包含 1024 个字符;chunk_overlap 控制相邻两个块之间的重叠长度,如设置为 128,则每个块会与相邻块重叠 128 个字符。 因为大模型有足够多的数据,想让大模型按要求执行就需要用到“Prompt 提示词”。 最近各家大厂接连放大招,AI 技术和应用突飞猛进,GPT4 接口已支持最大 32K 输入,AI 的开发和使用门槛会越来越低。垂直领域知识库的搭建和优化可能更多是业务问题,而非技术问题。
2025-01-22
如何搭建私人知识库
搭建私人知识库可以参考以下方法: 1. 基于 GPT 搭建: 给 GPT 输入(投喂)定制化的知识,但 GPT3.5(即当前免费版的 ChatGPT)一次交互(输入和输出)只支持最高 4096 个 Token,约等于 3000 个单词或 2300 个汉字,容量对于绝大多数领域知识不够。 OpenAI 提供了 embedding API 解决方案,embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度,大距离表示低关联度。 将大文本拆分成若干个小文本块(chunk),通过 embeddings API 将小文本块转换成 embeddings 向量,在一个地方(向量储存库)中保存这些 embeddings 向量和文本块,当用户提出问题时,将问题先通过 embeddings API 转换成问题向量,然后与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的 prompt(问题/提示词),发送给 GPT API。 2. 本地部署大模型搭建: 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用,在进行本地知识库的搭建实操之前,需要先对 RAG 有大概的了解。 RAG 的应用包括文档加载(从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器)、文本分割(把 Documents 切分为指定大小的块)、存储(将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库)、检索(通过某种检索算法找到与输入问题相似的嵌入片)、Output(把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案)。 文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理。
2025-01-22
我是一名数据产品经理,想转行ai产品经理,该从哪里入手。你的知识库里有哪些可以帮到我。最好把他们列举出来,具体一些最好有步骤
以下是为您整理的从数据产品经理转行 AI 产品经理的相关知识和建议: 一、AIPM 技能树 1. 理解产品核心技术 了解基本的机器学习算法原理,有助于做出更合理的产品决策。 2. 与技术团队有效沟通 掌握一定的算法知识,减少信息不对称带来的误解。 3. 评估技术可行性 在产品规划阶段,能更准确地判断某些功能的技术可行性。 4. 把握产品发展方向 了解算法前沿,更好地把握产品的未来发展方向。 5. 提升产品竞争力 发现产品的独特优势,提出创新的产品特性。 6. 数据分析能力 掌握相关知识,提升数据分析能力。 二、AI 提示词工程师岗位技能要求 1. 学历和专业背景 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 2. 熟悉 AI 工具 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 3. 项目经验 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 4. 技术理解 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 5. 数据分析与决策 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 6. 创新思维 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 7. 技术关注 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 8. 编程能力 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 三、AI 市场与 AI 产品经理分析 当前有两个场景: 1. 企业(包括传统企业和互联网企业)如何实现 AI 转型或用好 AI。 2. 产品经理如何转型 AI 产品经理。 希望以上内容对您有所帮助。
2025-01-21
3d模型自动生成的ai 啊
在 3D 模型生成方面,AI 主要完成了对 3D 模型生成流程的“一步到位”。工作流中的每一个环节几乎都需要一位或一组 3D 美术工程师来完成,而使用 3D 生成模型可以直接完成一个可调整的 3D 粗模,大大提升效率。 以下为一些 AI 生成 3D 模型的工具介绍: 1. 3dfy.ai: 概览:是一家专注于开发先进技术的公司,能将稀疏数据转化为逼真的三维世界,领导团队由计算成像领域资深专家组成。 使用场景:数字 3D 互动体验流行度提升,但受 3D 内容可用性限制,其技术能利用稀疏数据自动创建高质量 3D 模型。 目标用户:数字内容创作者和艺术家、游戏开发者和动画制作人、教育和培训行业专业人士、医疗行业、建筑和工程领域。 应用案例:暂未提及。 2. xiaohu.ai 相关 3D 信息: MakeACharacter:一键生成 3D 数字人,可自定义面部特征,基于真实人类扫描数据,使用 Unreal Engine 渲染,支持中英文提示,兼容多个行业应用。 Rodin Gen1:3D 原生生成模型,拥有 1.5B 参数,可实现 3Dto3D 生成,生成 3D 模型及物理基础渲染材质,支持 3D LoRA 技术。 Skybox AI 0.9 版本更新:可以从文本提示或草图生成 360 度 3D 世界,使用 NeRF 技术,增强图像的空间深度和真实感,提供不同分辨率的 3D 网格下载。 扫描物体生成 3D 模型:使用 APP 扫描物体,完成 3D 全貌捕获,创建 AR QR 码,展示物体于任何地点,在苹果新品官网展示中有应用。
2025-01-23
大模型学习之路
大模型的学习之路包括以下几个重要方面: 什么是大模型: 通俗来讲,大模型是通过输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系。 4. 就业指导:为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 Token: Token被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法。在将输入进行分词时,会对其进行数字化,形成一个词汇表。 大模型的运作原理: 以“我今天吃了狮子头和蔬菜”这句话为例,在transformer中,会由attention层对这句话加入更多信息来补充,最终层与层之间,哪些信息需要补充、保留、传递,均由模型自主学习完成。这些层就好像人在阅读文章时的连贯性注意力的过程,大模型以词向量和transformer的模型学习海量知识,把知识作为向量空间中的一种关系网进行存储,并在接受输入时,通过向量空间中的一系列匹配进行输出。 大模型的构建过程: 1. 收集海量数据:如同教孩子成为博学多才的人,让其阅读大量书籍、观看纪录片、与人交谈,对于AI模型就是收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。 2. 预处理数据:像为孩子整理资料,AI研究人员也需要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、将文本分割成易于处理的片段。 3. 设计模型架构:为孩子设计学习计划,研究人员需要设计AI模型的“大脑”结构,通常是一个复杂的神经网络,如使用Transformer架构。 4. 训练模型:如同孩子开始阅读和学习,AI模型开始“阅读”提供的数据,通过反复尝试预测句子中的下一个词,逐渐学会理解和生成人类语言。
2025-01-23
帮我用最简单的方法解释一下时间序列模型
时间序列模型是用于分析和处理随时间变化的数据的一类模型。 例如,在评估 GPT4V 对时间序列和视频内容的理解时,会考虑其对现实世界中随时间展开的事件的理解能力,像时间预测、排序、定位、推理和基于时间的理解等。 在视频生成方面,如 Video LDM 模型,先训练图像生成器,再微调添加时间维度以生成视频。 总的来说,时间序列模型旨在理解和预测数据在时间上的变化规律和趋势。
2025-01-23
以豆包为例,如何通过API调用豆包大模型?
要通过 API 调用豆包大模型,以下是一些相关步骤和信息: 1. 直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。 获取 key 的视频教程: 获取 key 的图文教程:以下是参考配置。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 2. 创建大模型问答应用: 首先可以通过创建一个百炼应用,来获取大模型的推理 API 服务,用于实现 AI 助手。 创建应用: 进入百炼控制台的,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。 在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布,我们将在后面的步骤中去解决这一问题。 获取调用 API 所需的凭证: 在我的应用>应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面。在页面右侧,点击创建我的 APIKEY,在弹出窗口中创建一个新 APIKEY。保存 APIKEY 到本地用于后续配置。 3. 配置 FastGpt、OneAPI: 首先配置 OneAPI,还记得刚刚让您白嫖的大模型 API 吗?阿里的接口,这时要派上用场了,去阿里模型的链接里创建 ApiKey,并复制下来。然后在 OneAPI 的页面,点击【渠道】添加新渠道。添加时,类型选择阿里通义千问,名称自己取个,类型选择好后模型是会默认加进去,您不用删减,还有就把刚刚阿里那复制的 ApiKey 粘贴到秘钥里去。这样就 OK 了。后续有其他的大模型也是一样的添加方式。
2025-01-23
大模型训练方式
大模型的训练方式如下: 1. 通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练和使用过程: 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练。 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 找老师:即选择合适算法讲述“书本”内容,让大模型更好理解Token之间的关系。 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。Token被视为模型处理和生成的文本单位,能代表单个字符、单词等,在将输入进行分词时,会形成词汇表。 2. 100基础训练大模型的步骤: 步骤一·创建数据集:进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset),在数据集一栏中点击右上角创建数据集,输入数据集名称。zip文件可以是包含图片+标签txt,也可以只有图片没有打标文件,也可以一张一张单独上传照片,但建议提前把图片和标签打包成zip上传。Zip文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传zip以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 步骤二·Lora训练:点击Flux,基础模型会默认是FLUX 1.0D版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集。触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认20重复次数和10轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后等待训练,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此lora生图的界面。点击下方的下载按钮则会自动下载到本地。 步骤三·Lora生图:点击预览模型中间的生图会自动跳转到相应页面。模型上的数字代表模型强度,可在0.61.0之间调节,也可以自己添加lora文件,点击后会显示训练过的所有lora的所有轮次。VAE不需要替换,正向提示词输入写的提示词,可以选择基于这个提示词一次性生成几张图,选择生成图片的尺寸,横板、竖版、正方形。采样器和调度器新手小白可以默认,迭代步数可以在2030之间调整,CFG可以在3.57.5之间调整,随机种子1代表随机生成图。所有设置都好了以后,点击开始生态,生成的图会显示在右侧。如果有哪次生成结果觉得很不错,想要微调或者高分辨率修复,可以点开那张图,往下滑,划到随机种子,复制下来,粘贴到随机种子这里,这样下次生成的图就会和这次的结果近似。如果确认了一张很合适的种子和参数,想要搞清放大,则点开高清修复,可以选择想放大的倍数,新手小白可以就默认这个算法,迭代步数建议在2030之间,重回幅度根据需求调整,正常在0.30.7之间调整。 3. 今日作业:按照比赛要求,收集六个主题中一个主题的素材并且训练出lora模型后提交lora模型与案例图像。提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd
2025-01-23
大模型下文档投喂后,大模型是如何解读文档提取出答案?
大模型在文档投喂后解读文档并提取答案的过程通常包括以下步骤: 1. 问题解析阶段:接收并预处理问题,通过嵌入模型(如 Word2Vec、GloVe、BERT)将问题文本转化为向量,以确保问题向量能有效用于后续检索。 2. 知识库检索阶段:知识库中的文档同样向量化后,比较问题向量与文档向量,选择最相关的信息片段,并抽取相关信息传递给下一步骤。 3. 信息整合阶段:接收检索到的信息,与上下文构建形成融合、全面的信息文本。整合信息准备进入生成阶段。 4. 大模型生成回答:整合后的信息被转化为向量并输入到 LLM(大语言模型),模型逐词构建回答,最终输出给用户。 在这个过程中还包括以下信息处理步骤: 1. 信息筛选与确认:系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时对信息的来源、时效性和相关性进行验证。 2. 消除冗余:识别和去除多个文档或数据源中可能存在的重复信息,以防在生成回答时出现重复或相互矛盾的信息。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建一个结构化的知识框架,使信息在语义上更加连贯。 4. 上下文构建:将筛选和结构化的信息组织成一个连贯的上下文环境,包括对信息进行排序、归类和整合,形成一个统一的叙述或解答框架。 5. 语义融合:在必要时,合并意义相近但表达不同的信息片段,以减少语义上的重复并增强信息的表达力。 6. 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式,如将文本转化为适合输入到生成模型的向量形式。 最终,全新的上下文被一起传递给大语言模型。由于这个上下文包括了检索到的信息,大语言模型相当于同时拿到了问题和参考答案,通过 LLM 的全文理解,最后生成一个准确和连贯的答案。 相关概念: LLM:Large language model 的缩写,即大语言模型。 Prompt:中文译作提示词,是输入给大模型的文本内容,可以理解为和大模型说的话、下达的指令。 Token:大模型语言体系中的最小单元,不同厂商的大模型对中文文本的切分方法不同,通常 1Token≈12 个汉字,大模型的收费计算方法及对输入输出长度的限制通常以 token 为单位计量。 上下文:英文通常翻译为 context,指对话聊天内容前、后的内容信息,上下文长度和上下文窗口都会影响大模型回答的质量。
2025-01-23
有没有专门讲如何使用提示词的课程?
以下是为您提供的关于如何使用提示词的相关课程信息: 1. “从零开始:AI 视频制作小白的成长之路”:提示词的坑较多,有人花钱学习提示词模板和框架课程但仍上手困难。提示词编写可遵循“主体(什么东西)+动作(干啥了)+场景+镜头(怎么拍)”的格式,例如“母亲很疲惫看着孩子”。 2. “提示词培训课——Part1”:学习过程中接触众多原则和规则,包括角色扮演、提供例子、减少幻觉、任务拆解、递归总结、定期总结、意图识别和分类、分段输出、遵循特定语法格式等。通过实际例子演练加深理解并应用到不同场景。由于盗版事件,获取课件需扫微信。 3. “SD 新手:入门图文教程”:根据想画的内容写提示词,多个提示词用英文半角符号隔开。一般概念性、大范围、风格化的关键词写在前,叙述画面内容的其次,描述细节的最后。提示词顺序重要,越靠后权重越低。关键词要有特异性,措辞避免抽象。可使用括号人工修改提示词权重。
2025-01-23
有没有专门翻译的ai软件
以下是一些专门用于翻译的 AI 软件: 1. DeepL(网站):,点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):,安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML/TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):,下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):,使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):,点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 请注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-10
我需要专门进行金融投资项目研究,除了定性研究还很关注数据研究,我需要这样的智能体,哪一个智能体平台比较适合?
以下是一些可能适合您进行金融投资项目研究的智能体平台: 1. 蚂蚁的智能体。 2. Coze 的智能体。 3. 扣子平台:例如生物医药小助手就是基于扣子平台创建的,能为用户提供清晰的一步式回答。 4. Cursor 平台:可用于设计如卡密系统等商业化模式。 不过需要注意的是,不同的智能体平台可能具有不同的特点和适用场景,您需要根据自己的具体需求和使用习惯进行选择。
2024-12-26
生成式人工智能或者专门的书籍教程是什么意思?这种人工智能有什么用?现在市面上有免费的吗?要是没有免费的我去翻外网也可以
生成式人工智能是一种能够创建新内容的人工智能技术。以下是关于生成式人工智能的一些详细信息: 课程方面: 台湾大学李宏毅教授的生成式 AI 课程,主要介绍了其基本概念、发展历程、技术架构和应用场景等内容。课程共 12 讲,每讲约 2 小时。通过学习该课程,可掌握基本概念和常见技术,能使用相关框架搭建简单模型,了解发展现状和未来趋势。学习内容包括: 1. 什么是生成式 AI:定义和分类,与判别式 AI 的区别,应用领域。 2. 生成式模型:基本结构和训练方法,评估指标,常见模型及其优缺点。 3. 生成式对话:基本概念和应用场景,系统架构和关键技术,基于模型的对话生成方法。 4. 预训练语言模型:发展历程和关键技术,优缺点,在生成式 AI 中的应用。 5. 生成式 AI 的挑战与展望:面临的挑战和解决方法,未来发展趋势和研究方向。 改变创意工作方面: 生成式人工智能在创意工作中发挥着重要作用。例如,生成模型经过训练后,可针对特定内容领域进行“微调”,催生了用于生物医学、法律、法语等的专用模型,以及适用于不同目的的 GPT3 等。NVIDIA 的 BioNeMo 是用于在超级计算规模上训练、构建和部署大型语言模型的框架,适用于生成化学、蛋白质组学和 DNA/RNA 等内容。但使用生成式人工智能仍需人工参与,人类要输入提示让其创建内容,创造性的提示会产生创造性的输出,“即时工程师”可能成为新职业。该领域已出现 DALLE 2 图像提示书和提示市场。 学习资源: 1. 教材:《生成式 AI 导论 2024》,李宏毅。 2. 参考书籍:《深度学习》,伊恩·古德费洛等。 3. 在线课程:李宏毅的生成式 AI 课程。 4. 开源项目:OpenAI GPT3、字节跳动的云雀等。 学习方法:根据课程内容和资源,制定适合自己的学习计划,多实践、多思考。 目前市面上有部分免费的生成式人工智能资源,但也有收费的。需要注意的是,未经许可翻外网可能存在法律风险,请您谨慎选择。
2024-12-24
请提供免费的专门进行icon生成的网站
目前免费且专门用于生成 icon 的网站有:Iconfont、Icons8 等。Iconfont 拥有丰富的图标资源,支持多种格式下载;Icons8 则提供了大量高质量的图标,并且有多种自定义选项。
2024-12-10
专门针对代码的ai
以下是一些专门针对代码的 AI 产品: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议,帮助提高编程效率。 2. 通义灵码:阿里巴巴团队推出,具备行级/函数级实时续写、自然语言生成代码等多种能力。 3. CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,为开发人员实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费编程助手,基于 130 亿参数的预训练大模型,可提升开发效率。 5. Cody:代码搜索平台 Sourcegraph 推出,借助强大的代码语义索引和分析能力,了解开发者的整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的免费 AI 代码助手,基于自研基础大模型微调。 7. Codeium:一个由 AI 驱动的编程助手工具,通过提供代码建议等帮助软件开发人员。 生成性 AI 作为程序员的助手是最早的应用之一。模型在大量代码库上训练,在程序员编码时给出建议,效果出色。但编程中正确性至关重要,如研究发现 40%的 AI 生成代码包含漏洞,用户需在生成足够代码提升生产力和保证正确性间找到平衡。Copilot 帮助提高了开发人员生产力,但增长在 2 倍或更少范围内。 对于不会代码的朋友,学习 Python 和 AI 相互调用可在 20 分钟内完成以下任务:完成简单程序、爬虫应用抓取公众号文章、完成 AI 应用为公众号文章生成概述。Python 拥有标准库,可通过 pip 工具和 GitHub 平台获取更多功能。OpenAI 通过 ChatGPT 提供开箱即用服务,通过 OpenAI API 提供更灵活服务,可通过代码调用完成更多自动化任务。 更多辅助编程 AI 产品,还可以查看这里:https://www.waytoagi.com/category/65 。每个工具功能和适用场景不同,可根据需求选择最适合的工具。
2024-12-09