Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

个人知识库训练

Answer

个人知识库训练主要有以下内容:

  • 私人知识库中的内容一般包括从互联网收集的优质信息以及个人日常的思考和分享。
  • 基于私人知识库打造个人专属的 ChatGPT 常见有两种技术方案:
    • 训练专有大模型:KimiChat 和 ChatGPT 等能精准回答问题是因用整个互联网语料训练从而拥有相关知识。也可用个人知识库训练专有大模型,效果虽好但并非当下主流,存在高成本、更新难度大等缺陷。
    • RAG(检索增强生成)技术:大模型训练数据有截止日期,当需依靠不在训练集中的数据时,可通过 RAG 实现。RAG 应用包括文档加载、文本分割、存储(包括嵌入和向量数据存储)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)。
    • 使用 embeddings:将文本转换成向量能节省空间,可理解为索引。把大文本拆分成小文本块并转换成 embeddings 向量,在向量储存库保存这些向量和文本块作为知识库。用户提问时,问题先转成向量,与储存库向量比对,提取关联度高的文本块与问题组合成新 prompt 发送给 GPT API。例如对“此文作者是谁?”的提问,可通过比较 embeddings 向量得出关联度高的文本块,发送给 GPT API 以获取答案。
Content generated by AI large model, please carefully verify (powered by aily)

References

这可能是讲 Coze 的知识库最通俗易懂的文章了

私人知识库中内容一般有两种:日常从互联网收集的优质信息个人日常的思考以及分享如果我想基于这套知识库打造个人专属的ChatGPT该怎么做呢?这里面常见的会有两种技术方案1.训练专有大模型2.利用RAG(检索增强生成)技术初次听到这两个名词你可能有点懵,不要慌,接下来我会通俗易懂的语言让你了解他们的原理。[heading3]训练专有大模型[content]KimiChat和ChatGPT等AI聊天软件为什么能够精准的回答问题,因为他们使用了整个互联网的语料进行了训练,从而拥有了整个互联网的知识。看到这里你应该知道我想要讲什么了,对,既然能用整个互联网的知识训练出KimiChat和ChatGPT等大模型,那我能不能使用我的知识库来训练一个专有的大模型呢?当然可以!而且这样的效果是最好的。但是这并不是当下主流的方案,因为他有以下几个缺陷:高成本:训练和维护一个大型专有模型的成本非常高,需要大量的计算资源和专业知识。更新难度:如果需要更新模型的知识,需要重新训练或微调模型,这可能是一个复杂且耗时的过程下面让我们来看另一个方案:RAG(检索增强生成)

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

从零开始,用GPT打造个人知识库

上面将文本转换成向量(一串数字)能大大节省空间,它不是压缩,可简单理解为索引(Index)。接下来就有意思了。比如我有一个大文本,可以先把它拆分成若干个小文本块(也叫chunk),通过embeddings API将小文本块转换成embeddings向量,这个向量是跟文本块的语义相关。在一个地方(向量储存库)中保存这些embeddings向量和文本块,作为问答的知识库。当用户提出一个问题时,该问题先通过embeddings API转换成问题向量,然后将这问题向量与向量储存库的所有文本块向量比对,查找距离最小的几个向量,把这几个向量对应的文本块提取出来,与原有问题组合成为新的prompt(问题/提示词),发送给GPT API。这样一来就不用一次会话中输入所有领域知识,而是输入了关联度最高的部分知识。一图胜千言,转一张原理图。再举一个极其简单的例子,比如有一篇万字长文,拆分成Chrunks包含:文本块1:本文作者:越山。xxxx。文本块2:公众号越山集的介绍:传播效率方法,分享AI应用,陪伴彼此在成长路上,共同前行。文本块3:《反脆弱》作者塔勒布xxxx。文本块4:“科技爱好者周刊”主编阮一峰会记录每周值得分享的科技内容,周五发布。...文本块n如果提问是”此文作者是谁?“。可以直观的看出上面的文本块1跟这个问题的关联度最高,文本块3次之。通过比较embeddings向量也可以得到这结论。那最后发送给GPT API的问题会类似于”此文作者是谁?从以下信息中获取答案:本文作者:越山。xxxx。《反脆弱》作者塔勒布xxxx。“这样一来,大语言大概率能回答上这个问题。

Others are asking
知识库如何用ai做
以下是关于如何用 AI 做知识库的相关内容: “通往 AGI 之路”是一个由开发者、学者和有志人士等参与的学习社区和开源的 AI 知识库。在这里,您既是知识的消费者,也是知识的创作者。它不仅是一个知识库,更是连接学习者、实践者和创新者的社区,让大家在这里碰撞思想,相互鼓舞,一同成长。 对于 AI 模型的优化,知识库就像是 AI 的“活字典”。当 AI 遇到不确定的问题时,它可以从随时更新的知识库中检索相关信息,从而给出更新、更准确的回答。比如,可以建立一个包含最新新闻、科技发展、法律法规等内容的知识库。像很火的 AI 搜索,就是将整个互联网的实时数据作为知识库,每次被询问时都可以通过搜索引擎获取最新的信息。 要做 AI 知识库,首先得准备知识库数据。当下技术下 RAG 的能力仍以处理文本数据为主,例如 PDF、在线云文档、EXCEL 等。在文本准备时会有一个重要环节,即文本的预处理,用专业词汇叫做数据清洗和去噪。其目的主要有两点:一是清理无效的数据,删除无效、过时或者不相关的数据,提高后续的检索速度;二是统一数据的格式,将不同的数据元转换成统一的格式,便于后续的处理和检索。例如整理书桌时,第一步通常是先将桌面上的垃圾扔掉,然后整理书本、电脑等物品,扔掉垃圾这一动作就相当于数据的清洗和去噪。
2025-01-04
我想要做一个ai工具,针对电子元器件行业,我来提供专业术语翻译的知识库和固定描述语句翻译方法,希望上传中文PDF后,可以下载一个翻译好的PDF,0编程基础应该怎么做呢
对于您这种没有编程基础但想要制作针对电子元器件行业的 AI 工具来实现中文 PDF 上传并下载翻译好的 PDF 的需求,以下是一些建议: 首先,您需要学习一些基本的 AI 概念和技术知识,了解自然语言处理(NLP)的基本原理。 其次,可以考虑使用现有的无代码或低代码 AI 开发平台。这些平台通常具有可视化的界面和易于操作的工具,能够帮助您在不编写代码的情况下构建简单的 AI 应用。 然后,针对您的专业术语翻译需求,需要对电子元器件行业的术语进行系统整理和分类,建立一个清晰的术语库。 同时,确定固定描述语句的翻译规则和方法,并将其转化为可在 AI 工具中应用的逻辑。 在实施过程中,要不断测试和优化您的工具,以确保翻译的准确性和质量。 总之,虽然没有编程基础会增加一定的难度,但通过合理利用现有资源和持续学习,您是有可能实现这个目标的。
2025-01-04
我想要做一个ai工具,针对电子元器件行业,我来提供专业术语翻译的知识库和固定描述语句翻译方法,希望上传中文PDF后,可以下载一个翻译好的PDF
目前针对您想要针对电子元器件行业制作一个能上传中文 PDF 并下载翻译好的 PDF 的 AI 工具的需求,暂时没有相关的现成内容和方法。但您可以考虑以下步骤来实现这一目标: 1. 数据准备:收集和整理电子元器件行业的专业术语、固定描述语句以及对应的翻译,构建一个丰富准确的知识库。 2. 选择合适的技术:例如自然语言处理技术和机器翻译算法,以实现对中文 PDF 的翻译。 3. 开发工具界面:设计一个用户友好的界面,方便用户上传中文 PDF 和下载翻译后的 PDF。 4. 测试和优化:对工具进行充分的测试,根据测试结果不断优化翻译的准确性和工具的性能。 这是一个较为复杂的项目,需要一定的技术和资源投入,但如果成功实现,将为电子元器件行业带来很大的便利。
2025-01-04
哪款AI 工具可以梳理文档知识形成知识库
以下是一些可以梳理文档知识形成知识库的 AI 工具: 1. Cursor:对于非开发性质的问答,它是一个天然的 RAG 引擎。能针对大的代码库精准找到相关函数,并利用其信息撰写代码。在问答窗口使用 Command 加回车发出问题时,会先在当前文件夹下搜索并显示相关文档和相关度,最后用这些信息构建提示词完成生成。对于非开发任务,也能与私有文档结合问答,并将新生成的 insights 沉淀成新文档,形成知识闭环,提升知识管理效率。 2. 百炼:通过以下步骤为 AI 助手增加私有知识形成知识库: 上传文件:在百炼控制台的中的非结构化数据页签中点击导入数据,根据引导上传虚构的产品介绍。 建立索引:进入,创建新的知识库并选择上传的文件,其他参数保持默认。 引用知识:完成知识库创建后,在中设置,打开知识检索增强开关、选择目标知识库,测试验证符合预期后点击发布。 3. kimichat:可以让 AI 拆解书籍的章节并按照 markdown 产出内容,然后将内容复制到在线思维导图 Markmap 中,一键生成思维导图,并可自定义微调内容及免费导出图片。
2025-01-04
如何搭建知识库?
以下是搭建知识库的一般步骤: 1. 准备数据 收集需要纳入知识库的文本数据,包括文档、表格等格式。 对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集 在相关工具(如 Dify)中创建一个新的数据集,并将准备好的文档上传至该数据集。 为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式 相关工具(如 Dify)提供了多种索引方式供选择,如高质量模式、经济模式和 Q&A 分段模式。 根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用 将创建好的数据集集成到对话型应用中,作为应用的上下文知识库使用。 在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化 收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。 定期更新知识库,增加新的内容以保持知识库的时效性。 此外,在使用 Coze 智能体机器人搭建知识库时: 手动清洗数据可提高数据准确性,如创建画小二课程的 FAQ 知识库,飞书在线文档中每个问题和答案以“”分割。 对于本地文档,注意合理拆分内容以提高训练数据准确度,按章节进行人工标注和处理。 完成后点击发布,确保在 Bot 商店中能够搜到。 在涉及本地部署大模型以及搭建个人知识库时,需要先了解 RAG 技术: 利用大模型的能力搭建知识库是 RAG 技术的应用。 RAG 应用包括文档加载、文本分割、存储(包括嵌入和向量数据存储)、检索和输出等 5 个过程。 文本加载器用于将用户提供的文本加载到内存中,便于后续处理。
2025-01-03
知识库指的是什么
知识库是指在不同的应用场景中具有不同的含义和作用: 在专家系统中,知识库代表某个问题领域的长期知识,是从人类专家那里人工提取的,不会因外部的咨询而改变,由于它允许从一个问题状态前往另一个问题状态,因此也被称为动态知识。 扣子提供的方式中,知识库是大量知识分片,通过语义匹配,给模型补充知识。例如在车型数据方面,每个知识库的分段中保存了一种车型的基础数据,当用户提问相关问题时能匹配到对应车型的分段,然后模型从中获取信息。 在 AI 模型的优化过程中,知识库就像是 AI 可以随时查阅的百科全书,是一个随时更新的“活字典”。当 AI 遇到不确定的问题时,它可以从知识库中检索相关信息,从而给出更新、更准确的回答。比如可以建立包含最新新闻、科技发展、法律法规等内容的知识库,或者像很火的 AI 搜索,将整个互联网的实时数据作为知识库,每次被询问时都可以通过搜索引擎获取最新的信息。
2025-01-02
flux lora调参数,我训练出来的人物模型和数据集的人物图片不像,出现这种情况的原因都有哪些,应该调整哪些参数,我需要我的flux模型训练出来的模型是一致性还原性,和泛化性比较不错的,按照这个方向给我指导
以下是关于 flux lora 调参数以获得一致性、还原性和泛化性较好的人物模型的指导: 打标环节: 选择基础大模型,如“麦橘写实”,并为 lora 命名。 将照片导入,选择合适分辨率,可勾选“脸部加强训练”,然后进行预处理。手动裁剪图片比自动裁剪更可靠。 预处理后会出现脸部和整体文件夹,且每张照片自动打好 tag 标签。 可为整体添加统一标签,也可单独修改每张图片的标签。标签有助于 AI 理解图片,描述越详细,人物变化可能越多,泛化性可能越好。仔细检查每张图片的标签,其质量会影响人物 lora 的泛化性。 参数调整环节: 大部分参数是固定的,主要的几个按照人物参数配置一遍。后期根据生成结果再调整。 炼丹环节: 例如 18 张脸部图片,20 张整体图片,各训练 50 步,循环训练 10 次,并行步数为 1。训练总步数和时长会有所不同,loss 值可作为参考,但最终效果仍需通过测试判断。 此外,在 Lora 串联方面,多个 Lora 串联时左右顺序不影响结果,可复制并点对点连接。CLIP 层 1 和 2 的效果不同,加 Lora 时某些 Lora 可能更适合 2。Lora 可用于生成底模无法画出的内容。在运行中点击取消可打断正在渲染跑的图。图像放大可通过 up scale image using model 节点,选择放大模型,用 resize 节点调整尺寸,再用编码器和采样器处理。放大模型直接放大的图像效果不佳,需再次采样增加细节。添加飞桨缺失节点可通过拖入工作流查看标红节点,从管理器安装或从 GitHub 获取节点包放入文件管理系统。采样器和调度器参数设置建议参考模型作者推荐,并结合自己调试。Web UI 中 Lora 库有刷新按钮,将 Lora 丢到文件夹后多点几次刷新即可。
2025-01-04
flux lora训练指南
以下是关于 Flux 的 Lora 模型训练的指南: 准备工作: 需要下载以下模型: t5xxl_fp16.safetensors clip_l.safetensors ae.safetensors flux1dev.safetensors 注意事项: 1. 不使用的话,模型放置位置不限,但要清楚其“路径”,后续会引用到。 2. 训练建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 修改脚本路径和参数: 如果显卡是 16G,右键 16G 的 train_flux_16GLora 文件;如果显卡是 24G 或更高,右键 24G 的 train_flux_24GLora 文件。(DB 全参微调对硬件要求高,内存 32G 可能不行。即使是 train_flux_24GLora 方式,也建议内存高于 32G 以避免意外。) 右键用代码编辑器打开文件,理论上只需修改红色部分:底模路径、VAE 路径、数据集路径,还有下面的 clip 路径和 T5xxl 路径。如果 4 件套在一个文件夹,路径填写更简单;若不在,需准确复制各模型的路径,注意检查格式,避免多双引号、漏双引号或路径错误。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。zip 文件可以包含图片+标签 txt,也可以只有图片(之后可在 c 站使用自动打标功能),也可一张一张单独上传照片,但建议提前将图片和标签打包成 zip 上传。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 后等待一段时间,确认创建数据集,返回到上一个页面,等待上传成功后可点击详情检查,能预览到数据集的图片以及对应的标签。 Lora 训练: 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。选择数据集,点击右侧箭头选择上传过的数据集。触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词可随机抽取数据集中的一个标签填入。训练参数可调节重复次数与训练轮数,若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。可按需求选择是否加速,点击开始训练,会显示所需消耗的算力,然后等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有生图,点击会自动跳转到使用此 lora 生图的界面,点击下方的下载按钮则会自动下载到本地。
2025-01-04
如何训练智能体,把特定的数据导入进智能体。
训练智能体并导入特定数据的方法如下: 1. 手动清洗数据创建在线知识库: 点击创建知识库,创建一个如画小二课程的 FAQ 知识库。 选择飞书文档,选择自定义的自定义,输入“”。 飞书的文档内容会以“”区分开来,可点击编辑修改和删除。 点击添加 Bot,添加好后可在调试区测试效果。 2. 处理本地文档: 对于本地 word 文件,注意不能将大量数据一股脑全部放进去训练。 正确的方法是先将大的章节名称内容放进来,章节内详细内容按固定方式进行人工标注和处理。 然后选择创建知识库自定义清洗数据。 3. 发布应用: 点击发布,确保在 Bot 商店中能够搜到。 此外,具身智能体的训练还涉及以下方面: 大脑智能算法是感知/分析层的核心,通过视觉语言理解模型感知环境、接收理解任务并进行规划决策,最终输出具体任务指令。 小脑运动控制算法是动作层的核心,将动作视为类似语言的一种模态,理解交互物品及机器本体的姿态和运动状态,并将语义理解转化为动作。 整机硬件方案基于下游场景需求设计,具身智能厂商有从软件到硬件全流程自主控制的需求。 实现人工智能让计算机表现得像人类一样,有自上而下和自下而上两种可能的方法: 自上而下的方法模拟人类通过推理来解决问题的方式,包括对人类知识的提炼并用计算机可读的形式表示,开发在计算机内部模拟推理的方法。 自下而上的方法模拟人脑的结构,由大量称为神经元的简单单元组成,每个神经元的行为取决于输入数据的加权平均值,可通过提供训练数据来训练神经元网络。 还有一些其他可能实现智能的方法,如新兴的依靠协同的多智能体系统,基于大量简单智能系统的相互作用产生复杂智能行为;进化方法或遗传算法,是一种基于进化原理的优化过程。
2025-01-03
语料库训练相关文档
以下是为您提供的语料库训练相关文档: 中文数据集 |ID|标题|更新日期|数据集提供者|许可|说明|关键字|类别|论文地址|备注| ||||||||||| |6||2020 年|CLUE||CLUENER2020 数据集,是在清华大学开源的文本分类数据集 THUCTC 基础上,选出部分数据进行细粒度命名实体标注,原数据来源于 Sina News RSS。数据包含 10 个标签类别,训练集共有 10748 条语料,验证集共有 1343 条语料|细粒度;CULE|命名实体识别|\\|中文| |7||英文| |8||||EMNLP2015|命名实体识别||| |9||2005 年|MSR/PKU|||bakeoff2005|命名实体识别||| TTS 超全教程 音库制作和文本前端 音库制作 音频录制 音频的录制对合成语音的表现较为重要,较差的语音甚至会导致端到端声学模型无法正常收敛。用于训练的录音至少要保证录音环境和设备始终保持一致,无混响、背景噪音;原始录音不可截幅;如果希望合成出来的语音干净,则要删除含口水音、呼吸音、杂音、模糊等,但对于目前的端到端合成模型,有时会学习到在合适的位置合成呼吸音、口水音,反而会增加语音自然度。录音尽可能不要事先处理,语速的调节尚可,但调节音效等有时会造成奇怪的问题,甚至导致声学模型无法收敛。音频的录制可以参考录音公司的标准,购买专业麦克风,并保持录音环境安静即可。在音库录制过程中,可尽早提前尝试声学模型,比如音库录制 2 个小时语音后,就可尝试训练基线语音合成系统,以防止录音不符合最终的需求。 语料整理 检查文本和录制的语音是否一一对应,录制的音频本身一句话是否能量渐弱,参与训练的语音前后静音段要保持一致,能量要进行规范化。可使用预训练的语音活动检测(Voice Activity Detection,VAD)工具,或者直接根据语音起止的电平值确定前后静音段。可以使用一些开源的工具,比如统一所有语音的整体能量,这将有助于声学模型的收敛。当然,在声学模型模型训练时,首先就要对所有语料计算均值方差,进行统一的规范化,但是这里最好实现统一能量水平,防止一句话前后能量不一致。能量规整的示例代码如下。
2025-01-02
如何在本地部署LLM,然后完成某个专业或者主题的专业知识库训练
以下是在本地部署 LLM 并完成某个专业或主题的专业知识库训练的详细步骤: 1. 部署大语言模型: 下载并安装 Ollama:根据电脑系统,点击进入 https://ollama.com/download 下载,下载完成后双击打开,点击“Install”。安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。 下载 qwen2:0.5b 模型:如果是 Windows 电脑,点击 win+R,输入 cmd 点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行粘贴进入并回车,等待自动下载完成。 2. 安装 Docker Desktop: 点击去下载,根据系统进行选择。以 Windows 系统为例,点击 https://docs.docker.com/desktop/install/windowsinstall/ 下载,双击下载项目,点击 ok 加载文件,点击“close and restart”重启电脑。重启后,点击“Accept”,选择第二个,点击"Finish",进入 Docker Desktop。 3. 部署 FastGPT+OneAPI: 在桌面按住“shift”+鼠标右键,选择“在此处打开 Powershell 窗口”,在窗口中一行一行输入并回车。等待上方命令执行完成,下载完成之后。回到桌面,打开 FastGPT 文件夹,右键 dockercompose.yml 文件,选择打开方式为记事本打开,查找并修改相关内容后保存。回到命令行窗口中,继续输入并回车。 4. 配置 OneAPI: 在浏览器中输入:http://localhost:3001 ,进入登录页,账号 root 密码 123456 点击登录。点击【渠道】【添加新的渠道】,类型选择 Ollama,名称设为 qwen2,模型设为 qwen2:0.5b,秘钥设为 sksky,代理设为 http://host.docker.internal:11434 ,点击提交。点击【令牌】【添加新令牌】,名称随意,时间设为永不过期、额度设为无限额度,点击【提交】,点击【令牌】复制 key。 5. 配置 FastGPT: 回到 FastGPT 文件夹里,用记事本打开“dockercompose.yml”文件,查找并修改相关内容后保存。打开 config.json,根据图示修改完成,把相关数值改成 1500 左右。在命令窗口中输入:docker compose down 等待执行完成,再输入:docker compose upd 等待执行完成。在浏览器上输入:http://localhost:3000 ,账号 root 密码 1234 点击进入,设置好后点击确定。发布 API 并创建一个 key。
2025-01-02
关于LLMs文本与图像混合模态训练
以下是关于 LLMs 文本与图像混合模态训练的相关内容: 多模态大模型总结: 1. InstructBLIP 基于预训练的 BLIP2 模型进行训练,在 MM IT 期间仅更新 QFormer。通过引入指令感知的视觉特征提取和相应的指令,能够提取灵活多样的特征。 2. PandaGPT 是一种开创性的通用模型,能够理解 6 种不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。 3. PaLIX 使用混合 VL 目标和单峰目标进行训练,包括前缀完成和屏蔽令牌完成。这种方法对于下游任务结果和在微调设置中实现帕累托前沿都是有效的。 4. VideoLLaMA 引入了多分支跨模式 PT 框架,使 LLMs 能够在与人类对话的同时处理给定视频的视觉和音频内容,使视觉与语言以及音频与语言保持一致。 5. 视频聊天 GPT 是专门为视频对话设计的模型,能够通过集成时空视觉表示来生成有关视频的讨论。 6. Shikra Chen 等人介绍了一种简单且统一的预训练 MMLLM,专为参考对话(涉及图像中区域和对象的讨论的任务)而定制,展示了值得称赞的泛化能力,可以有效处理看不见的设置。 7. DLP 提出 PFormer 来预测理想提示,并在单模态句子数据集上进行训练,展示了单模态训练增强 MM 学习的可行性。 未来发展方向: 最初,多模态融合方法常采用预训练的目标检测器,如 ViLBERT、VisualBERT 和 UnicoderVL,通过提取图像特征和执行交叉模态预训练任务,为后续的图像文本任务奠定基础。随着 ViT 的出现和普及,更多方法开始利用 ViT 作为图像编码器,强调大规模预训练,以提高模型的性能和泛化能力,例如 Flamingo。近期,向多模态 LLMs 的发展趋势是从进行预训练到向指令调整(instruction tuning)转变,例如 LLaVA 和 MiniGPT4,它们通过融合视觉和语言信息,能够更有效地完成视觉理解相关的任务,进一步提升模型对于指令的理解能力,提升零样本性能,使模型能够更好地泛化到未见过的任务和领域。 训练过程: 1. 预训练阶段:通常利用 XText 的数据集来训练输入、输出的 Projector,通过优化损失函数来实现不同模态的对齐,PEFT 有时候用于 LLM Backbone。XText 数据集包含图像文本、视频文本和音频文本,其中图像文本有两种类型:图像文本对和交错图像文本语料库。 2. 多模态微调:是对满足指令微调格式的一系列数据集对预训练好的多模态大模型进行微调。通过这种微调,MMLLM 可以遵循新的指令泛化到没有见过的任务,增强 zeroshot 的能力。MM IT 包括监督微调(SFT)和 RLHF 两部分,目的是为了使得模型符合人类的意图或者偏好,并且增强 MMLLMs 的交互能力。SFT 将 PT 阶段的数据转换为指令aware 的格式,使用 QA 任务作为例子,可采用各种模板。优化目标和预训练相同,SFT 数据可以构造为单轮的 QA 或者多轮的 QA。常用的 SFT 和 RLHF 的数据集见表 4。
2025-01-01
一个人学习AI
以下是为您提供的一个人学习 AI 的相关指导: 一、了解 AI 基本概念 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 在「」中,您可以找到为初学者设计的课程,特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)按照自己的节奏学习,并争取获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛,涵盖图像、音乐、视频等方面。您可以根据自身兴趣选择特定模块深入钻研,同时一定要掌握提示词的技巧,它容易上手且很实用。 四、实践和尝试 理论学习后,实践是巩固知识的关键。您可以尝试使用各种产品进行创作,在知识库中也有很多实践后的作品和文章分享,欢迎您在实践后也进行分享。 五、体验 AI 产品 与现有的 AI 产品互动是学习 AI 的有效方式,例如尝试使用 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,从而获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 另外,为了在医疗保健中让 AI 产生真正的改变,应投资创建像优秀医生和药物开发者那样学习的模型生态系统。比如,预医学生的课程从化学和生物学基础开始,设计新疗法的科学家也需经历多年相关学习和实践。 YoYo 分享了自己在通往 AGI 的学习之路心得,学习前不理解 AI 和提示词工程,走了不少弯路;学习后能创建智能体并在公司中实践智能客服等。其学习路径强调“少就是多”“先有个初识”“目录索引推荐”“兴趣最重要”“先动手”,并认为学以致用,通过学习、分享不断成长。
2025-01-04
Coze Agent接入个人微信
Coze 是一个 AI 智能体创作平台,可以根据需求构建多个 AI 机器人并发布到多种社交平台。微信作为多功能社交平台,其不同功能与 Coze 平台的对接情况有所不同。个人微信和微信群是日常常用的聊天工具,但此前 Coze 平台不支持直接对接。不过,Coze 国内版已正式发布 API 接口功能,使得对接个人微信甚至微信群成为可能。作者安仔分享了如何使用 Coze AI 机器人对接微信群,以回复个人或群组小伙伴的信息,解决社群运营问题。此外,如果对学习 Coze 和 AI Agent 有兴趣,可以加入作者的免费 AI Agent 共学群,通过搜索微信号 Andywuwu07 或扫描二维码加微信,备注 AI 共学即可。
2025-01-02
ai 美化p图都软件有哪些好用的推荐?主要是个人使用,p一些旅拍图片
目前市面上有不少适用于个人使用、处理旅拍图片的 AI 美化 P 图软件,以下为您推荐几款: 1. Adobe Photoshop:功能强大,提供丰富的编辑工具和特效,适合有一定图像处理基础的用户。 2. Lightroom:擅长照片的调色和管理,能轻松打造出出色的色彩效果。 3.醒图:操作简单,拥有多种滤镜和美颜功能,适合新手快速美化图片。 4. Snapseed:具备专业的调整选项,同时易于上手。 您可以根据自己的需求和使用习惯选择适合您的软件。
2025-01-01
我想用AI做一个人物访谈录发在公众号上,请帮我生成一段200字的简介
以下是为您生成的 200 字左右的人物访谈录简介: 南瓜博士首次写小说获奖,背后离不开 AI 的助力。他先让 AI 写故事概要和角色背景介绍并做修改,还采用让 AI 以表格形式输出细节描述的技巧,打破叙事习惯,方便局部调整,确保都是具体细节。之后将生成的表格串联成文,过程中偶尔给出建议。然而,因小说字数超 2000 字,修改时 GPT4 记性不好,Claude 又改丢关键情节。但最终,在与 AI 的合作与磨合中,南瓜博士成功获奖,展现了 AI 在创作中的独特作用与挑战。
2024-12-26
我想用AI做一个人物访谈录发在公众号上,请帮我取公众号的一个名字,请给出10个供我参考
以下是为您提供的 10 个适合发布人物访谈录的公众号名字,供您参考: 1. 《深度人物志》 2. 《人物访谈集萃》 3. 《名人面对面访谈》 4. 《非凡人物访谈录》 5. 《人物心灵访谈》 6. 《魅力人物访谈窗》 7. 《人物故事访谈馆》 8. 《杰出人物访谈记》 9. 《人物风采访谈坛》 10. 《热点人物访谈坊》
2024-12-26
个人如何用Ai通过改写文案快速经营好公众号
目前知识库中没有关于个人如何用 AI 通过改写文案快速经营好公众号的相关内容。但一般来说,您可以利用一些自然语言处理的 AI 工具,如 ChatGPT 等,输入您的原始文案和具体的改写要求,获取新的文案。不过,在使用 AI 生成的文案时,需要您进行仔细的审核和修改,以确保内容符合公众号的定位和风格,同时保持高质量和独特性。另外,要经营好公众号,还需要关注内容的选题、排版、与读者的互动等多个方面。
2024-12-24