Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

垂直领域大模型训练指南

Answer

以下是一份垂直领域大模型训练指南:

一、大模型入门

通俗来讲,大模型就是输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。

大模型的训练和使用过程可以用“上学参加工作”来类比:

  1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。
  2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。
  3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。
  4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。
  5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。

在 LLM 中,Token 被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词等,具体取决于所使用的分词方法。在将输入进行分词时,会对其进行数字化,形成一个词汇表。

二、LLM 开源中文大语言模型及数据集集合

  1. 医疗领域
    • XrayGLM:首个会看胸部 X 光片的中文多模态医学大模型。
    • MeChat:中文心理健康支持对话大模型。
      • 地址:https://github.com/qiuhuachuan/smile
      • 简介:该项目开源的中文心理健康支持通用模型由 ChatGLM-6B LoRA 16-bit 指令微调得到,数据集通过调用 gpt-3.5-turbo API 扩展真实的心理互助 QA 为多轮的心理健康支持多轮对话,提高了通用语言大模型在心理健康支持领域的表现,更加符合在长程多轮对话的应用场景。
    • MedicalGPT
      • 地址:https://github.com/shibing624/MedicalGPT
      • 简介:训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练。发布中文医疗 LoRA 模型 shibing624/ziya-llama-13b-medical-lora,基于 Ziya-LLaMA-13B-v1 模型,SFT 微调了一版医疗模型,医疗问答效果有提升,发布微调后的 LoRA 权重。

三、10-0 基础训练大模型

步骤三·Lora 生图:

  1. 点击预览模型中间的生图会自动跳转到相应页面。
  2. 模型上的数字代表模型强度,可在 0.6 - 1.0 之间调节,默认为 0.8。
  3. 可以自己添加 lora 文件,点击后会显示训练过的所有 lora 的所有轮次。
  4. VAE 不需要替换。
  5. 正向提示词输入所写的提示词,可以选择基于这个提示词一次性生成几张图。
  6. 选择生成图片的尺寸,包括横板、竖版、正方形。
  7. 采样器和调度器新手小白可以默认不换。
  8. 迭代步数可以按照需求在 20 - 30 之间调整。
  9. CFG 可以按照需求在 3.5 - 7.5 之间调整。
  10. 随机种子 - 1 代表随机生成图。
  11. 所有设置都完成后,点击开始生成,生成的图会显示在右侧。
  12. 如果有某次生成结果不错,想要微调或者高分辨率修复,可以点开那张图,往下滑,划到随机种子,复制下来,粘贴到随机种子这里,下次生成的图就会和这次的结果近似。
  13. 如果确认了一张很合适的种子和参数,想要高清放大,则点开高清修复,可以选择放大的倍数。新手小白可以默认算法,迭代步数建议在 20 - 30 之间,重回幅度根据需求在 0.3 - 0.7 之间调整。

今日作业:按照比赛要求,收集六个主题中一个主题的素材并且训练出 lora 模型后提交 lora 模型与案例图像。

提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd

Content generated by AI large model, please carefully verify (powered by aily)

References

大模型入门指南

通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。既然是学习,那我们就可以用『上学参加工作』这件事来类比大模型的训练、使用过程:1.找学校::训练LLM需要大量的计算,因此GPU更合适,因此只有购买得起大量GPU的贵族学校才有资本训练自己的大模型2.确定教材::大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配3.找老师::即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系4.就业指导::学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导5.搬砖::就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID||-|-||The|345||cat|1256||sat|1726||…|…|

LLM开源中文大语言模型及数据集集合

XrayGLM,首个会看胸部X光片的中文多模态医学大模型:地址:[https://github.com/WangRongsheng/XrayGLM](https://github.com/WangRongsheng/XrayGLM)简介:该项目为促进中文领域医学多模态大模型的研究发展,发布了XrayGLM数据集及模型,其在医学影像诊断和多轮交互对话上显示出了非凡的潜力。MeChat,中文心理健康支持对话大模型:地址:[https://github.com/qiuhuachuan/smile](https://github.com/qiuhuachuan/smile)简介:该项目开源的中文心理健康支持通用模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集通过调用gpt-3.5-turbo API扩展真实的心理互助QA为多轮的心理健康支持多轮对话,提高了通用语言大模型在心理健康支持领域的表现,更加符合在长程多轮对话的应用场景。MedicalGPT地址:[https://github.com/shibing624/MedicalGPT](https://github.com/shibing624/MedicalGPT)简介:训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练。发布中文医疗LoRA模型shibing624/ziya-llama-13b-medical-lora,基于Ziya-LLaMA-13B-v1模型,SFT微调了一版医疗模型,医疗问答效果有提升,发布微调后的LoRA权重。

10-0基础训练大模型

上图中,点击预览模型中间的生图会自动跳转到这个页面模型上的数字代表模型强度,可以调节大小,正常默认为0.8,建议在0.6-1.0之间调节当然,你也可以自己添加lora文件点击后会显示你训练过的所有lora的所有轮次VAE不需要替换正向提示词输入你写的提示词可以选择基于这个提示词一次性生成几张图选择生成图片的尺寸,横板、竖版、正方形采样器和调度器新手小白可以默认这个不换迭代步数可以按照需求在20-30之间调整CFG可以按照需求在3.5-7.5之间调整随机种子-1代表随机生成图所有设置都好了以后,点击开始生态,生成的图会显示在右侧如果有哪次生成结果你觉得很不错,想要微调或者高分辨率修复,可以点开那张图往下滑,划到随机种子,复制下来粘贴到i机种子这里,这样下次生成的图就会和这次的结果近似如果确认了一张很合适的种子和参数,想要搞清放大则点开高清修复,可以选择你想放大的倍数新手小白可以就默认这个算法迭代步数也是建议在20-30之间重回幅度根据需求调整,正常来说在0.3-0.7之间调整[heading1]今日作业[content]按照比赛要求,收集六个主题中一个主题的素材并且训练出lora模型后提交lora模型与案例图像提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd

Others are asking
我想学习AI,但是不知道如何入门,希望你可以帮我梳理出AI的各个应用方向,要求要有具体的实操方法和必坑指南,能应用于生活和工作中,适合新手学习
以下是为您梳理的适合新手学习 AI 的应用方向、实操方法和避坑指南: 一、了解 AI 基本概念 1. 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 2. 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 1. 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 2. 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 1. AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 2. 掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 1. 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 2. 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 1. 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 六、如果希望继续精进 1. AI 背景知识 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 避坑指南: 1. 不要急于求成,AI 学习需要逐步积累。 2. 注重理论与实践结合,避免只学习理论而不进行实际操作。 3. 对于复杂的概念和算法,要多花时间理解,不要一知半解。 4. 在选择学习资源时,要注意其质量和适用性。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-06
deepseek使用指南
以下是 DeepSeek 的使用指南: 1. 核心原理认知: AI 特性定位:支持文本/代码/数学公式混合输入,具有动态上下文(约 4K tokens 上下文窗口)和任务适应性(可切换创意生成/逻辑推理/数据分析模式)。 系统响应机制:采用意图识别+内容生成双通道处理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 2. 基础指令框架: 可以套用框架指令,如果不知道如何表达。 四要素模板示例。 格式控制语法:强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 3. 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,即在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 4. 使用步骤: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 此外,DeepSeek 在设计思路上,将 Agent 封装成 Prompt 并储存在文件,以实现同时使用联网功能和深度思考功能,在模型默认能力基础上优化输出质量等。同时,也有完整提示词 v1.3 版本。
2025-02-05
flux lora训练指南
以下是关于 Flux 的 Lora 模型训练的指南: 准备工作: 需要下载以下模型: t5xxl_fp16.safetensors clip_l.safetensors ae.safetensors flux1dev.safetensors 注意事项: 1. 不使用的话,模型放置位置不限,但要清楚其“路径”,后续会引用到。 2. 训练建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 修改脚本路径和参数: 如果显卡是 16G,右键 16G 的 train_flux_16GLora 文件;如果显卡是 24G 或更高,右键 24G 的 train_flux_24GLora 文件。(DB 全参微调对硬件要求高,内存 32G 可能不行。即使是 train_flux_24GLora 方式,也建议内存高于 32G 以避免意外。) 右键用代码编辑器打开文件,理论上只需修改红色部分:底模路径、VAE 路径、数据集路径,还有下面的 clip 路径和 T5xxl 路径。如果 4 件套在一个文件夹,路径填写更简单;若不在,需准确复制各模型的路径,注意检查格式,避免多双引号、漏双引号或路径错误。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。zip 文件可以包含图片+标签 txt,也可以只有图片(之后可在 c 站使用自动打标功能),也可一张一张单独上传照片,但建议提前将图片和标签打包成 zip 上传。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 后等待一段时间,确认创建数据集,返回到上一个页面,等待上传成功后可点击详情检查,能预览到数据集的图片以及对应的标签。 Lora 训练: 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。选择数据集,点击右侧箭头选择上传过的数据集。触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词可随机抽取数据集中的一个标签填入。训练参数可调节重复次数与训练轮数,若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。可按需求选择是否加速,点击开始训练,会显示所需消耗的算力,然后等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有生图,点击会自动跳转到使用此 lora 生图的界面,点击下方的下载按钮则会自动下载到本地。
2025-01-04
我想用coze搭建一个智能体,关于自然语言课程的期末复习指南,要将我的教材导入扣子作为知识库,智能体支持用户提问,搜索知识点,结合知识库和互联网搜索的内容给出问答,需要使用多智能体或工作流,使用卡片功能进行显示,请给出我搭建这个智能体的步骤
以下是使用 Coze 搭建一个关于自然语言课程期末复习指南智能体的步骤: 1. 访问 Coze 官网(https://www.coze.cn),注册并登录。 2. 点击页面左上角的⊕,通过【标准创建】填入智能体的基本信息。 3. 了解 Bot 开发调试界面: 人设与回复逻辑(左侧区域):设定智能体的对话风格、专业领域定位,配置回复的逻辑规则和限制条件,调整回复的语气和专业程度。 功能模块(中间区域): 技能配置: 插件:扩展智能体的专业能力,如计算器、日历等工具。 工作流:设置固定的处理流程和业务逻辑。 图像流:处理和生成图像的相关功能。 触发器:设置自动化响应条件。 知识库管理: 文本:存储文字类知识材料。 表格:结构化数据的存储和调用。 照片:图像素材库。 记忆系统: 变量:存储对话过程中的临时信息。 数据库:管理持久化的结构化数据。 长期记忆:保存重要的历史对话信息。 文件盒子:管理各类文档资料。 交互优化(底部区域): 开场白:设置初次对话的问候语。 用户问题建议:配置智能推荐的后续问题。 快捷指令:设置常用功能的快速访问。 背景图片:自定义对话界面的视觉效果。 预览与调试(右侧区域):实时测试智能体的各项功能,调试响应效果,优化交互体验。 4. 设定智能体的人设与回复逻辑后,为智能体配置对应的技能,以保证其可以按照预期完成目标任务。例如,以获取 AI 新闻的智能体为例,需要为它添加一个搜索新闻的接口来获取相关新闻。具体操作如下: 在智能体编排页面的技能区域,单击插件功能对应的+图标。 在添加插件页面,选择相关功能,然后单击新增。 修改人设与回复逻辑,指示智能体使用相应插件来搜索所需内容。 (可选)为智能体添加开场白,让用户更好地了解智能体的功能。开场白功能目前支持豆包、微信公众号(服务号)。 5. 配置好智能体后,在预览与调试区域中测试智能体是否符合预期。可单击清除图标清除对话记录。 6. 完成测试后,将智能体发布到社交渠道中使用。具体操作如下: 在智能体的编排页面右上角,单击发布。 在发布页面输入发布记录,并勾选发布渠道。 单击发布。 更多内容,请访问 Coze 官方文档: 英文版:https://www.coze.com/docs/welcome.html 中文版:https://www.coze.cn/docs/guides/welcome
2024-12-20
我是一名计算机专业学生,给我一份进入ai行业的指南
以下是为您提供的进入 AI 行业的指南: 一、学习计划 如果您想入门强化学习,可以将搞懂 DQN 算法作为目标。参考链接:https://github.com/ty4z2008/Qix/blob/master/dl.md 。但需注意,其中资料众多,如同大海捞针,所以在学习前要先明确目的。 二、信息源 1. 简报 TLDR AI: The Sequence: Deep Learning Weekly: Ben’s Bites: Last week in ai: Your guide to AI: 2. 播客 No Priors podcast hosted by Sarah Guo 和 Elad Gil Robot Brains Podcast hosted by Pieter Abbeel Lex Fridman Podcast hosted by Lex Fridman The Gradient podcast hosted by Daniel Bashir Generally Intelligent hosted by Kanjun Qiu Last Week in AI 3. 会议 World AI Cannes Festival 三、知识获取 欢迎来到“AI 企业落地应用”专栏,这里会分享 AI 技术在商业场景中的应用案例和经验。为方便不同背景的读者,文章会采用通俗有趣的方式讲解知识,可能存在专业性不严谨的情况,会有标注提示。对于超纲或专业的内容,也会有标注,可放心跳过。文末会有论文推荐导引,帮助您了解技术细节。
2024-12-19
用扣子智能体制作一个有关热门旅游景点攻略小助手的工作流,能够根据不同用户的需求,制定个性化的旅行计划,涵盖各种热门旅游景点,提供详细的行程安排、交通指南和景点特色介绍
要使用扣子智能体制作一个有关热门旅游景点攻略小助手的工作流,以下是一些参考信息: 1. 扣子智能体通常由工作流和数据库组成。工作流的设计相对简单,一个输入对接知识库,搭载豆包 function call 大模型,最后输出。数据库的收集和整理需要一定专业知识,并进行手动二次校对。 2. 插件方面,扣子平台有多种类型的插件,如看新闻、规划旅行、提高办公效率、理解图片内容等的 API,还可根据需求自制插件。 3. 工作流就像可视化的拼图游戏,由多个节点组成,包括大语言模型、代码块等,能创造复杂稳定的业务流程。 4. 扣子预置了各种场景的 Bot,如旅游大师 Bot。在 Bot 商店可查看精选的预置 Bot,选择后会被引导至编排页面,该页面分为顶部区域(显示所用大型语言模型)、人设与回复逻辑区域、技能区域(展示配置的功能,如查询航班的插件、推荐景点的工作流等)、预览与调试区域(展示交互运行结果)。 基于以上信息,您可以尝试设计热门旅游景点攻略小助手的工作流,根据不同用户需求制定个性化旅行计划,涵盖热门景点、行程安排、交通指南和景点特色介绍。但需要注意的是,工作流的设计和数据库的整理需要精心规划和准确操作。
2024-12-16
法律类的垂直AI大模型
以下是一些法律类的垂直 AI 大模型: Lawyer LLaMA:首先在大规模法律语料上进行了 continual pretraining,然后借助 ChatGPT 收集了一批对中国国家统一法律职业资格考试客观题的分析和对法律咨询的回答,利用这些数据对模型进行指令微调,让模型习得将法律知识应用到具体场景中的能力。 ChatLaw:由北大开源的一系列法律领域的大模型,包括 ChatLaw13B、ChatLaw33B、ChatLawText2Vec 等。其中,ChatLaw13B 基于姜子牙 ZiyaLLaMA13Bv1 训练而来,ChatLaw33B 基于 Anima33B 训练而来,逻辑推理能力大幅提升。此外,还使用 93w 条判决案例做成的数据集基于 BERT 训练了一个相似度匹配模型,可将用户提问信息和对应的法条相匹配。
2024-07-12
PPT制作怎么插入垂直直线
在PPT中插入垂直直线,您可以按照以下步骤操作: 1. 打开您的Microsoft PowerPoint程序,并打开您想要插入直线的演示文稿。 2. 选择您想要插入直线的幻灯片。 3. 在菜单栏中,找到“插入”选项,点击它。 4. 在“插入”菜单中,您可以看到“形状”选项。点击它,会弹出一个形状列表。 5. 在形状列表中,找到“直线”或者“垂直直线”的图标。通常,“直线”图标是一个水平的直线,而“垂直直线”则是一条垂直的直线。 6. 点击“垂直直线”图标后,您的鼠标指针会变成一个十字准线,同时会有一个提示框显示“拖动鼠标绘制形状”。 7. 在幻灯片的适当位置点击并拖动鼠标,绘制出您想要的垂直直线。 8. 当您释放鼠标按钮时,直线就会被插入到幻灯片中。 9. 您可以点击直线以选择它,然后在格式工具栏中调整它的颜色、粗细、样式等属性,以符合您的演示需求。 10. 完成后,您就可以继续编辑您的演示文稿或进行演示了。 注意:不同的PowerPoint版本可能在界面和选项上有所不同,但基本的插入直线操作是相似的。如果您使用的是其他版本的PowerPoint或者在线的PowerPoint替代品,步骤可能会有所不同。
2024-05-23
现在有什么垂直行业Agent吗,真正有在应用的
目前,AI Agent 已逐步应用于电商、电信服务、银行、核能制造和新零售等多个行业领域。以新零售客户为例,实在 AI Agent 能够提供全域数据自动化采集、全平台竞店、竞品、竞对的数据分析和回溯,通过自动化采集、分析数据,并以可视化呈现用户评论数据,帮助企业解决数据分散和处理效率低的问题,助力客户提效降本、敏捷精准优化营销策略。此外,该应用还能协助企业进行财务处理、客服互动、自动退换货等工作,极大提高工作效率。 在 AI 应用的开发过程中,实在智能团队充分发挥了在 RPA 领域的专业优势,开发团队成员包括流程开发工程师、AI 框架搭建师、接口开发工程师等,共同协作以确保应用高效运行。实在智能高级产品经理张译颢介绍,在喂数据库和调试阶段,团队通过模拟各种业务场景,不断优化 AI 模型,以确保准确理解和执行用户指令。实在智能的 AI 应用不仅显著提高流程性工作的效率,还降低了人为错误的可能性。通过自动化流程,企业能够更快响应市场变化,提升服务质量,在激烈的市场竞争中占据优势。 现代的 Agent 已经被广泛应用于游戏、机器人和其他领域。吴恩达在红杉美国 AI 峰会谈上表示,自己已经在使用研究 Agent,虽然不总是可靠,但有时会非常有用,可以帮助他节省时间和提高效率。
2024-05-23
如何运用知识图谱搭建垂直领域的知识库智能问答
知识图谱是一种结构化的知识表示方法,它通过节点和边来表示实体之间的关系。在垂直领域的知识库智能问答中,知识图谱可以作为问答系统的基础,帮助系统理解用户的问题,并从知识库中检索相关信息。以下是一些关键步骤和考虑因素: 1. 数据收集和预处理: 收集与垂直领域相关的数据,包括文本、图像、音频和视频等。 对数据进行清洗、去噪和标准化处理,确保数据的质量和一致性。 2. 实体识别和关系抽取: 使用实体识别技术识别文本中的关键实体,如人名、地点、组织等。 通过关系抽取技术识别实体之间的关系,如“作者写了书籍”。 3. 构建知识图谱: 根据实体和关系,构建知识图谱的节点和边。 使用图数据库(如Neo4j)来存储和管理知识图谱。 4. 问答系统设计: 设计一个能够理解自然语言问题的问答系统。 使用自然语言处理(NLP)技术,如命名实体识别、意图识别、槽填充等,来解析用户的问题。 5. 查询和推理: 使用知识图谱查询语言(如SPARQL)进行查询,以检索与用户问题相关的信息。 利用图神经网络等方法进行知识图谱上的推理,以生成更准确的答案。 6. 答案生成和优化: 将从知识图谱中检索到的信息转化为自然语言回答。 对回答进行优化,使其更加清晰、准确和易于理解。 7. 系统集成和部署: 将问答系统集成到垂直领域的应用中,如在线客服、教育平台等。 部署问答系统,并进行持续的监控和优化,以提高系统的性能和用户体验。 在构建垂直领域的知识库智能问答时,需要充分考虑该领域的特点和需求,并利用先进的AI技术和工具,如深度学习、知识图谱、自然语言处理等,来提高问答系统的准确性和效率。随着技术的发展,未来可能会出现更多创新的方法和工具,以进一步优化垂直领域的知识库智能问答系统。
2024-04-18
本地大模型联网搜索
以下是关于本地大模型联网搜索的相关内容: 部署本地大语言模型: 1. 下载并安装 Ollama:根据电脑系统,从 https://ollama.com/download 下载,双击打开点击“Install”,安装完成后将下方地址复制进浏览器确认:http://127.0.0.1:11434/ 。 2. 下载 qwen2:0.5b 模型: Windows 电脑:点击 win+R,输入 cmd 点击回车。 Mac 电脑:按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”选择应用程序。 复制相关命令行粘贴回车,等待自动下载完成。 模型获取与分辨: 1. 模型下载网站:大多数模型可在 Civitai(C 站)https://civitai.com/ 下载。 科学上网(自行解决)。 点击右上角筛选按钮选择模型类型。 看照片找到感兴趣的点进去下载。 还可点击左上角“Images”查看他人做好的图片,点进去获取信息。 2. 模型保存地址: 大模型:SD 根目录即下载 SD 时存放的文件夹。 Lora、VAE 等。 3. 分辨模型类型:可使用秋叶的模型解析工具 https://spell.novelai.dev/,将模型拖动到空白处获取信息。 DeepSeek 联网版: 1. 核心路径:通过工作流+DeepSeek R1 大模型实现联网版。 2. 拥有扣子专业版账号:普通账号自行升级或注册专业号。 3. 开通 DeepSeek R1 大模型:访问地址 https://console.volcengine.com/cozepro/overview?scenario=coze ,在火山方舟中找到开通管理,开通服务并添加在线推理模型。 4. 创建智能体:点击创建完成智能体创建。
2025-02-07
请给我推荐一个能够阅读网页链接内部信息的AI模型
以下为您推荐能够阅读网页链接内部信息的 AI 模型相关内容: 有一款 AI 浏览器插件,在产品化开发阶段,需要考虑如何稳定获取网页内容、如何选择适合的 AI 大模型 API 服务以及如何构建生产级提示词等问题。 在获取网页内容方面,由于大模型对话产品的外链解析方式容易遭到平台反爬机制制裁,通过用户浏览器以浏览器插件形式本地提取网页内容是一种稳定、经济的解决方案。比如 AI Share Card 插件,可以获取网页元素清单。开发时,您可以拿着初版提示词,询问 AI 来设计获取相关元素的 js 代码。 对于大模型 API,需要利用插件预先获取的网页内容变量、提示词和 API 请求参数,拼搭出完整的 API 提示请求,精确引导 API 返回想要的生成结果。根据 BigModel 官网给出的请求示例,需要传递 Model 类型、系统提示词、用户提示词、top_p、temperature 等关键参数。如果缺少参数设定经验,可以先询问 AI 相关设定的合适值,再逐步调试效果。 同时需要注意,使用 AI 写东西时,它可能会“产生幻觉”生成错误内容,需要检查所有内容。而且 AI 不会真正解释自己,可能给出编造的答案,使用时要对其输出负责。
2025-02-07
有没有能够阅读网页链接内部信息的AI模型?
目前存在能够阅读网页链接内部信息的相关技术和工具。例如,有一些 AI 浏览器插件可以实现这一功能。 在实现过程中,需要考虑以下几个关键方面: 1. 稳定获取网页内容:在初版提示词实验中,获取网页内容依赖大模型对话产品的外链解析能力,但易受平台反爬机制制裁。转换思路,通过用户浏览器以插件形式本地提取网页内容是一种稳定且经济的解决方案。开发时需确定需要插件获取的网页元素,可拿着初版提示词询问 AI 来设计获取相关元素的 js 代码。 2. 选择适合的 AI 大模型 API 服务:需要综合考虑多种因素来选择合适的服务。 3. 构建生产级提示词:对于大模型 API,要利用插件预先获取的网页内容变量、提示词和 API 请求参数,拼搭出完整的 API 提示请求,精确引导 API 返回想要的生成结果。同时,要根据不同模型的特点和要求设置相关参数,也可先询问 AI 相关参数的设定经验再进行调试。 此外,在初版提示词的开发中,将设计要求拆分为“设计规范”和“内容结构”,再细分为独立模块,并结合“内容结构”进行要求提示,这种提示词组织方式具有模型通用性、提示简易性和生成稳定性等显著优势。
2025-02-07
2025年出的模型有哪些
以下是 2025 年可能出现的一些模型: DeepSeek 发布了最新模型 V3 与 R1,采用混合专家(MoE)架构,V3 引入多头潜注意力(MLA),R1 通过强化学习激活推理能力。 字节跳动推出新技术 OmniHuman,利用单张图片和音频生成生动的视频。 OpenAI 发布新模型 o1,基于思维链和强化学习的新训练和推理方法,展现出明显超出 GPT4 等传统模型的复杂推理能力。 苹果公司发布面向 iPhone、iPad 和 Mac 的个人智能化系统 Apple Intelligence,嵌入一个大约 30 亿参数的本地模型。 此外,2024 年的一些模型发展趋势也可能延续到 2025 年,如: 多模态能力的提升,包括视频生成模型的发展,如 OpenAI 的 Sora 引发业界轰动,带动一众模型公司追逐,到年底视频生成已成为各大模型公司的标配能力。 开源项目的发展,如 Meta 推出的 Llama 3.1 405B 版本,中国的开源项目 Qwen2、DeepSeek 等在全球范围内赢得众多用户。 随着“蒸馏”和“量化”等技术的发展,模型的小型化和端侧化逐渐形成趋势,多家公司推出 40 亿参数以下的专业或端侧小模型。
2025-02-07
deepseek与其他大模型有什么区别
DeepSeek 与其他大模型的区别主要体现在以下几个方面: 1. 模型类型:DeepSeek 是推理型大模型,与指令型大模型不同,不需要用户提供详细步骤指令,而是通过理解用户真实需求和场景提供答案。 2. 语言理解:能够理解用户用“人话”表达的需求,不需要用户学习和使用特定提示词模板。 3. 思考深度:在回答问题时能够进行深度思考,而非简单罗列信息。 4. 文风转换:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 5. 技术路线:DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 同属于基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,提升最终回答质量。 6. 发展路径:从一开始,DeepSeek 与国内诸多大模型新秀选择的不是同一个战场。它不拿融资,不抢座次,不比国内舆论声势,不搞产品投放投流,而是选择走全球开源社区,分享直接的模型、研究方法和成果,吸引反馈,再迭代优化。开源彻底,包括模型权重、数据集、预训练方法和高质量论文。
2025-02-07
大模型的基础知识
大模型的基础知识包括以下方面: 知识类型: 内置知识:又可细分为常识知识、专业知识和语言知识。常识知识涵盖日常生活中的事实和逻辑规则;专业知识涉及特定领域的详细信息;语言知识包含语法规则、句型结构、语境含义及文化背景等。 模型架构: encoderonly:适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 encoderdecoder:同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 Google 的 T5。 decoderonly:更擅长自然语言生成任务,众多 AI 助手采用此架构。 大模型的特点: 预训练数据量大,往往来自互联网,包括论文、代码和公开网页等,通常用 TB 级别的数据进行预训练。 参数众多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 数字化与 embedding:为让计算机理解 Token 之间的联系,需将 Token 表示成稠密矩阵向量,即 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”主要指用于表达 token 之间关系的参数多,如 GPT3 拥有 1750 亿参数。
2025-02-07
我们是做小红书笔记的,目前有没有哪个软件可以把我们上千篇以往人工写的笔记,投喂给它,训练出一个能按照以往风格来写笔记的呢?比如扣子或者钉钉,可以吗
目前市面上常见的软件中,豆包暂时未获取到扣子或钉钉有此功能的相关信息。不过,像一些专门的自然语言处理和机器学习平台,如 OpenAI 的 GPT 系列、百度的文心一言等,在一定的技术支持和合规操作下,有可能实现您的需求。但需要注意的是,将大量以往的笔记用于训练模型可能涉及到数据隐私和版权等问题,需要谨慎处理。
2025-02-07
我们是做小红书笔记的,目前有没有哪个软件可以把我们上千篇以往人工写的笔记,投喂给它,训练出一个能按照以往风格来写笔记的呢
目前市面上还没有专门针对小红书笔记且能完全满足您需求的成熟软件。一般来说,使用现有的自然语言处理模型进行这样的训练存在诸多限制和法律风险。小红书对于内容的原创性和合规性有严格要求,使用以往的笔记进行训练可能违反平台规定。但您可以通过学习和借鉴以往笔记的写作风格、结构和主题,人工创作出新的优质笔记。
2025-02-07
你是基于哪个模型训练出来的
以下是为您整合的相关内容: 在 Comfy UI 中训练 LoRA 模型:确保后面有一个空格,将 requirements_win.txt 文件(Windows 系统)或 requirements.txt 文件(非 Windows 系统)拖到命令提示符中,按 Enter 键安装依赖项。若使用虚拟环境,需先激活。图像应放在特定命名格式的文件夹中,data_path 需写入包含数据库文件夹的路径,Python 需要斜杠,节点会自动转换反斜杠,文件夹名称中的空格不是问题。第一行可从 checkpoint 文件夹中选择模型,据说训练需选择基本模型。 训练 Midjourney 的 prompt:V5 是在其 AI 超级集群上训练了 5 个月的第二个模型。基本参数包括:Aspect Ratios 可改变生成的纵横比;Chaos 可改变结果的多样性;No 用于负向提示;Quality 决定渲染质量时间;Seed 用于指定生成图像的起始点,相同种子和提示会产生相似结果;Stop 可在过程中途停止作业。 如何使用 AI 来做事:制作图像时,不同模型创建的图像有比较。这些系统存在内置偏见,可能存在法律和道德问题,目前不能创建真正的文本。
2025-02-06
如何训练一个自己的模型用来识别不同的图片类别
训练自己的模型来识别不同的图片类别可以参考以下方法: 对于扩散模型(如 Midjourney): 强大的扩散模型训练往往消耗大量 GPU 资源,推理成本高。在有限计算资源下,可在强大预训练自动编码器的潜在空间中应用扩散模型,以在复杂度降低和细节保留间达到平衡,提高视觉保真度。引入交叉注意力层可使其成为灵活的生成器,支持多种条件输入。 Midjourney 会定期发布新模型版本以提升效率、连贯性和质量。最新的 V5 模型具有更广泛的风格范围、更高的图像质量、更出色的自然语言提示解读能力等。 用 SD 训练贴纸 LoRA 模型: 对于原始形象,可通过 MJ 关键词生成不同风格的贴图,总结其特征。注意关键词中对颜色的限制,保持正面和负面情绪数据比例平衡。若训练 25626 大小的表情包,初始素材可能够用,若训练更高像素图片,可能需进一步使用 MJ 垫图和高清扩展功能。 进行高清化时,从 256 到 1024 分辨率,输入左图并加入内容和风格描述,挑选合适的图片。 多模态模型(以 StableDiffusion 为例): 多模态模型包括文生图、图生图、图生视频、文生视频等,底层逻辑通常从生图片源头开始。 扩散模型(如 StableDiffusion 中使用的)的训练是对图片加减噪点的过程。先对海量带有标注文字描述的图片逐渐加噪点,模型学习每一步图片向量值和文字向量值的数据分布演变规律,完成训练。输入文字后,模型根据文字向量指导充满噪点的图片减噪点生成最终图片。扩散模型加减噪点方式与大脑构思图片方式类似,且多模态模型会关联文字向量值和图片像素点向量值。
2025-01-31
如何对扣子智能体做专属训练
对扣子智能体进行专属训练时,需要注意以下要点: 1. 跳转设置:扣子在节点切换提供了独立和非独立两种识别模式。独立识别模式中每个节点都有一个独立识别模型,非独立模式则直接使用当前智能体模型进行判断,实际使用中推荐独立模式。 2. 独立模式的选择:独立模式有两种选择。第一种是面对通用指令时,选择已经训练好的、专门用于节点切换的大型模型,其优点是经过特定训练,无需额外操心设计。第二种是在遇到非常复杂的情景时,使用自定义的大型模型,可根据需求定制模型和编写特定提示词以适应复杂交互场景,但实际测试效果不理想,所以推荐使用第一种。 3. 关键注意点:在使用专门训练的意图识别模型进行节点切换时,要特别注意两个关键点。一是每个智能体的用途必须清晰明确,在设计和实现时要清楚标注其功能和目的,以确保系统能准确识别和响应用户意图。二是智能体的名称非常重要,应清晰、易于识别,便于系统识别和记忆。
2025-01-27
预训练
以下是关于预训练的相关内容: Atom 系列模型的预训练: Atom 系列模型包含 Atom7B 和 Atom13B,基于 Llama2 做了中文能力的持续优化。Atom 大模型在 Llama2 的基础上,采用大规模的中文数据进行持续预训练,数据来源广泛,包括百科、书籍、博客、新闻、公告、小说、金融数据、法律数据、医疗数据、代码数据、专业论文数据、中文自然语言处理竞赛数据集等。同时对庞大的数据进行了过滤、打分、去重,筛选出超过 1T token 的高质量中文数据,持续不断加入训练迭代中。为了提高中文文本处理的效率,针对 Llama2 模型的词表进行了深度优化,扩展词库至 65,000 个单词,提高了中文编码/解码速度约 350%,还扩大了中文字符集的覆盖范围,包括所有 emoji 符号。Atom 大模型默认支持 4K 上下文,利用位置插值 PI 和 Neural Tangent Kernel(NTK)方法,经过微调可以将上下文长度扩增到 32K。 GPT 助手的预训练: 预训练阶段是 GPT 训练中计算工作基本发生的地方,占用了训练计算时间和浮点运算的 99%。在这个阶段,需要收集大量的数据,如 Common Crawl、C4、GitHub、维基百科、图书、ArXiv、StackExchange 等,并按照一定比例采样形成训练集。在实际训练前,需要进行预处理步骤 Tokenization(分词/标记化),将原始文本翻译成整数序列。 OpenAI o1 的预训练: GPT 4 等 LLM 模型训练一般由“预训练”和“后训练”两个阶段组成。“预训练”通过 Next Token Prediction 从海量数据吸收语言、世界知识、逻辑推理、代码等基础能力,模型规模越大、训练数据量越多,则模型能力越强。
2025-01-24