Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

什么样的数据集适合训练大语言模型?

Answer

以下是一些适合训练大语言模型的数据集:

  1. Guanaco:这是一个使用 Self-Instruct 的主要包含中日英德的多语言指令微调数据集,地址为:https://huggingface.co/datasets/JosephusCheung/GuanacoDataset
  2. chatgpt-corpus:开源了由 ChatGPT3.5 生成的 300 万自问自答数据,包括多个领域,可用于训练大模型,地址为:https://github.com/PlexPt/chatgpt-corpus
  3. SmileConv:数据集通过 ChatGPT 改写真实的心理互助 QA 为多轮的心理健康支持多轮对话,含有 56k 个多轮对话,其对话主题、词汇和篇章语义更加丰富多样,更加符合在长程多轮对话的应用场景,地址为:https://github.com/qiuhuachuan/smile

虽然许多早期的大型语言模型主要使用英语语言数据进行训练,但该领域正在迅速发展。越来越多的新模型在多语言数据集上进行训练,并且越来越关注开发专门针对世界语言的模型。然而,在确保不同语言的公平代表性和性能方面仍然存在挑战,特别是那些可用数据和计算资源较少的语言。

大模型的预训练数据通常非常大,往往来自于互联网上,包括论文、代码以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用 TB 级别的数据进行预训练。

Content generated by AI large model, please carefully verify (powered by aily)

References

LLM开源中文大语言模型及数据集集合

Guanaco地址:[https://huggingface.co/datasets/JosephusCheung/GuanacoDataset](https://huggingface.co/datasets/JosephusCheung/GuanacoDataset)数据集说明:一个使用Self-Instruct的主要包含中日英德的多语言指令微调数据集。chatgpt-corpus地址:[https://github.com/PlexPt/chatgpt-corpus](https://github.com/PlexPt/chatgpt-corpus)数据集说明:开源了由ChatGPT3.5生成的300万自问自答数据,包括多个领域,可用于用于训练大模型。SmileConv地址:[https://github.com/qiuhuachuan/smile](https://github.com/qiuhuachuan/smile)数据集说明:数据集通过ChatGPT改写真实的心理互助QA为多轮的心理健康支持多轮对话(single-turn to multi-turn inclusive language expansion via ChatGPT),该数据集含有56k个多轮对话,其对话主题、词汇和篇章语义更加丰富多样,更加符合在长程多轮对话的应用场景。

谷歌I/O大会

虽然许多早期的大型语言模型主要使用英语语言数据进行训练,但该领域正在迅速发展。越来越多的新模型在多语言数据集上进行训练,并且越来越关注开发专门针对世界语言的模型。然而,在确保不同语言的公平代表性和性能方面仍然存在挑战,特别是那些可用数据和计算资源较少的语言。Gemma是Google的开放模型系列,旨在通过支持非日耳曼语言的项目开发来应对这些挑战。它的分词器和大量标语词汇使其特别适合处理各种语言。观看印度的开发人员如何使用Gemma创建Navarasa,这是一个针对印度语言进行微调的Gemma模型。[Developing for Indic languages Gemma and Navarasa.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/LVXKbQpGIou04uxUaTQcXsJpnCJ?allow_redirect=1)[heading1]通过LearnLM使每位教师都能接触到每个学生[content]谷歌一直在试行由LearnLM提供支持的Google Classroom的新功能,以帮助减轻教师的工作量。应用生成式人工智能,我们正在探索如何帮助简化课程计划流程,使教师能够根据学生的个人需求定制课程和内容,以便他们能够扩大学习影响力并满足学生的需求。[Empowering Every Teacher to Reach Every Student with LearnLM.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/XkNDbpJcao66JVxan3ochV8xnFg?allow_redirect=1)

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。

Others are asking
如果喂给模型的数据样本量太少怎么办?
当喂给模型的数据样本量太少时,可以考虑以下方法: 1. 利用零样本提示:如今经过大量数据训练并调整指令的 LLM 能够执行零样本任务。指令调整已被证明可以改善零样本学习,如 Wei 等人(2022)所指出。此外,RLHF(来自人类反馈的强化学习)已被采用以扩展指令调整,推动了像 ChatGPT 这样的模型。当零样本不起作用时,建议在提示中提供演示或示例,这就引出了少样本提示。 2. 采用少样本提示:在机器学习和人工智能领域中,少样本提示是指当只有很少数量的标记样本可用于训练模型时,通过巧妙设计任务描述、提供相关背景知识或利用预训练模型等方法,引导模型在有限样本条件下更好地理解和解决任务。少样本提示对格式有很好的限定和约束作用,但推理问题响应稳定性差。 细节的格式限定: 字数限制:限制 ChatGPT 输出的文本长度,以避免输出过长或不合适的回复。可以设置最大字符数或最大字数来控制输出长度。 形式限定:限定输出内容的形式,比如回复领导邮件、工作周报等形式。 细节限制:对文本的格式进行优化,如标题使用斜体、语料使用引用格式、供给读者使用的文字使用代码格式、数据对比使用表格展示、流程化步骤使用流程表格式等。 需要注意的是,这些方法虽然能在一定程度上缓解样本量少的问题,但对于推理、计算等问题,可能需要进一步使用其他方法。
2025-03-18
MoE模型训练为什么会比dense模型要更困难?
MoE 模型训练比 dense 模型更困难的原因主要包括以下几点: 1. 内存需求:MoE 模型需要将所有专家加载到内存中,这导致其需要大量的 VRAM。 2. 微调挑战:微调 MoE 模型存在困难,历史上在微调过程中较难泛化。 3. 训练设置:将密集模型转换为 MoE 模型时,虽然训练超参数和训练设置相同,但 MoE 模型的特殊结构仍带来了训练上的复杂性。 4. 计算效率与泛化平衡:MoE 模型在训练时更具计算效率,但在微调时难以实现良好的泛化效果。
2025-03-17
可以同时接多个大模型api的聊天应用
以下是一些可以同时接多个大模型 API 的聊天应用: 1. 熊猫大侠:基于 COW 框架的 ChatBot 实现步骤 能实现打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用等功能。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 可选择多模型,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,包括文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 有多种部署方法,如本地运行、服务器运行、Docker 的方式。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;操作需依法合规,对大模型生成的内容注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 相关教程:张梦飞同学写的更适合小白的使用教程 2. DIN:全程白嫖拥有一个 AI 大模型的微信助手 搭建步骤: 搭建,用于汇聚整合多种大模型接口,并可白嫖大模型接口。 搭建,这是个知识库问答系统,可将知识文件放入,并接入大模型作为分析知识库的大脑来回答问题。若不想接入微信,其自身有问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 拓展功能:搭建完后想拓展 Cow 的功能,可参考 Yaki.eth 同学的教程,里面的 cow 插件能进行文件总结、MJ 绘画。 3. LLM 开源中文大语言模型及数据集集合中的外部挂件应用 wenda: 地址: 简介:一个 LLM 调用平台。为小模型外挂知识库查找和设计自动执行动作,实现不亚于大模型的生成能力。 JittorLLMs: 地址: 简介:计图大模型推理库:笔记本没有显卡也能跑大模型,具有成本低,支持广,可移植,速度快等优势。 WebCPM 地址: 简介:一个支持可交互网页搜索的中文大模型。 GPT Academic: 地址: 简介:为 GPT/GLM 提供图形交互界面,特别优化论文阅读润色体验,支持并行问询多种 LLM 模型,兼容复旦 MOSS, llama, rwkv, 盘古等。 ChatALL: 地址: 简介:ChatALL(中文名:齐叨)可以把一条指令同时发给多个 AI,可以帮助用户发现最好的回答。
2025-03-17
什么样的数据集适合测试大语言模型?
以下是一些适合测试大语言模型的数据集: Guanaco:地址为,是一个使用 SelfInstruct 的主要包含中日英德的多语言指令微调数据集。 chatgptcorpus:地址为,开源了由 ChatGPT3.5 生成的 300 万自问自答数据,包括多个领域,可用于训练大模型。 SmileConv:地址为,数据集通过 ChatGPT 改写真实的心理互助 QA 为多轮的心理健康支持多轮对话,含有 56k 个多轮对话,其对话主题、词汇和篇章语义更加丰富多样,更符合长程多轮对话的应用场景。 用于评估大语言模型的框架和基准有: GAOKAOBench:地址为,是以中国高考题目为数据集,测评大模型语言理解能力、逻辑推理能力的测评框架,收集了 2010 2022 年全国高考卷的题目,包括 1781 道客观题和 1030 道主观题。 AGIEval:地址为,是由微软发布的新型基准测试,选取 20 种面向普通人类考生的官方、公开、高标准往常和资格考试,包括普通大学入学考试(中国高考和美国 SAT 考试)、法学入学考试、数学竞赛、律师资格考试、国家公务员考试等。 Xiezhi:地址为,是由复旦大学发布的一个综合的、多学科的、能够自动更新的领域知识评估 Benchmark,包含 13 个学科门类,24 万道学科题目,516 个具体学科,249587 道题目。 此外,在多语言能力评测方面,还使用了以下数据集: MMMLU:来自 Okapi 的多语言常识理解数据集,在阿、德、西、法、意、荷、俄、乌、越、中这几个子集进行测试。 MGSM:包含德、英、西、法、日、俄、泰、中和孟在内的数学评测。针对人工评测,使用内部评估集比较了 Qwen272BInstruct 与 GPT3.5、GPT4 和 Claude3Opus,该评测集包括 10 种语言:ar(阿拉伯语)、es(西班牙语)、fr(法语)、ko(韩语)、th(泰语)、vi(越南语)、pt(葡萄牙语)、id(印度尼西亚语)、ja(日语)和 ru(俄语)。
2025-03-17
本地部署大模型
以下是关于本地部署大模型的相关内容: SDXL 大模型的本地部署: 1. SDXL 的大模型分为两个部分: 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于细化生成的模型以获得更丰富的细节。 第二部分,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 下载模型:这三个模型可通过关注公众号【白马与少年】,回复【SDXL】获取云盘下载链接。 3. 版本升级:在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 4. 放置模型:将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 5. 启动使用:启动 webUI 后即可在模型中看到 SDXL 的模型,正常使用时先在文生图中使用 base 模型,填写提示词和常规参数进行生成。 从 LLM 大语言模型、知识库到微信机器人的全本地部署教程: 1. 下载并安装 Ollama: 点击进入 https://ollama.com/download ,根据电脑系统下载。 双击打开,点击“Install”。 安装完成后,将下方地址复制进浏览器中验证安装:http://127.0.0.1:11434/ 。 2. 下载 qwen2:0.5b 模型(0.5b 方便测试,设备充足可下载更大模型): Windows 电脑:点击 win+R,输入 cmd 点击回车。 Mac 电脑:按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”选择“终端”应用程序。 复制命令行,粘贴回车,等待自动下载完成。 ComfyUI ollama 本地大模型部署: 1. 先下载 ollama 安装,安装完成后可在电脑桌面右下角或隐藏图标里找到。 2. 下载对应的模型,选择模型并复制对应的命令。 3. 打开命令行界面,输入对应的模型获取命令,等待下载完成。 下载的模型会保存到 D:\\ollama\\blobs 。 4. docker 安装:安装会下载一些文件,安装后更改目录,不要放在 C 盘。 5. Open webui 安装:输入相关命令,安装成功后回到 docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 6. 错误解决:端口占用问题,运行下面两条命令可以解决。 7. 相关链接: comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile Ollama:https://ollama.com/ docker:https://www.docker.com/ Open webui:https://openwebui.com/
2025-03-17
消除大模型幻觉的方法
以下是关于消除大模型幻觉的方法的相关内容: 大模型出现幻觉的原因及部分解决办法: 1. 原因: 样本存在错误(Imitative Falsehoods),即学习的“教材”中有错误。 2. 解决办法: 上采样(Up Sampling)。 大模型存在的问题: 1. 输出结果具有不可预测性。 2. 静态的训练数据导致知识存在截止日期,无法即时掌握最新信息。 知识的局限性:模型自身的知识源于训练数据,对于实时性、非公开或离线的数据无法获取。 幻觉问题:基于数学概率的文字预测导致会在没有答案的情况下提供虚假信息等。 数据安全性:企业担心数据泄露,不愿将私域数据上传第三方平台训练。 Prompt 可以减少幻觉的原因: Prompt 相当于给大模型提供了一个模板,包括对模型的要求、输入和输出的限制,使大模型在限制下得到概率最大的答案,从而提升返回的准确性。 RAG 是解决大模型问题的有效方案: RAG 可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解 LLM 如何生成最终的结果。RAG 可与微调结合使用,两者并不冲突。但 RAG 不适合教模型理解广泛领域或学习新语言、格式或样式。
2025-03-17
有没有适合记录会议纪要的AI
以下是一些适合记录会议纪要的 AI 工具和方法: 1. 案例一:【普通人秒变效率王】AI 工作流秒记会议纪要 视频讲解:https://m.okjike.com/originalPosts/65fa9d1112ed2fda68e6215e?s=eyJ1IjoiNTlhZDcyZDUwYjAyYTEwMDEyMjc3YmZmIiwiZCI6MX0%3D 工作流概述: 文本导出:使用飞书妙记将会议对话导出为 txt 文件 纪要生成:启动 Kimichat 输入会议纪要 prompt 提示词并上传 txt 文件 内容完善:与 Kimichat 对话并补充会议中未记录或需强调的信息 纪要微调:审阅 Kimichat 生成的会议纪要草稿进行必要微调 成品输出:确认会议纪要内容无误后,输出最终版文档 和 Kimichat 的完整对话(点击可直接复用并接着聊):https://kimi.moonshot.cn/share/cnsk08phmfr6s04umlrg 2. 总结类 AI 工具: 3. 免费的会议语音转文字工具: 飞书妙记:https://www.feishu.cn/product/minutes ,飞书的办公套件之一 通义听悟:https://tingwu.aliyun.com/home ,阿里推出的 AI 会议转录工具 讯飞听见:https://www.iflyrec.com/ ,讯飞旗下智慧办公服务平台 Otter AI:https://otter.ai/ ,转录采访和会议纪要 更多会议记录工具请访问网站:https://waytoagi.com/sites/category/29 。请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-18
我自己想做一个英语背单词的游戏,让AI写出Markdown代码运行后,发现问题很大,但是我有不知如何修改这些代码。所以我觉得自己应该懂Markdown 代码语言。但是我不知道Markdown是最适合的编程语言吗?
Markdown 语言不太适合用于编写复杂的英语背单词游戏。虽然 Markdown 简单易用,常用于文档格式化,但在实现游戏逻辑和功能方面存在较大局限性。 如果您想开发英语背单词游戏,更适合使用编程语言,如 Python 等。在处理代码问题时,您可以参考以下方法: 1. 对于编程小白,向 AI 提供代码范例,尤其是新进入代码节点的 IDE 中的范例,减少对 AI 所写代码的改动。 2. 向 AI 说清楚输入变量与输出变量的类型。 3. 说明与工作流中匹配或想要的变量名称,以减少二次修改。 4. 列出输入变量的具体书写形式,对于复杂形式可使用特定方法获取。 5. 说清楚代码要实现的功能,复杂功能尽量将运行逻辑描述清楚,多用变量名称指代涉及的变量。 如果代码运行效果不尽人意,可把当前的代码、输入变量、预期结果提供给 AI,并告知错误的结果或者报错信息,让 AI 帮忙寻找问题并提供修改方案。提问时可参考以下方式: 以上是我目前的 python 代码,我的输入变量。 但是代码运行后的实际结果却是。 另外,在游戏开发与修改过程中,还需注意文件的存放要求、功能优化、平台上传等方面的问题。例如,三个重要文件需在一个文件夹,本地内置图像、音乐等也需在同一文件夹。游戏功能可增加关卡、调整金币获取和技能点花费、解决 Bug 等。研究将游戏发布到 4399 开放平台时,需注册、实名制,审核较严格。获取游戏素材可从官网免费下载或淘宝购买抠好的素材。
2025-03-18
有什么适合亲子互动用的智能体吗
以下为您推荐两款适合亲子互动的智能体: 1. 名字写对联智能体 作者:韦恩 体验链接:https://tbox.alipay.com/pro/share/202501APggwb00197427?platform=WebService 智能体名称:名字写对联 智能体简介:我是常师傅,别的不懂,春联咱在行,快过年了,用对联送祝福,今年可以不一样 应用场景: 目标人群:想了解对联,想写对联,给朋友送对联祝福的人 解决的问题:想给朋友特殊祝福的人,送春联祝福显得尤为特别,是一份特别的礼物 智能体主要功能: 玩法一:发送朋友名字和祝福,获得一副特殊的对联。 玩法二:发送您的幸运数字,获得您的幸运对联。 玩法三:随便聊聊,对对联,聊聊对联历史。 智能体设计思路: 编排方式:工作流对话模式,可以多轮对话,获得上下文,体验更好。 功能结构:根据用户意图进入不同的流程。 智能体功能实现: 幸运数字模块:发送您的幸运数字,获得您专属幸运对联。 送祝福模块:发送朋友名字祝福,活动给朋友的定制对联。 互动模块:用户可以随意聊,获得您想要的对联相关信息。 2. 旅行青蛙智能体 智能体设计思路: 创意:来源于多年前的火爆 APP——旅行青蛙,采用旅行明信片的方式来与用户互动,一方面让青蛙远游时发回当地景点的明信片,激发用户想去旅游的念头,另一方面通过大模型进行诗歌和文案的创作,可作为自媒体的素材 编排方式:采用单 Agent 的多分支模式,通过意图识别来确定用户的旅行意图,目前运行流畅稳定,有较高的趣味性,效果惊艳。 功能结构:基础功能包括时间季节提取、目的地景点提取、旅行日记文案、景点诗句、文生图提示词编写、风格固定、自定义 FLUX 插件,这些功能相互关联,共同构成一个完整的旅行体验智能体。 智能体功能实现: 随机目的地的旅行模块:青蛙自主选择说走就走的目的地旅行,发回明信片。 指定季节和目的地的旅行模块:青蛙会根据对应的时间和指定的地点,发回来自未来的旅行邮件。 互动模块:用户可以投喂各种食物,与青蛙进行亲密互动。 历史上的今天:当用户选择宅在家里时,青蛙会返回历史上的今天的新闻,并绘制相关的图片 小细节:使用了获取用户 ID,坐标,避免出现推荐与用户同一地区的景点
2025-03-17
适合客户端使用的 asr 模型有什么
以下是一些适合客户端使用的 ASR 模型: 1. Ollama: 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 提供模型库,用户可从中下载不同参数和大小的模型以满足不同需求和硬件条件,可通过 https://ollama.com/library 查找。 支持用户自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 2. FishAudio 的 Fish Agent: 集成了自动语音识别(ASR)和文本到语音(TTS)技术,无需传统的语义编码器/解码器,即可实现语音到语音的直接转换。 模型经过 700,000 小时的多语言音频内容训练,支持包括英语、中文在内的多种语言,能够精准捕捉和生成环境音频信息。文本方面由 Qwen2.53B 处理。 相关链接: https://huggingface.co/fishaudio/fishagentv0.13b https://github.com/fishaudio/fishspeech 3. Gemini: Gemini Nano1 和 Gemini Pro 模型在各种 Benchmark 上的自动语音识别(ASR)任务中表现出色,如在 FLEURS、多语言 Librispeech 以及语音翻译任务 CoVoST 2 等测试集中。 相关链接:未提及。
2025-03-17
适合客户端使用的 tts 模型有什么
以下是一些适合客户端使用的 TTS 模型: 1. Fish Speech:语音处理接近人类水平,约十五万小时三语数据,对中文支持完美。开发者为 fishaudio,具有亿级参数,高效轻量,可在个人设备上运行和微调,适合作为私人语音助手。详细介绍及更多演示:https://xiaohu.ai/p/10779 ,GitHub:https://github.com/fishaudio/fishspeech 。 2. GPTSoVITS:只需 1 分钟语音即可训练一个自己的 TTS 模型,是一个声音克隆和文本到语音转换的开源 Python RAG 框架。5 秒数据就能模仿,1 分钟的声音数据就能训练出高质量的 TTS 模型,完美克隆声音。支持零样本 TTS、少量样本训练、跨语言支持、易于使用的界面等。GitHub: 。
2025-03-17
flux lora训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 模型准备: 1. 下载所需模型,包括 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置随意,只要知晓路径即可。训练时建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 1. 网盘链接: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 安装虚拟环境: 1. 下载完脚本并解压。 2. 在文件中找到 installcnqinglong.ps1 文件,右键选择“使用 PowerShell 运行”。 3. 新手在此点击“Y”,然后等待 1 2 小时的下载过程,完成后提示是否下载 hunyuan 模型,选择 n 不用下载。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集: 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以上传包含图片 + 标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,选择上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。 4. 模型效果预览提示词则随机抽取一个数据集中的标签填入。 5. 训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数。若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。 6. 按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 7. 等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择 Lora 和调节参数。
2025-03-15
在ai图像训练打标时,怎么让部分标签权重更大
在 AI 图像训练打标时,让部分标签权重更大的方法如下: 1. 在 Stable Diffusion 中,手动补充的特殊 tag 放在第一位,因为 tags 标签有顺序,最开始的 tag 权重最大,越靠后的 tag 权重越小。 2. 在 BooruDatasetTagManager 中采用方法二: 删除部分特征标签,如 All tags 中不该出现的错误识别的自动标签,Image tags 中作为特定角色的自带特征的标签,并将特征与 LoRA 做绑定。 完成所有优化删除后,点击左上角菜单 File>Save all changes 保存当前的设置。 此外,在 Stable Diffusion 训练数据集制作中还需注意: 1. 调用 Waifu Diffusion v1.4 模型需要安装特定版本(2.10.0)的 Tensorflow 库,在命令行输入相应命令完成版本检查与安装适配。 2. 进入到 SDTrain/finetune/路径下,运行相应代码获得 tag 自动标注,其中主要参数包括: batch_size:每次传入 Waifu Diffusion v1.4 模型进行前向处理的数据数量。 model_dir:加载的本地 Waifu Diffusion v1.4 模型路径。 remove_underscore:开启后将输出 tag 关键词中的下划线替换为空格。 general_threshold:设置常规 tag 关键词的筛选置信度。 character_threshold:设置特定人物特征 tag 关键词的筛选置信度。 caption_extension:设置 tag 关键词标签的扩展名。 max_data_loader_n_workers:设置大于等于 2,加速数据处理。
2025-03-15
你好,我想训练一个自己的专属模型,比如说基于网页里面的问卷调查,我有答题的逻辑,网页的问卷调查项目每天都有非常多的不同的地方,但是又有相通的地方,我想让AI在我的逻辑之上能自我迭代自动答题,我该怎么办
如果您想基于网页问卷调查训练一个能在您的逻辑之上自我迭代自动答题的专属模型,有以下两种常见的技术方案: 1. 训练专有大模型: 优点:效果最好。 缺点:成本高,训练和维护需要大量计算资源和专业知识;更新模型知识难度大,需要重新训练或微调,过程复杂耗时。 2. 利用 RAG(检索增强生成)技术: 例如选择 Baichuan27BChat 模型作为底模,配置模型本地路径和提示模板。在 Train 页面里选择 sft 训练方式,加载定义好的数据集,根据数据集大小和收敛情况设置学习率和训练轮次。使用 FlashAttention2 可减少显存需求、加速训练速度;显存小的朋友可减少 batch size 并开启量化训练,内置的 QLora 训练方式好用。但需要用到 xformers 的依赖。根据聊天记录规模大小,训练时间少则几小时,多则几天。 此外,还有学生训练专属植物分类 AI 模型的案例供您参考。在北京市新英才学校的跨学科选修课“生化 E 家”中,老师和学生共同收集校园内不同树叶的照片,在 OpenInnoLab里找到图像分类训练工具,建立植物分类模型,加入大量数据集进行训练,再用图像化编程将其套在程序里,形成简单的识别工具。在这个过程中,老师通过生活体验与学生讨论图像分类原理,学生从体验到实践操作,在不进行大量代码编程的情况下能够训练 AI 模型,并了解模型训练准确度与数据的关系。
2025-03-14
分布式预训练里的流水线并行
分布式预训练中的流水线并行是一种在模型参数量太大一张卡不能完全放下时采用的切分方法。具体而言,沿着模型的拓扑序将其切分成 p 段,每段为一个 stage。将大小为 N 的 minibatch 进一步切分为 m 个大小为 M 的 microbatch(N = m·M),这些 microbatch 依次进入上述 p 个 stage。 在流水线并行切分后,每个 stage 的耗时会发生变化。假设 1 指出:算力为 1 的节点,处理完整模型的 1 个 microbatch,前向和反向耗时分别是 t_f 和 t_b。基于此有推论 1:算力为 1/p 的节点,处理完整模型的 1 个 microbatch,前向和反向耗时分别是 p·t_f 和 p·t_b;推论 2:算力为 1 的节点,处理 1/p 模型的 1 个 microbatch,前向和反向耗时分别是 t_f/p 和 t_b/p;推论 3:算力为 1/p 的节点,处理 1/p 模型的 1 个 microbatch,前向和反向耗时分别是 t_f 和 t_b。 从耗时情况来看,理论上界是显存无限大,不需要 pipeline 并行,一把梭直接对 minibatch 的样本做前向和反向,耗时正比于样本数量,b_best 耗时为 t_best = m·,可见耗时是理论上界的 p 倍,存在大量计算资源闲置空载,硬件利率用很低。 最后小结,3D 并行包括数据并行。DP 计算和通信效率友好,但权重显存不友好;PP 要求 minibatch 里 batch size 足够大以掩盖流水线带来的 overhead,batch size 过大则会增大激活显存占用;TP 权重显存友好,但计算和通信效率不友好,通信量要求大。ZeRO 针对数据并行显存占用大的问题提出优化,Alpa 借鉴 AI 编译器思路对 3D 并行建模并用自动化搜索方式得到并行策略。
2025-03-14
怎么快速生产训练语料
以下是快速生产训练语料的一些方法: 1. 在 LORA 模型训练中: 首先在脚本的 LoraTraining 目录下新建训练文件夹命名为 train。 如果需要训练多个概念,就在(input_角色名称)下面再新建一个文件夹,命名写(训练次数_角色名称_泳装)进行文件夹区分。 在脚本根目录下面建立一个训练文件夹(train),在(train)文件夹内建立一个概念文件夹和一个正则化文件夹(reg,不需要正则化可不建立),在概念文件夹内建立训练素材文件夹(训练素材文件夹前面的需要加“_”你想训练的次数)之后将训练素材放置进去即可。 正则化素材方面,正则化在深度学习中指的是给模型加一些规则和约束,限制要优化的参数有效防止过拟合。假设在训练集里面放入了一个泳装角色的训练素材,那么为了防止过拟合的问题,在正则化文件夹内放入一些同样是泳装的图片素材。正则化素材注意不要过多,不然机器会过多的学习到里面的素材导致跟训练目标角色不一致。 2. 对于神经网络大模型: 大模型生成文字的过程,是根据输入的文字,预测下一个字。通过一次又一次反复的调用同一个神经网络模型,一个一个字的往后续写,直到输出结束符号为止。 大模型的输出并不是一个字,而是所有字都输出一个概率。可以选择最高概率的或者第二高的汉字作为输出结果,也可以从前几名当中随机挑选。 可以将任何网络上的文本直接当作训练素材来训练神经网络模型。把任意一段文字的前几个字作为输入,而下一个字作为答案用做训练素材,从而方便地得到大量的训练素材。 3. 在雅思口语备考中: 如果时间充裕,建议把每个 topic 的问题喂给 GPT,让它一道道问您,您回答,然后转成文本查看发音问题。 让 GPT 对您的内容执行 correct 或者 another native answer 两个指令。前者可以基于您的内容做修正,后者是在自己完全没思路时让它给出答案。 对语料进行分类归纳,如按照教育、工作、购物、科技、消费分成几大类,再弄吃、环保、交通、历史等专题,挑最不熟悉、现场水不出来的准备。考前 1 小时,再顺一遍语料,多看两眼关键表达。
2025-03-14
大模型就是指大语言模型吗?有哪些常见的非语言类大模型和小模型,两者的区别和联系是什么?
大模型并非仅指大语言模型。大型模型主要分为两类:一是大型语言模型,专注于处理和生成文本信息;二是大型多模态模型,能够处理包括文本、图片、音频等多种类型的信息。 大型多模态模型与大型语言模型存在以下区别: 1. 处理的信息类型不同:大型语言模型专注于文本信息,而大型多模态模型能处理多种信息类型。 2. 应用场景不同:大型语言模型主要用于自然语言处理任务,如文本翻译、生成、情感分析等;大型多模态模型可应用于图像识别与描述、视频分析、语音识别与生成等更广泛的领域。 3. 数据需求不同:大型语言模型主要依赖大量文本数据训练,大型多模态模型则需要多种类型数据。 当我们提到“小模型”时,是相对大型模型而言,规模较小。这些小模型通常是为完成特定任务而设计,比如最初用于图像分类,只能分辨是或不是某一个东西(如猫、狗)。 “小模型”在特定任务上表现出色,但“大模型”像多功能基础平台,能处理多种任务,应用范围广泛,拥有更多通识知识。 大模型并不拥有无限知识,其知识来源于训练过程中的有限数据,只能回答训练中见过或类似的问题,知识库不会自动更新,在某些特定或专业领域的知识可能不够全面。 大型语言模型的运作机制主要是通过大量数据训练学习语言结构和模式,然后根据输入生成相应文本,类似于词语接龙游戏,永远在猜测下一个字符将要生成什么。
2025-03-16
可以给出国内出名的大语言模型的信息吗,包括其模型名称,版本,发布时间,发布公司,模型参数,性能特点等信息,尽可能覆盖更多的大模型,使用表格输出,并按照发布时间排序
|模型名称|版本|发布时间|发布公司|模型参数|性能特点|适合应用| |||||||| |Baichuan213BChat|Baichuan2192K|10月31日|百川智能|未提及|在逻辑推理、知识百科、生成与创作、上下文对话等基础能力上排名200亿参数量级国内模型第一,在计算和代码能力上有一定优化空间|场景相对广泛且可以私有化部署,重点推荐在小说/广告/公文写作等内容创作场景、智能客服/语音助手以及任务拆解规划等场景,可部署在教育、医疗、金融等垂直行业中应用,同时可部署在低算力终端处理基础智能任务| |文心一言|V4.0|10月17日|百度|未提及|在计算、逻辑推理、生成与创作、传统安全这4大基础能力上排名国内第一,在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且绝大部分能力有很高的水平|能力栈较为广泛,可应用的场景较多,重点推荐在查询搜索知识应用、任务拆解规划Agent、文案写作以及代码编写及纠错等方面的应用,由于在逻辑推理方面的不俗表现,可以重点关注在科学研究、教育、工业方面的落地能力| |通义千问 2.0|2.0|10月31日|阿里云|千亿级参数|未提及|未提及|
2025-03-15
我需要把文字转语言,并且生成一些图片,做成视频,用到那些AIr
目前有多种 AI 工具可以帮助您实现将文字转换为语言并生成图片制作视频的需求。例如,一些语音合成工具如百度语音、科大讯飞等可以将文字转换为语言;在图片生成方面,像 DALL·E2、StableDiffusion 等工具表现出色;而制作视频时,您可以考虑使用剪映等软件结合上述生成的语音和图片来完成。
2025-03-10
【深度拆解】ChatGPT-4o背后的技术革新:从语言模型到多模态跨越
ChatGPT4o 背后的技术革新具有重要意义。人类的感知多样,仅靠语言描述世界远远不够,多模态理解非常有用,能更全面学习世界、理解人类需求等。2023 年 9 月 GPT4v 发布,将大语言模型竞赛带入多模态模型时代,如 ChatGPT 能看图说话、画图,Google 的 Gemini 支持多种模态,但 OpenAI 常抢先发布。今年 5 月 OpenAI 发布 GPT4o,向智能体方向迈进,其是之前技术的集大成者,通过端到端神经网络混合训练视觉、语音和文本数据,平均音频输入反应时间为 300 毫秒,能感悟人类表达的情绪等。OpenAI 未公开 GPT4o 技术细节,唯一线索来自内部炼丹师的博客 AudioLM。此外,GPT4 是 OpenAI 的多模态工具,在编程任务中表现出色,ChatGPT 是用户友好界面,可与高级语言模型交互。2024 年 5 月 14 日 OpenAI 发布 GPT4o,效率高、价格降低、延迟缩短。9 月 16 日 OpenAI 推出 o1 系列模型,在复杂任务中表现优异,o1mini 适合编码任务,两个模型已在 ChatGPT 中提供,有免费或收费版本。
2025-03-09