直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

数据标注与Ai的大模型是怎样的环节

回答

在 AI 领域中,数据标注与大模型有着密切的关系。

对于大模型而言:

  1. 数据清洗:在训练前对数据预处理,移除或修正有偏见、歧视等不道德内容的数据。
  2. 算法设计:减少偏见和不公平性,平衡数据集中不同群体的代表性。
  3. 道德和伦理准则:制定明确准则指导开发和使用。
  4. 透明度:对模型能力和局限性保持透明,告知用户可能的偏差和不确定性。
  5. 用户反馈:允许用户反馈以识别和纠正不道德行为。
  6. 持续监控:监控模型表现,确保输出符合道德和伦理标准。
  7. 人工干预:在可能涉及道德伦理问题时引入人工审核和干预。
  8. 教育和培训:对使用人员进行道德伦理方面的教育和培训。

在数据标注方面:

  1. 数据清洗工作占据 AIGC 时代模型训练 70%-80%的时间,必不可少,因为数据质量决定机器学习的上限。
  2. 需筛除分辨率低、质量差、存在破损及与任务目标无关的数据,去除可能包含的水印、干扰文字等。
  3. 数据标注分为自动标注和手动标注,自动标注主要依赖像 BLIP 和 Waifu Diffusion 1.4 这样的模型,手动标注依赖标注人员。例如使用 BLIP 可对数据进行自动标注 caption。

然而,在中国的 AI 创业生态中,存在一些问题:

  1. 高质量的数据处理服务稀缺。
  2. 数据获取门槛低,但高质量数据获取困难,中文互联网数据质量相对较低。

总之,确保 AI 大模型的道德和伦理性以及获取高质量的数据标注是复杂且持续的挑战。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

问:大模型具有道德观念吗?

1.数据清洗:在训练模型之前,对数据进行预处理,移除或修正带有偏见、歧视或其他不道德内容的数据。2.算法设计:设计算法以减少偏见和不公平性,例如通过平衡数据集中不同群体的代表性。3.道德和伦理准则:制定明确的道德和伦理准则,指导模型的开发和使用。4.透明度:对模型的能力和局限性保持透明,告知用户模型可能存在的偏差和不确定性。5.用户反馈:允许用户提供反馈,以识别和纠正模型的不道德行为。6.持续监控:持续监控模型的表现,确保其输出符合道德和伦理标准。7.人工干预:在模型的输出可能涉及道德和伦理问题时,引入人工审核和干预。8.教育和培训:对使用模型的人员进行道德和伦理方面的教育和培训。尽管采取了上述措施,但确保AI模型的道德和伦理性仍然是一个复杂且持续的挑战。随着技术的发展,相关的道德和伦理标准也在不断演进。内容由AI大模型生成,请仔细甄别

中国大模型面临的真实问题:登顶路远,坠落一瞬

接下来,让我们把目光转向数据这个同样关键的要素。在人工智能的世界里,数据就像是原油,而高质量的数据则是精炼后的汽油。虽然OpenAI训练大模型所用的中文数据也源自中国的互联网平台,但他们在数据处理上的额外努力,就像是将粗糙的原石打磨成璀璨的钻石。这种数据质量的提升,远非简单的数据标注工作所能企及,而是需要一支专业团队进行深度的数据清洗和精细整理。然而,在中国的AI创业生态中,高质量的数据处理服务就像是稀缺资源。在国内,数据获取的门槛相对较低,这看似是一个优势。然而,虽然数据获取容易,但高质量数据的获取却是另一回事。国内的大模型主要以中文数据为基础,这看似是一个自然的选择。但业内普遍认为中文互联网数据的质量相对较低。这种情况让人想起了信息论中的"垃圾进,垃圾出"原理。如果输入的数据质量不高,那么即使有最先进的算法,输出的结果也难以令人满意。这个现象在IT从业者的日常工作中得到了印证。当需要搜索专业信息时,他们往往会首选Google、arXiv或Bing等国际平台,而不是国内的搜索引擎。

教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识 - 知乎

首先,我们需要对数据集进行清洗,和传统深度学习时代一样,数据清洗工作依然占据了AIGC时代模型训练70%-80%左右的时间。并且这个过程必不可少,因为数据质量决定了机器学习的上限,而算法和模型只是在不断逼近这个上限而已。我们需要筛除分辨率较低,质量较差(比如说768*768分辨率的图片< 100kb),存在破损,以及和任务目标无关的数据,接着去除数据里面可能包含的水印,干扰文字等,最后就可以开始进行数据标注了。数据标注可以分为自动标注和手动标注。自动标注主要依赖像BLIP和Waifu Diffusion 1.4这样的模型,手动标注则依赖标注人员。(1)使用BLIP自动标注caption我们先用BLIP对数据进行自动标注,BLIP输出的是自然语言标签,我们进入到SD-Train/finetune/路径下,运行以下代码即可获得自然语言标签(caption标签):

其他人在问
有没有可以帮我做作品集的ai工具?
以下为您介绍一些可以帮助制作作品集的 AI 工具: 1. GPT4、WPS AI 和 chatPPT:可以用于制作 PPT 类型的作品集。例如,在制作 PPT 时,大纲内容、排版、动画等都可以借助这些工具完成。 2. Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,能为简历摘要、工作经验和教育等专业部分编写内容,并保持一致语调。 3. Rezi:是一个受到众多用户信任的领先 AI 简历构建平台,使用先进的 AI 技术自动化创建可雇佣简历的各个方面,包括写作、编辑、格式化和优化。 4. Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结、技能、成就生成器和 AI 驱动的简历工作匹配。 更多相关工具,您还可以查看:https://www.waytoagi.com/category/79 。 需要注意的是,AI 工具生成的内容可能需要您进一步甄别和调整,以满足您的具体需求。
2024-11-12
什么是AI
AI 是一门令人兴奋的科学,它研究如何使计算机表现出智能行为,例如做一些人类所擅长的事情。 对于 AI 的理解,对于不具备理工科背景的文科生来说可能较困难,可将其当成一个黑箱,只需要知道它是某种能模仿人类思维、理解自然语言并输出自然语言的东西即可。其生态位是一种似人而非人的存在,即便技术再进步,这一生态位也不会改变。 在实际应用中,有些任务无法明确编程让计算机完成,比如根据照片判断一个人的年龄,而这类任务正是 AI 所感兴趣的。 AI 健身是利用人工智能技术辅助或改善健身训练和健康管理的方法,能根据用户情况提供定制化训练计划和建议。相关的 AI 工具包括 Keep、Fiture、Fitness AI、Planfit 等。
2024-11-12
如何使用ai帮助我写作
利用 AI 帮助写作可以参考以下步骤和方法: 1. 确定写作主题:明确您的研究兴趣和目标,选择一个具有研究价值和创新性的主题。 2. 收集背景资料:使用 AI 工具如学术搜索引擎和文献管理软件来搜集相关的研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具来分析收集到的资料,提取关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成写作的大纲,包括引言、文献综述、方法论、结果和讨论等部分。 5. 撰写初稿:可以利用 AI 写作工具草拟任何东西的初稿,如博客文章、论文、宣传材料、演讲、讲座等。 6. 优化内容:将文本粘贴到 AI 中,要求它改进内容,或就如何为特定受众提供更好的建议。也可以要求它以不同风格创建多个草稿,使事物更生动,或者添加例子,以激发您做得更好。 7. 帮助完成任务:AI 可以做您没有时间做的事情,像实习生一样使用它写邮件,创建销售模板,提供商业计划的下一步等。 8. 数据分析(若涉及):如果写作内容涉及数据收集和分析,可以使用 AI 数据分析工具来处理和解释数据。 9. 生成参考文献:使用 AI 文献管理工具来生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具来检查写作的逻辑性和一致性,并根据反馈进行修改。 11. 提交前的检查:最后,使用 AI 抄袭检测工具来确保写作的原创性,并进行最后的格式调整。 需要注意的是,AI 工具可以作为辅助,但不能完全替代您的专业判断和创造性思维。在使用 AI 进行写作时,应保持批判性思维,并确保写作的质量和学术诚信。 目前,一些较好的写作工具包括: 最佳免费选项: 付费选项:带有插件的4.0/ChatGPT 此外,GPT4 仍然是功能最强的人工智能写作工具,您可以在 Bing(选择“创新模式”)上免费访问,或者通过购买 ChatGPT 的$20/月订阅来访问。Claude 是紧随其后的第二名,也提供了有限的免费选项。这些工具也被直接集成到常见的办公应用程序中,如 Microsoft Office 将包括一个由 GPT 提供支持的副驾驶,Google Docs 将整合 Bard 的建议。
2024-11-12
为什么AI那么厉害
AI 之所以厉害,原因主要包括以下几点: 1. 具有非凡的潜力,能够在众多领域得到应用,如改善社会和经济,其影响力可与电力和互联网相媲美,能推动增长并创造就业机会。 2. 可支持人们完成现有工作,提高劳动力效率和工作场所安全性。 3. 是人类研究世界的有力工具,能帮助解决基础科学面临的瓶颈,例如在生物领域能快速计算蛋白质的折叠结构。 4. 不断发展和创新,如 GPT4 的升级,能为用户提供更多帮助。但同时也存在耗能等问题。
2024-11-12
国内有哪些AI出海产品
国内的 AI 出海产品有 ThinkAny、GenSpark、Devv 等。 在图像类 AI 产品方面,国内有可灵和通义万相。可灵由快手团队开发,用于生成高质量的图像和视频,图像质量高,但价格相对较高;通义万相是阿里旗下的工具,在中文理解和处理方面表现出色,用户可选择多种艺术和图像风格,操作界面简洁直观,且目前免费,但在某些方面存在局限性。 在 PPT 类 AI 产品方面,国内推荐爱设计 PPT,其背后有强大的团队,能敏锐把握市场机遇,已确立市场领先地位,能提高制作效率并保证高质量输出。
2024-11-12
0基础怎么快速学会做AI
对于 0 基础学习 AI,您可以参考以下步骤: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您能找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,您还可以参考以下具体的学习活动: 1. 参加“AI 编程共学”活动,例如: 10 月 28 日 20:00 开始的“0 基础做小游戏分享:通往 AGI 之路增量小游戏、转生之我是野菩萨”,回放链接:。 10 月 29 日 20:00 开始的“0 编程基础入门 Cursor 极简使用指南”,回放链接:。 10 月 30 日 20:00 开始的“0 基础学做 AI 拍立得:Coze 工作流实现手把手教学、AI 拍立得开源代码开箱即用”,回放链接:。 10 月 31 日 20:00 开始的“0 基础做小游戏分享:猪猪🐷撞南墙”,回放链接:。 2. 对于技术纯小白,您可以: 从一个最最基础的小任务开始,让 AI 先帮您按照 best practice 写一个 say hello 的示例程序,并解释每个文件的作用及程序运行的逻辑,学会必备的调试技能。 通过和 AI 的对话,逐步明确项目需求,让 AI 帮助您梳理出产品需求文档。
2024-11-12
在语音数据的标注中你有什么针对你行业(车载语音助手)的特殊标注规则
在车载语音助手这一行业的语音数据标注中,特殊标注规则如下: 1. 音素覆盖:在录音开始前构建基础的文本前端,具备简单的文本转音素(G2P)系统。录音文本要保持多样性,音素或音素组合尽可能覆盖全,统计音素序列中的 NGram,避免某些音素或组合出现频次过高或过少。 2. 场景定制:收集车载播报的常用话术、专业术语(如油量、胎压等)、音乐名或歌手名、地名和新闻播报。对业务有一定理解,并在一开始就和需求方紧密沟通。 3. 文本正确性:确保录音文本拼写无误,内容正确,删除脏话、不符合宗教信仰或政治不正确的语句。
2024-11-11
AI和人工标注相关
以下是关于 AI 和人工标注相关的内容: 在 Agent 相关比赛的赛道介绍中,涉及到多个与 AI 和人工标注相关的参考方向,包括: 1. 内容生成:AI 可自动编写文章并选择或生成相应图片。 2. 图像标注:AI 能识别和理解图片内容,并生成相应文字描述。 3. 图文匹配:为给定图片找到合适文字描述,或为给定文字找到匹配图片。 4. 数据可视化:将复杂数据用图表、信息图等方式可视化展示,使解读更直观简洁。 5. 设计辅助:例如生成 LOGO、海报设计等。 6. 自动化排版:根据文本内容与结构自动进行页面布局和美观排版。 7. 图文识别:借助 OCR 技术抓取图文内容后,AI 能够理解并处理。 8. 新闻和社交媒体:AI 可对大量新闻和社交媒体信息自动编辑和汇总,生成图文摘要。 9. 艺术创作:辅助绘画、音乐创作。 在 OpenAI O1 的训练中,可能采用的训练数据包括人工标注数据和合成数据。对于人工标注数据,会人工标注一批 COT 思考过程,形成<问题,思考过程(包括思考过程中出现的错误及错误修正过程),答案>,用这些数据 SFT 一下 o1 初始的模型,启动其输出模式。但人工标注存在难度大、成本高、可扩展性差的问题,优点是质量较高。之后可以采用合成数据的模式,如从人工标注的 COT 里截取片段,用 MCTS 树搜索方式补齐后续推理过程,或者对于有确定标准答案的逻辑问题,通过不断试错的模式搜索答案,这些正确或错误的答案都可用于训练 o1 模型。
2024-10-14
推荐分析PDF文档 提炼标注关键词的AI
以下是一些可以分析 PDF 文档、提炼标注关键词的 AI 产品或方法: 1. DeepL(网站):点击页面“翻译文件”按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):安装插件后,点击插件底部“更多”按钮,选择“制作双语 BPUB 电子书”、“翻译本地 PDF 文件”、“翻译 THML / TXT 文件”、“翻译本地字幕文件”。 3. Calibre(电子书管理应用):下载并安装 calibre,并安装翻译插件“Ebook Translator”。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再点击谷歌翻译“Document”按钮,上传 Word 文档。 5. 百度翻译(网页):点击导航栏“文件翻译”,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击“文档翻译”,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方“切换成电子书”,轻触屏幕唤出翻译按钮。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-09-14
数据标注会涉及哪些方面?以及现在哪些类型、行业的数据更需要标注?
数据标注涉及以下方面: 1. 从量到质的转变:早期大模型训练侧重依靠大量算力和大规模数据集提升性能,如今数据质量成为提高模型性能的关键瓶颈,更需注重提高数据质量和相关性。 2. 向知识密集型转变:多模态模型需处理多种类型数据,如文本、图像、声音等,这使数据标注过程更细致复杂,需要更高水平的理解和分析能力,不再是简单的劳动力作业。 3. 对标注方式的理解:大模型的数据标注不仅关注清晰的行业术语,还需要能被模型理解的标注方式,可能涉及更多上下文的理解和语义分析。 4. 对业务的理解:目前数据服务依赖于标注员对业务的理解,通用型数据需求减少,更多是公司内部独有的数据内容和词语,能承接大模型数据标注的服务商不多。 现在更需要标注的数据类型和行业包括: 1. 多模态模型相关的数据,如同时包含文本、图像、声音等多种类型的数据。 2. 公司内部独有的、与特定业务相关的数据。 在数据标注过程中,还需注意数据隐私与安全问题,如数据加密与计算效率的权衡等。
2024-09-12
数据标注主要有什么用
数据标注主要有以下作用: 在 AIGC 时代的模型训练中,数据标注是必不可少的环节。数据质量决定了机器学习的上限,而标注工作能筛除分辨率低、质量差、存在破损以及与任务目标无关的数据,去除可能包含的水印、干扰文字等,从而提高数据质量。 有助于提高训练数据的真实性、准确性、客观性和多样性。 在生成式人工智能技术研发过程中,数据标注的提供者应当制定清晰、具体、可操作的标注规则,开展质量评估,抽样核验标注内容的准确性,对标注人员进行必要培训,监督指导标注人员规范开展标注工作。 数据标注分为自动标注和手动标注。自动标注主要依赖像 BLIP 和 Waifu Diffusion 1.4 这样的模型,手动标注则依赖标注人员。例如使用 BLIP 可自动标注 caption。
2024-09-12
在导入前,先对知识库文档内容进行标注处理,要怎么处理
在导入前对知识库文档内容进行标注处理,主要有以下要点: 为提升召回准确性,一方面在导入前,先对知识库文档内容进行标注处理,另一方面对于切割后的 chunk 进行标注,如标注 chunk 来源哪个文档的哪个段落。 对于本地 word 文件,每个章节都要按照固定的方式进行人工标注和处理,然后选择创建知识库自定义清洗数据。
2024-08-19
AI在哪些电力设备监测环节可以发挥作用
AI 在电力设备监测中可以发挥以下作用: 1. 实时监测:AI 可以通过传感器和摄像头等设备实时监测电力设备的运行状态,包括温度、电压、电流等参数,并及时发现异常情况。 2. 故障诊断:AI 可以利用机器学习算法对电力设备的历史数据进行分析,建立故障模型,从而实现对设备故障的快速诊断和预测。 3. 维护管理:AI 可以根据电力设备的运行状态和历史数据,制定科学合理的维护计划,提高设备的可靠性和使用寿命。 4. 安全预警:AI 可以通过对电力设备的监测和分析,及时发现安全隐患,并发出预警信号,避免安全事故的发生。 5. 能源管理:AI 可以通过对电力设备的监测和分析,优化能源利用效率,降低能源消耗和成本。 总之,AI 在电力设备监测中可以发挥重要作用,提高设备的可靠性和安全性,降低能源消耗和成本,为电力行业的可持续发展提供有力支持。 (以上答案可能无法准确回答问题,建议在引用内容里进一步确认)
2024-04-16
大模型排名以及排名的评测标准维度是什么
以下是一些常见的大模型排名及评测标准维度: FlagEval(天秤)大模型评测体系及开放平台: 地址: 简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval: 地址: 简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb: 地址: 简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。 斯坦福发布的大模型排行榜 AlpacaEval: 项目链接:https://github.com/tatsulab/alpaca_eval 排行榜链接:https://tatsulab.github.io/alpaca_eval/ 该研究团队选择了目前在开源社区很火的开源模型,还有 GPT4、PaLM 2 等众多「闭源」模型,甚至还开设了一个「准中文」排行榜。 AlpacaEval 分为以 GPT4 和 Claude 为元标注器的两个子榜单。 在斯坦福的这个 GPT4 评估榜单中: GPT4 稳居第一,胜率超过了 95%;胜率都在 80%以上的 Claude 和 ChatGPT 分别排名第二和第三,其中 Claude 以不到 3%的优势超越 ChatGPT。 值得关注的是,获得第四名的是一位排位赛新人——微软华人团队发布的 WizardLM。在所有开源模型中,WizardLM 以仅 130 亿的参数版本排名第一,击败了 650 亿参数量的 Guanaco。 而在开源模型中的佼佼者 Vicuna 发挥依然稳定,凭借着超过 70%的胜率排在第六,胜率紧追 Guanaco 65B。 最近大火的 Falcon Instruct 40B 表现不佳,仅位居 12 名,略高于 Alpaca Farm 7B。 AlpacaEval 的技术细节: 人类一致性:标注者与交叉标注集中人类多数票之间的一致性。 价格:每 1000 个标注的平均价格。 时间:计算 1000 个标注所需的平均时间。相对于人工标注,全自动化的 AlpacaEval 仅需花费约 1/22 的经济成本和 1/25 的时间成本。 AlpacaEval 评估模型的方式: alpaca_eval:直接根据目标模型输出的响应来评估模型。 alpaca_eval evaluate_from_model:根据 HuggingFace 已注册模型或这 API 提供商来端到端评测模型。 评测过程分为以下 3 步: 1. 选择一个评估集,并计算指定为 model_outputs 的输出。默认情况下,使用来自 AlpacaEval 的 805 个示例。 2. 计算 golden 输出 reference_outputs。默认情况下,在 AlpacaEval 上使用 textdavinci003 的输出。 3. 通过 annotators_config 选择指定的自动标注器,它将根据 model_outputs 和 reference_outputs 计算胜率。这里建议使用 alpaca_eval_gpt4 或 claude。根据不同的标注器,使用者还需要在环境配置中设定 API_KEY。
2024-11-12
从0到1学习大模型知识
以下是从 0 到 1 学习大模型知识的相关内容: 什么是大模型: 通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会对输入进行数字化形成词汇表。 大模型如何运作: 打个比方,“我今天吃了狮子头和蔬菜”这句话,在 transformer 中,会由 attention 层对其加入更多信息补充,如“狮子头是一道菜”“今天是星期六”等,这些补充信息会作为输入给到下一个 attention 层,最终哪些信息补充、保留、传递由模型自主学习。层与层之间就像人阅读文章时的连贯性注意力过程,大模型以词向量和 transformer 模型学习海量知识,把知识作为向量空间中的关系网存储,接受输入时通过向量空间中的匹配进行输出。这个过程像人脑阅读学习,记忆的不是逐字逐句,而是按相关性、重要程度结合历史经验,比如看到红色会觉得代表温暖、强烈。 大模型的整体架构: 从整体分层角度,大模型架构可分为以下几层: 1. 基础层:为大模型提供硬件支撑、数据支持,如 A100、数据服务器等。 2. 数据层:分为静态的知识库和动态的三方数据集,不是用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据。 3. 模型层:包括 LLm(largelanguagemodel,如 GPT,一般使用 transformer 算法实现)或多模态模型(如文生图、图生图等,训练数据与 llm 不同,用图文或声音等多模态数据集)。 4. 平台层:如大模型的评测体系或 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:即应用层,是用户实际看到的地方。
2024-11-12
在comyui中,使用flux1-dev模型24g显存够吗
在 ComfyUI 中使用 Flux1dev 模型,24G 显存是可以的,但建议内存尽量高于 32G 以避免意外情况的发生。如果您的显卡是 24G 或更高,右键 24G 那个 train_flux_24GLora 的文件。修改脚本路径和参数时,要注意底模路径、VAE 路径、数据集路径,还有下面的 clip 路径和 T5xxl 路径的正确填写。ae.safetensors 和 flux1dev.safetensors 的下载地址为:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b ,百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。最后下载 dev 的工作流: ,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,打开 ComfyUI 把工作流或图片拖拽到其中即可。
2024-11-12
在comyui中,使用flux1-dev模型需要多少显存
在 ComfyUI 中使用 flux1dev 模型所需的显存情况如下: 相关模型的下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 对于 GPU 性能不足、显存不够的情况,底模可以使用 fp8 的量化版模型,下载地址为:https://huggingface.co/Kijai/fluxfp8/tree/main 。 低显存方案(8G 以下):flux1devbnbnf4.safetensors ,放入 ComfyUI\\models\\checkpoints 文件夹内,下载链接为 https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors 。 此外,还提供了以下相关资源链接: BitsandBytes Guidelines and Flux :https://github.com/lllyasviel/stablediffusionwebuiforge/discussions/981 ComfyUI_bitsandbytes_NF4 节点:https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
2024-11-12
怎么训练自己的小说大纲模型
训练自己的小说大纲模型可以参考以下步骤: 步骤一:创建数据集 1. 进入厚德云模型训练数据集,网址为:https://portal.houdeyun.cn/sd/dataset 。 2. 在数据集一栏中,点击右上角创建数据集。 3. 输入数据集名称。 4. 可以上传包含图片+标签的 zip 文件,也可以只有图片没有打标文件(之后可在 c 站使用自动打标功能)。 5. 也可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 6. Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 7. 上传 zip 以后等待一段时间。 8. 确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 步骤二:Lora 训练 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。 4. 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 5. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 6. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 7. 然后等待训练,会显示预览时间和进度条。训练完成的会显示出每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 步骤三:Lora 生图 1. 点击预览模型中间的生图会自动跳转到这个页面。 2. 模型上的数字代表模型强度,可以调节大小,正常默认为 0.8,建议在 0.6 1.0 之间调节。 3. 也可以自己添加 lora 文件,点击后会显示训练过的所有 lora 的所有轮次。 4. VAE 不需要替换。 5. 正向提示词输入写的提示词,可以选择基于这个提示词一次性生成几张图。 6. 选择生成图片的尺寸,横板、竖版、正方形。 7. 采样器和调度器新手小白可以默认不换。 8. 迭代步数可以按照需求在 20 30 之间调整。 9. CFG 可以按照需求在 3.5 7.5 之间调整。 10. 随机种子 1 代表随机生成图。 11. 所有设置都好了以后,点击开始生态,生成的图会显示在右侧。 12. 如果有哪次生成结果觉得很不错,想要微调或者高分辨率修复,可以点开那张图,往下滑,划到随机种子,复制下来,粘贴到随机种子这里,这样下次生成的图就会和这次的结果近似。 13. 如果确认了一张很合适的种子和参数,想要高清放大,则点开高清修复,可以选择想放大的倍数。新手小白可以就默认这个算法,迭代步数也是建议在 20 30 之间,重回幅度根据需求调整,正常来说在 0.3 0.7 之间调整。 今日作业 按照比赛要求,收集六个主题中一个主题的素材并且训练出 lora 模型后提交 lora 模型与案例图像。提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd 。 另外,直接在 Comfy UI 中训练 LoRA 模型的步骤如下: 1. 确保后面有一个空格。然后将 requirements_win.txt 文件拖到命令提示符中(如果在 Windows 上;否则,选择另一个文件 requirements.txt)。拖动文件将在命令提示符中复制其路径。 2. 按 Enter 键,这将安装所有所需的依赖项,使其与 ComfyUI 兼容。请注意,如果为 Comfy 使用了虚拟环境,必须首先激活它。 3. 教程: 图像必须放在一个以命名的文件夹中。那个数字很重要:LoRA 脚本使用它来创建一些步骤(称为优化步骤…但别问我是什么^^’)。它应该很小,比如 5。然后,下划线是必须的。 对于 data_path,必须写入包含数据库文件夹的文件夹路径。例如:C:\\database\\5_myimages ,必须写 C:\\database 。 对于参数,在第一行,可以从 checkpoint 文件夹中选择任何模型。据说必须选择一个基本模型进行 LoRA 训练。但也可以尝试使用微调。
2024-11-12
怎么训练自己的模型
训练自己的模型可以参考以下内容: 基于百川大模型: 选择 Baichuan27BChat 模型作为底模,配置模型本地路径和提示模板。 在 Train 页面里,选择 sft 训练方式,加载定义好的数据集(如 wechat 和 self_cognition)。 注意学习率和训练轮次的设置,要根据数据集大小和收敛情况来调整。 使用 FlashAttention2 可减少显存需求,加速训练速度。 显存小的情况下,可以减少 batch size 并开启量化训练,内置的 QLora 训练方式好用。 需要用到 xformers 的依赖。 显存占用约 20G 左右,训练时间根据聊天记录规模大小而定,少则几小时,多则几天。 训练自己的 AI 绘画模型(Stable Diffusion): 样本采样器(sample_sampler):可选择,默认是“ddim”。 保存模型格式(save_model_as):可选择,SD WebUI 兼容"ckpt"和"safetensors"格式模型。 训练流程主要包括: 训练集制作:数据质量评估、标签梳理、数据清洗、标注、标签清洗、增强等。 训练文件配置:预训练模型选择、训练环境配置、训练步数及其他超参数设置等。 模型训练:运行训练脚本,使用 TensorBoard 监控。 模型测试:用于效果评估与消融实验。 训练资源: Rocky 整理优化过的 SD 完整训练资源 SDTrain 项目,可通过关注公众号 WeThinkIn,后台回复“SDTrain”获取。
2024-11-12