Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI大模型训练是什么意思

Answer

AI 大模型训练是一个复杂的过程,主要包括以下方面:

  1. 数据转换:当请求输入到模型时,会从自然语言形式转化为机器可理解的格式,通常是向量。
  2. 数学计算确定参数:类似于通过已知的几组(x,y)值计算方程式 y=f(x)=ax+b 中的参数 a 和 b,大语言模型通过计算确定可能多达 1750 亿个的参数。
  3. 一般训练步骤:
    • 无监督学习:分析大量文本数据,学习语言基本结构和常识,具备文本补齐能力,将人类知识向量化以获得基础语言模型。
    • 清洗出好的数据。
    • 指令微调:训练模型理解并执行具体指令,如翻译文本,以回答问题,此阶段数据输入量相对减少。
    • 对齐过程:引入人类评价标准和处理特定格式要求,优化模型输出以符合人类期望,包括处理文化、道德等细节。
  4. 生成式预训练:是机器学习领域由来已久的概念,如 GPT 模型基于 Transformer 模型,在大型未标记文本数据集上进行预训练,并能生成类似人类自然语言的文本。
  5. 大模型特点:
    • 强大在于庞大的参数数量,这些参数在学习过程中不断调整,帮助模型深入理解和生成数据。
    • 训练依赖大量数据,包括文本、图像、音频等,通过对数据的学习掌握丰富知识和技能。

总之,大模型训练是一个涉及多步骤、大量数据和复杂计算的过程,旨在使模型具备强大的语言处理和生成能力。

Content generated by AI large model, please carefully verify (powered by aily)

References

学习笔记:【这就是 ChatGPT】了解原理让大语言模型 AI 成为你的打工人

当我们的请求被输入到模型时,它不再是我们通常理解的自然语言形式。而是被转化为机器可以理解的格式,通常是向量。不必深入了解向量的具体含义,重要的是明白这代表了从人类的自然语言到机器可识别的数字形式的转换。在数学上,我们通过方程式如y=f(x)=ax+b来解决问题,通过已知的几组(x,y)值来计算出参数a和b。类似地,大语言模型的训练过程也是通过计算来确定模型的参数。这些参数不仅限于两个(如a和b),而是可能达到1750亿个。介绍这些概念的目的是为了揭示,尽管工程实现可能看似枯燥,但理解其背后的原理对于去除对AI的无根据迷信非常重要。这种深入的理解可能需要时间和努力,但它将帮助我们更有效地利用这些技术,避免形成基于误解的观念。

学习笔记:【这就是 ChatGPT】了解原理让大语言模型 AI 成为你的打工人

大语言模型训练过程涉及几个关键步骤:无监督学习:这一阶段模型通过分析大量文本数据,学习到语言的基本结构和常识,具备文本补齐能力而非直接回答问题。模型将人类的知识通过向量化的方法转换,从而获得基础的语言模型。清洗出好的数据指令微调:在此阶段,模型被训练以理解并执行具体指令,如翻译文本,从而能够回答问题。这一阶段涉及的数据输入量相对于无监督学习阶段有所减少。输入内容包括3个部分,中间可能有分隔符*Instruct:请你翻译下面这段话*Input:一段英文*Output:一段中文对齐过程:通过引入人类的评价标准(奖励函数)和处理特定的格式要求,进一步优化模型的输出以符合人类的期望。这包括处理文化、道德等方面的细节,以确保模型的输出更加贴近人类的价值观。排序相信在这个过程中,OpenAI很有可能自己构建了一套强大的标注组织体系,高效,又能对抗标注人员能力强依赖。说起来人工标注符合scaling law。虽然具体的实现细节可能是各公司的机密,但大体上,这些步骤共同构成了构建一个高效、实用的大语言模型的过程,最终产生的模型可能含有高达1750亿个参数。在开源与闭源模型的开发策略中,开源模型依赖于社区的贡献和集体智慧,而闭源模型则通常由企业投入大量资源进行开发。尽管方法不同,但两种策略都旨在推动大语言模型技术的发展和应用。

十七问解读生成式人工智能

GPT是“生成式预训练变换器”(Generative Pre-trained Transformer)的缩写,是一种大型语言模型(LLM),也是生成式人工智能的重要框架。首个GPT由OpenAI于2018年推出。GPT模型是基于Transformer模型的人工神经网络,在大型未标记文本数据集上进行预训练,并能够生成类似于人类自然语言的文本。截至2023年,大多数LLM都具备这些特征,并广泛被称为GPT。而所谓的生成式预训练,其实是机器学习领域一个由来已久的概念。但是,直到2017年Google推出了Transformer模型,我们才见到了如BERT(2018年发布)和XLNet(2019年发布)这样的大型语言模型的诞生。这些模型都是基于预训练的转换器,但它们并不是为生成文本而设计,而是作为“仅编码器”使用。2018年,OpenAI发表了一篇名为《通过生成式预训练提高语言理解能力》的文章,首次介绍了基于转换器的生成式预训练模型(GPT)系统,即我们所说的“GPT-1”。[heading1]问题六、大模型是什么东西?[content]所谓的大模型,简而言之,就是那些拥有庞大参数数量的模型。它们通过处理和理解海量数据,能够胜任一系列复杂的任务。那么,为何将这些模型称作“大”模型呢?原因在于它们的规模之大,通常包含从数十亿到数千亿的参数。这些庞大的参数集合赋予了模型强大的学习和记忆能力,使其在处理各种任务时表现出色。我们可以从两个方面来进一步解读大模型的特点:1.大模型之所以强大,一个重要原因在于它们庞大的参数数量。这些参数,或者说“权重”,是模型在学习过程中不断调整的核心,它们帮助模型更深入地理解和生成数据。2.大模型的训练离不开大量的数据。无论是文本、图像还是音频数据,都是大模型学习的基础。通过对这些数据的深入学习,模型能够掌握丰富的知识和技能。

Others are asking
我想要写小说,应该用到什么工具和ai
如果您想要写小说,可以使用以下工具和利用 AI 相关技术: 文字方面:可以使用 GPT 脚本来生成文字内容。 图片方面:Midjourney 可用于生成图片。 视频方面:Runway 可用于处理视频。 音频方面:ElevenLabs、剪映可用于处理音频。 剪辑方面:剪映可用于剪辑。 其他方面:PS、AE 可用于其他相关处理。 在故事创作方面,可以按照以下 Prompt 模板来生成内容: 标题:"generate:小说的标题" 设置:"generate:小说的情景设置细节,包括时间段、地点和所有相关背景信息" 主角:"generate:小说主角的名字、年龄、职业,以及他们的性格和动机、简要的描述" 反派角色:"generate:小说反派角色的名字、年龄、职业,以及他们的性格和动机、简要的描述" 冲突:"generate:小说故事的主要冲突,包括主角面临的问题和涉及的利害关系" 对话:"generate:以对话的形式描述情节,揭示人物,以此提供一些提示给读者" 主题:"generate:小说中心主题,并说明如何在整个情节、角色和背景中展开" 基调:"generate:整体故事的基调,以及保持背景和人物的一致性和适当性的说明" 节奏:"generate:调节故事节奏以建立和释放紧张气氛,推进情节,创造戏剧效果的说明" 其它:"generate:任何额外的细节或对故事的要求,如特定的字数或题材限制" 如果您想用 AI 把小说做成视频,以下是一些工具和一般流程: 工具与网址: Stable Diffusion(SD):一种 AI 图像生成模型,可基于文本描述生成图像。网址: Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址: Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址: Pika AI:文本生成视频的 AI 工具,适合动画制作。网址: Clipfly:一站式 AI 视频生成和剪辑平台。网址: VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址: 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址: 故事 AI 绘图:小说转视频的 AI 工具。网址: 制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。内容由 AI 大模型生成,请仔细甄别。
2025-03-12
适合景观设计的ai
以下是一些适合景观设计的 AI 相关内容: 在 AI 作图方面,创作方法包括用自然语言详细描述画面内容,避免废话词,Flux 对提示词的理解和可控性强。趣味性可通过反差、反逻辑、超现实方式带来视觉冲击,美感需在美术基础不出错前提下形式与内容结合。比如纹身图创作要强调人机交互,对输出图片根据想象进行二次和多次微调,确定情绪、风格等锚点再发散联想。以魔法少女为例,可发散联想其服饰、场景、相关元素等,并采用反逻辑反差方式。 有一些 AI 工具可以帮助建筑设计师审核规划平面图,例如: HDAidMaster:云端工具,在建筑设计、室内设计和景观设计领域表现惊艳,搭载自主训练的建筑大模型 ArchiMaster。 Maket.ai:主要面向住宅行业,在户型设计和室内软装设计方面有 AI 技术探索。 ARCHITEChTURES:AI 驱动的三维建筑设计软件,能在住宅设计早期引入标准和规范约束设计结果。 Fast AI 人工智能审图平台:形成全自动智能审图流程,将建筑全寿命周期内的信息集成。 节目单中也有与景观设计相关的内容,如“祖国河山:AI 还原的中国自然景观”,以一些前所未有的角度震撼还原。
2025-03-12
AI设计工作流
以下是关于 AI 设计工作流的相关内容: RPA 很早就出现在工作流编排领域,其软件目标是使符合标准的基于桌面的业务流程和工作流程实现自动化,现在越来越多的 RPA 软件带上了 LLM。 ComfyUI 采用工作流化操作模式,用户在流程编辑器中配置 pipeline,通过节点和连线完成模型操作和图片生成,提高流程可复用性并降低时间成本,其 DSL 配置文件支持导出导入。 Dify.AI 的工作流设计语言与 ComfyUI 有相似之处,定义了标准化的 DSL 语言,方便导入导出复用工作流。 Large Action Model 采用“通过演示进行模仿”的技术,从用户示例中学习。 单 Agent 模式下,将一整套工作流组合起来,每个工具在节点中执行任务。 Agentic Workflow 存在“套娃”设计,workflow 可成为组件被调用,也能嵌套新的 workflow,不同组件通过连接构成更大模块。 LangGPT 提示词框架应用了 CoT 完成从输入到思维链再到输出的映射。 大淘宝设计部 2023 年度 AI 设计实践中,建立有效的设计工作流,使用 lora 模型训练准确还原风格、加速品牌融合,建立和管理 AI 设计资产储备提升团队 AI 能力,搭建了 AI 整合工具平台“桃花源|淘宝设计 AIGC”。 但 Agentic Workflow 存在使用用户较少、在复杂流程开发上不够稳定可靠、无法解决大模型意图理解准确率等问题。
2025-03-12
有哪些ai工具可以直接对word进行排版
以下是一些可以对 word 进行排版的 AI 工具: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,可改进文档整体风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,能改进文本清晰度和流畅性,保持原意。 3. Latex:虽不是纯粹的 AI 工具,但广泛用于学术论文排版,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业,保持原始意图。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 较受欢迎;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。 此外,还有一些常见的文章润色 AI 工具: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,帮助优化文章语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可根据输入生成符合要求的学术论文。 Anifusion 是一款基于人工智能的在线工具,旨在帮助用户轻松创建专业质量的漫画和动漫作品。其主要功能包括 AI 文本生成漫画、直观的布局工具、强大的画布编辑器、多种 AI 模型支持以及商业使用权。使用案例涵盖独立漫画创作、快速原型设计、教育内容、营销材料、粉丝艺术和同人志等。优点是非艺术家也可轻松创作、基于浏览器无需额外软件、快速迭代和原型设计能力以及拥有创作的全部商业权利。
2025-03-12
docx格式进行编辑排版的ai工具
以下是一些可用于 docx 格式编辑排版的 AI 工具: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,可改进文档整体风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,能改进文本清晰度和流畅性,保持原意。 3. Latex:虽不是纯粹的 AI 工具,但常用于学术论文排版,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业,保持原始意图。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 很受欢迎;对于一般文章和商业文档,Grammarly 和 PandaDoc 等可能更适用。 在论文写作领域,常用的 AI 工具和平台包括: 1. 文献管理和搜索: Zotero:结合 AI 技术,自动提取文献信息,管理和整理参考文献。 Semantic Scholar:AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,精简和优化内容。 3. 研究和数据分析: Google Colab:提供云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化,进行复杂数据分析和模型构建。 4. 论文结构和格式: Latex:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 Latex 编辑器,有丰富模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 使用这些工具时,要结合自身写作风格和需求选择最合适的辅助工具。
2025-03-12
有哪些ai工具可以直接对word进行排版,之后还以word形式输出
以下是一些可以对 word 进行排版并以 word 形式输出的 AI 工具: 1. Grammarly:不仅是语法和拼写检查工具,还提供部分排版功能,能改进文档整体风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,可帮助改进文本清晰度和流畅性,并保持原意。 3. Latex:虽不是纯粹的 AI 工具,但在学术论文排版中广泛使用,使用标记语言描述文档格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,可重新表述和改进文本,使其更清晰专业,保持原始意图。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 很受欢迎,因为它们排版功能强大且有广泛学术支持。对于一般文章和商业文档,Grammarly 和 PandaDoc 等工具可能更适用。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-12
请帮我推荐优化大模型+知识库的提示词技巧,重点是解决将知识库配置给大模型做RAG后,召回率不高或者不遵循指令。
以下是关于优化大模型+知识库的提示词技巧,以解决将知识库配置给大模型做 RAG 后召回率不高或者不遵循指令的问题: 首先,了解 LLM 应用性能优化的推荐路径: 1. 从 prompt 工程开始把 LLM 应用快速跑起来。 2. 若遇到表现性能不足等问题,如结构化提示词占用上下文过长,可尝试精简提示词长度;若指令遵循度不足,则加强指令约束。 3. 若提示工程无法满足要求,分析问题,若缺失知识,先简单做知识库 RAG。 4. RAG 之后若想让模型表现更收敛更稳定,尝试微调模型。 5. 微调模型后,若模型表现变好,使用更多高级 RAG 技术,构造输入输出样本,进一步用于微调模型,构建正向迭代循环。 需要注意的是,该路径有个隐藏前提:该 LLM 应用依赖外部知识,需要 RAG。若不需要外部知识,则不需要使用 RAG,可以直接进入 prompt 工程与微调的正向迭代循环。 对于 RAG 流程中的检索有用信息部分,有以下改进策略: 1. 优化索引: 按照子部分索引:将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引。适用于有多个主题、有冲突信息的复杂长文本信息,确保与查询相关的上下文。 按照文本框可以回答的问题索引:让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确的问题,减少模糊性。 按照文本块的摘要进行索引:适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后,选择策略,大部分场景下选择最相似的即可。 在从知识库中检索出内容后利用大模型进行总结时,有两点需要注意: 1. 优化 Prompt,但此处不展开,可参考相关文章。 2. 选择合适的大模型,考虑上下文长度、聪明度和生成速度。若回答场景是很长的文档,可能更关注上下文长度;大多数情况下,大模型越聪明,生成速度可能越慢。
2025-03-12
大模型企业落地方案有哪些
大模型企业落地方案主要包括以下几个方面: 1. 提高内容可信: 做具备通用能力的大模型,通过商业交付应用、反馈和评测来解决内容可信问题。 不断优化数据以解决实际应用问题,如自我学习能力等。 走向垂直化,结合场景用一个模型和框架提高内容精准度。 2. 解决算力成本高、训练重复和资源紧缺的问题: 以 GPT3 模型为例,现有千卡集群训练一个月,单次训练周期一个月,总成本超过 1200 万美金,且全行业训练卡持续涨价。 目前仍无人能用商业化的国产芯片做大模型训练。 3. 降低大模型价格或使用垂直领域模型落地。 4. 以百度智能云为例: 在 IaaS 层,百舸 AI 异构计算平台解决算力问题,提供从集群创建到模型训练、推理的完整算力管理方案,提升算力管理能力和模型训练效率,确保高达 99.5%的有效训练时间,为大模型应用落地提供强大算力支撑。 在 Paas 层,千帆大模型平台解决大模型的调用、开发和应用开发问题,支持调用文心大模型全系列模型,提供全面工具链,支持定制化模型开发,通过 AppBuilder 提供企业级 Agent 和企业级 RAG 开发能力,还能将企业应用数据反馈到模型中形成良性循环,持续优化模型性能。 在 SaaS 层,提供丰富的常用应用供客户选择,如数字人平台曦灵、智能客服应用客悦等。 此外,大模型在实际应用中存在一些问题,如知识的局限性、幻觉问题和数据安全性问题,而 RAG 是解决上述问题的一套有效方案,它可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解 LLM 如何生成最终的结果。RAG 可以和微调结合使用,两者并不冲突。
2025-03-12
有哪些辅助输出3d模型资源的ai工具推荐一下
以下是一些辅助输出 3D 模型资源的 AI 工具推荐: 1. @CSM_ai:可以将文本、图像或草图转换为 3D 素材。体验地址:https://cube.csm.ai 。 2. Move AI 推出的 Move API:能从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。网址:https://move.ai/api 。 3. ComfyUI 3D Pack:可快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。网址:https://github.com/MrForExample/ComfyUI3DPack/tree/main 。 4. Medivis 的 SurgicalAR 手术应用:将 2D 医疗图像转化为 3D 互动视觉,提高手术精度,支持 3D 模型的放大、缩小、旋转,精确手术计划。网址:https://t.co/3tUvxB0L4I 。 5. Media2Face:3D 面部动画创造工具,根据声音生成同步的 3D 面部动画,允许个性化调整,如情感表达,应用于对话场景、情感歌唱等多种场合。网址:https://sites.google.com/view/media2face 、https://arxiv.org/abs/2401.15687 、https://x.com/xiaohuggg/status/1752871200303480928?s=20 。 6. SIGNeRF:在 3D 场景中快速生成和编辑对象,新增或替换场景中的物体,新生成场景与原场景无缝融合。网址:https://signerf.jdihlmann.com 、https://x.com/xiaohuggg/status/1744950363667759474?s=20 。 7. Luma AI 发布的 Genie 1.0 版本:文本到 3D 模型转换工具,生成详细逼真的 3D 模型,支持多种 3D 文件格式,获得 4300 万美元 B 轮融资。网址:https://lumalabs.ai/genie?view=create 、https://x.com/xiaohuggg/status/1744892707926122515?s=20 。 8. BakedAvatar 动态 3D 头像:从视频创建逼真 3D 头部模型,实时渲染和多视角查看,兼容多种设备,交互性编辑。网址:https://buaavrcg.github.io/BakedAvatar/ 、https://x.com/xiaohuggg/status/1744591059169272058?s=20 。 此外,在 CAD 领域,也存在一些 AI 工具和插件可以辅助或自动生成 CAD 图,例如: 1. CADtools 12:Adobe Illustrator 插件,为 AI 添加 92 个绘图和编辑工具,包括图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 2. Autodesk Fusion 360:集成了 AI 功能的云端 3D CAD/CAM 软件,能创建复杂的几何形状和优化设计。 3. nTopology:基于 AI 的设计软件,可创建复杂的 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,可根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 5. 一些主流 CAD 软件,如 Autodesk 系列、SolidWorks 等,提供了基于 AI 的生成设计工具,能根据用户输入的设计目标和约束条件自动产生多种设计方案。 但使用这些工具通常需要一定的 CAD 知识和技能,对于 CAD 初学者,建议先学习基本的 3D 建模技巧,然后尝试使用这些 AI 工具来提高设计效率。
2025-03-11
Berkeley做了一个AI相关的模型
以下是关于 Berkeley 相关的 AI 模型信息: 1 月 11 日,UC Berkeley 的 NovaSky 团队推出了 SkyT132BPreview 推理模型。这是一款开源的推理模型,基于 Qwen2.532BInstruct 训练而成,拥有 32B 参数,在数学、编程、物理和科学等复杂任务领域表现出色。使用入口完全开源,提供训练数据集和代码。NovaSky 团队隶属于加州大学伯克利分校 Sky Computing 实验室,成立于 2020 年,致力于推动低成本、高效率的 AI 模型开发。相关链接:https://novaskyai.github.io/posts/skyt1 5 月 23 日,伯克利实验室研究了“宙斯盾”数据集,用 YOLOv8 模型训练,美军及其盟友驱逐舰关键部件的检测精度达 0.926。相关链接:https://arxiv.org/pdf/2405.12167v1
2025-03-11
AI 大模型产品经理
以下是为您整理的关于 AI 大模型产品经理的相关信息: 招聘信息: 1. 北京: 大模型效果评测:针对大模型效果的综合评估,开发、沉淀并持续优化评测方法,确立评测流程及标准化工作,执行评测任务并撰写分析报告,推进大模型优化。 协助算法及产品同学不断提高 AI 准确性,提升用户体验。 基本要求:研究生及以上学历,计算机、金融、数据分析等相关专业优先。熟悉大模型及相关 NLP 技术者优先;有 AIGC 相关实习经验者优先;代码能力强且有利用大模型解决编程问题的经验,能够熟练的使用 python、sql、java 等工具,能独立完成数据分析/处理任务优先;能够尽快到岗,每周 5 天出勤,实习时间 4 个月以上。 2. 杭州: 杭州智诊科技有限公司招聘医疗大模型的算法工程师/产品经理。 岗位职责:负责跨语言领域 embedding 模型训练,如 SimCSE 通过对比学习方式进行无监督+有监督训练;负责构建知识检索增强模块,保证相关知识信息召回工作;基于 Chat GLM 系列模型进行 LLMasAgent 的落地应用;负责搭建智能体协同决策系统,从系统层面提供诊断决策支持。 任职要求:硕士及以上学历,计算机相关专业毕业,有较强的工程能力;熟悉 Transformer 结构,对 BERT、GPT、BART、T5 等常见的模型有深入的了解,有 ChatGLM/Llama 等模型的使用/训练经验者优先;熟悉 LangChain 等 LLM 的应用框架,熟悉 prompt engineering,能有效借助提示词来充分利用大模型的能力;熟悉知识图谱,对比学习,有信息检索相关实际项目经历;熟悉 AI agent 多智能体协同,有相关领域成熟项目落地,医疗行业优先;熟悉 PyTorch、Huggingface 等深度学习工具,熟悉 Python 编程语言和 Linux 开发环境,有扎实的编程功底。 培训课程: 第一期「AI 实训营」手把手学 AI【第一期:大咖带你在阿里云百炼从零搭应用】,讲师为银海,其为 AI 产品经理,通往 AGI 之路社区共建者,5+大模型厂商资深讲师,全网粉丝量 3W+,在 AI Agent、多模态大模型、企业级 AI 应用等多领域具备丰富实战经验。
2025-03-11
如何学习使用AI模型
以下是关于学习使用 AI 模型的一些建议和知识: Teachable Machine: 这是由 Google 开发的机器学习工具,可应用于商品说明书、自动驾驶、教学互动等多个场景。使用步骤如下: 1. 收集数据:可上传图片、录制声音或动作视频作为训练数据。 2. 训练模型:用收集的数据训练模型,并测试其能否正确识别新的图片、声音或动作。 3. 导出模型:完成训练后,可下载或上传到网上用于其他项目。 它具有多种优势: 1. 允许用户快速、简单地创建机器学习模型,无需专业知识或编程技能。 2. 提供多种创建机器学习模型的方式,非常灵活和用户友好。 3. 支持使用文件或实时捕捉示例,用户可选择上传已有文件或实时录制。 4. 可以在本地完成训练,保护用户隐私。 5. 生成的模型是真实的 TensorFlow.js 模型,可在任何运行 JavaScript 的地方工作,还能导出到不同格式在其他地方使用。 AI 模型相关技术原理: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习参照人脑有神经网络和神经元,因为有很多层所以叫深度,神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,生成图像的扩散模型不是大语言模型,对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,不依赖于循环神经网络或卷积神经网络。
2025-03-11
文档转训练集
将文档转训练集通常可以按照以下步骤进行: 1. 手动收集数据集:公司通常会雇用人员,为其提供标签说明,要求人们提出问题并写下答案。 2. 注重质量:预训练阶段的文本可能来自互联网,数量大但质量较低。在第二阶段,应更看重质量而非数量,例如采用 100,000 个高质量的对话文档。 3. 形成 SOP:初期可以先手动形成标准操作流程(SOP),然后逐步实现自动化,此过程初期可能需要大量人力。
2025-03-10
如何训练自己的模型
训练自己的模型可以参考以下步骤: 1. 选择合适的底模,如 Baichuan27BChat 模型,配置模型本地路径和提示模板。 在 Train 页面里选择 sft 训练方式,加载定义好的数据集,如 wechat 和 self_cognition。 注意学习率和训练轮次的设置,要根据数据集大小和收敛情况来调整。 使用 FlashAttention2 可减少显存需求,加速训练速度。 显存小的情况下,可以减少 batch size 并开启量化训练,内置的 QLora 训练方式很实用。 需要用到 xformers 的依赖。 显存占用约 20G,训练时间根据聊天记录规模大小而定,少则几小时,多则几天。 2. 对于 AI 绘画模型的训练,如 Stable Diffusion: 设置 sample_sampler,可选择多种 sampler,默认是“ddim”。 设置 save_model_as,可选择多种格式,目前 SD WebUI 兼容"ckpt"和"safetensors"格式模型。 完成训练参数配置后,运行训练脚本进行全参微调训练。 选择合适的底模型,如 WeThinkIn_SD_二次元模型。 利用 accelerate 库封装训练脚本,可根据需求切换训练环境参数。 3. 创建图像描述模型: 模型由编码器和解码器组成,编码器将输入图像转换为特征向量,解码器根据特征生成描述文本,二者组合形成完整模型。 自定义损失函数,如使用稀疏分类交叉熵并屏蔽填充部分。 编译模型后开始训练,可使用单个 GPU 训练,每个 epoch 约 15 至 20 分钟,可根据需求增加训练次数。 训练完成后进行推理与生成字幕,重构解码器结构,编写自定义推理循环以生成完整句子。
2025-03-10
如何去训练ai,让ai可以更精准的回答问题分析趋势
要训练 AI 使其更精准地回答问题和分析趋势,可以从以下几个方面入手: 检索原理: 1. 信息筛选与确认:系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时验证信息的来源、时效性和相关性。 2. 消除冗余:识别并去除多个文档或数据源中的重复信息,避免在生成回答时出现重复或矛盾的内容。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建结构化的知识框架,使信息在语义上更连贯。 4. 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括对信息进行排序、归类和整合,形成统一的叙述或解答框架。 5. 语义融合:在必要时合并意义相近但表达不同的信息片段,减少语义重复并增强信息表达力。 6. 预备生成阶段:将整合好的上下文信息编码成适合生成器处理的格式,如转化为适合输入到生成模型的向量形式。 大模型生成回答: 最终全新的上下文被传递给大语言模型,大语言模型根据提供的信息回答问题。因为这个上下文包括了检索到的信息,所以相当于同时拿到了问题和参考答案,通过大语言模型的全文理解,生成准确和连贯的答案。 批判性思维与复杂问题解决: 批判性思维指分析、评估、推理并做出明智判断的能力,在 AI 时代尤为关键。培养批判性思维需要养成质疑习惯,通过辩论、逻辑训练、阅读反面意见等方式锻炼,注重逻辑推理和定量分析能力的培养。复杂问题解决与批判性思维密切相关,指在不确定情境下分析问题、设计解决方案的能力,往往需要综合运用多种思维技能,通过参与实际复杂项目、案例研究来提高经验,可利用 AI 作为资料提供者或头脑风暴助手,但关键在于人类自己的分析和决策过程。 纯强化学习: DeepSeek R1 引入纯强化学习,不依赖大量人类标注数据,而是让 AI 通过自我探索和试错来学习。在“冷启动”阶段,通过少量人工精选的思维链数据进行初步引导,建立符合人类阅读习惯的推理表达范式,随后主要依靠强化学习,在奖励系统的反馈下(包括准确率奖励和格式奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。纯强化学习有可能解锁新的人工智能水平,DeepSeek R1 更注重学习推理的底层策略,培养通用推理能力,实现跨领域的知识迁移运用和推理解答。
2025-03-07
lora怎么训练
以下是关于 Lora 训练的详细步骤: 创建数据集: 1. 进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset)。 2. 在数据集一栏中,点击右上角创建数据集。 3. 输入数据集名称。 4. 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片后续使用自动打标功能。建议提前把图片和标签打包成 zip 上传,Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 5. 上传 zip 以后等待一段时间,确认创建数据集。返回到上一个页面,等待一段时间后就会上传成功,可以点击详情检查,预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出您所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 6. 然后等待训练,会显示预览时间和进度条。训练完成的会显示出每一轮的预览图。 7. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 此外,还有一些相关的补充信息: 1. 训练前要确保下载几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。注意:不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。因为是训练,不是跑图,跑图可以寻求降低方案,训练的话,用 flux1dev.safetensors 这个版本,编码器用 t5xxl_fp16.safetensors 这个版本最好。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 安装虚拟环境:下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键,选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程。下载完成后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 在使用 SD 训练一套贴纸 LoRA 模型时: 1. 原始形象:MJ 关键词:A drawing for a rabbit stickers,in the style of hallyu,screenshot,mori kei,duckcore plush doll art exaggerated poses,cry/happy/sad/...ar 3:4niji 5style cutes 180 。会得到不同风格的贴图,可以先看看自己喜欢哪一种。出图过程可以有意识地总结这一类贴图的特征,比如都是可爱的兔子、有不同的衣服和头饰、都有一双大大的卡通眼睛,会有不同的面部表情。 2. 注意事项:关键词中限制了颜色,因此 MJ 生成的图片会一种情绪对应一种颜色,所以同一种情绪最好多生成几张不同色系的,可以减少后续训练中模型把情绪和颜色做挂钩(如果需要这样的话,也可以反其道而行之)。数据集中正面情绪与负面情绪最好比例差不多,如果都是正面积极的,在出一些负面情时(sad,cry)的时候,可能会出现奇怪的问题(如我们训练的是兔子形象,但 ai 认知的 sad 可能是人的形象,可能会出现人物特征)。如果训练 256256 大小的表情包,这样的素材就已经够用了。如果要训练更高像素的图片,则需要进一步使用 MJ 垫图和高清扩展功能。比如从 256 高清化到 1024,输入左图,加入内容描述,加入风格描述,挑选合适的,选出新 30 张图片(卡通二次元类型的 lora 训练集 30 张差不多,真人 60 100 张)。
2025-03-06
小白用户,使用API结合cherry studio建立本地知识库之后,应该怎么训练使AI更聪明
以下是使用 API 结合 cherry studio 建立本地知识库后训练使 AI 更聪明的方法: 1. 在线知识库: 点击创建知识库,创建一个画小二课程的 FAQ 知识库。 知识库的飞书在线文档中,每个问题和答案以分割。 选择飞书文档,选择自定义的自定义,输入。 编辑修改和删除内容,添加 Bot 并在调试区测试效果。 2. 本地文档: 注意拆分内容,提高训练数据准确度。 对于画小二课程,将 80 节课程分为 11 个章节,不能一股脑全部放进去训练。 首先将 11 章的大章节名称内容放进来,章节内详细内容按照固定方式进行人工标注和处理。 然后选择创建知识库自定义清洗数据。 3. 发布应用: 点击发布,确保在 Bot 商店中能够搜到。 此外,在训练 AI 时,还需要注意以下几点: 提示词:告诉 AI 它的角色和要专注的技能。 知识库:相当于给 AI 发放工作手册,例如可以放入特定的剧情等内容。 希望以上内容对您有所帮助。
2025-03-06
如何使用本地数据训练AI?
使用本地数据训练 AI 可以参考以下内容: Teachable Machine: 应用场景广泛,如商品说明书、自动驾驶、教学互动等。 允许用户快速、简单地创建机器学习模型,无需专业知识或编程技能。 使用步骤: 收集数据:可上传图片、录制声音或动作视频作为训练数据。 训练模型:用收集的数据训练模型并测试其能否正确识别新的内容。 导出模型:完成训练后可下载或上传到网上用于其他项目。 特点: 提供多种创建机器学习模型的方式,灵活且用户友好。 可在本地完成训练,不通过网络发送或处理数据,保护隐私。 生成的模型是真实的 TensorFlow.js 模型,可在任何运行 JavaScript 的地方工作,还能导出到不同格式在其他地方使用。 官方网站: Stable Diffusion: 训练数据集制作: 数据清洗:筛除分辨率低、质量差、存在破损及与任务目标无关的数据,去除水印、干扰文字等。 数据标注:分为自动标注(如使用 BLIP 输出自然语言标签)和手动标注(依赖标注人员)。 补充标注特殊 tag:可手动补充特殊标注,如运行相关代码并修改参数。
2025-03-06
agi是什么意思
AGI 即通用人工智能(Artificial General Intelligence),指的是一种能够完成任何聪明人类所能完成的智力任务的人工智能系统。能够像人类一样思考、学习和执行多种任务,在许多领域内以人类水平应对日益复杂的问题。例如,OpenAI 致力于实现 AGI,其研发的 ChatGPT 被认为是朝着 AGI 迈出的巨大一步。同时,Sam Altman 也指出人工通用智能的系统正浮现,它是人类进步脚手架上的另一个工具,可能标志着一个新的开始,带来经济增长和生活改善,比如治愈所有疾病、有更多时间与家人共享、充分发挥创造潜力等。
2025-03-10
AGI什么意思
AGI 指的是通用人工智能(Artificial General Intelligence),是一种能够像人类一样思考、学习和执行多种任务的人工智能系统,能够胜任几乎所有人类智力活动,其能力不局限于特定领域。例如,OpenAI 致力于 AGI 的研究,ChatGPT 就是由致力于 AGI 的 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具。当 AGI 真正实现并可能迅速发展为超人工智能(ASI)时,人类社会将在随后的二十年里经历深刻变革。
2025-03-10
请解释一下AGI是什么意思
AGI 指的是通用人工智能(Artificial General Intelligence),它是一种能够像人类一样思考、学习和执行多种任务的人工智能系统。 例如,OpenAI 致力于研发实现 AGI 的技术,像 GPT 系列模型在某种程度上是朝着 AGI 迈出的巨大一步。人类在不断创新,从电力、晶体管、计算机、互联网,到很快可能出现的 AGI,每一代新的工具都推动着世界的进步。在未来,AGI 可能会让人们的生活在各方面获得极大的改善,比如治愈所有疾病、有更多时间陪伴家人以及充分发挥创造潜能等。
2025-03-06
你页面中的“AI提示词”是什么意思
AI 提示词是用于指挥 AI 生成您所需要内容的指令。它具有以下特点和作用: 角色设定:告诉大语言模型它在特定场景中所扮演的角色以及应专注的技能,使其能按照您的想法成为满足需求的“员工”。 描绘画面:用于描述您想要生成的画面,比如人物主体、风格、场景特点、环境光照、画面构图、画质等。 输入语言:支持中英文输入,不同的模型可能对输入语言的形式有不同要求。 优化方式:可以通过启用提示词优化来更生动地描述画面内容,还可以调整负面提示词以帮助 AI 理解不想生成的内容,利用“加权重”功能让 AI 明白重点内容,以及使用辅助功能如翻译、删除所有提示词、会员加速等。 语法规则:用英文半角符号逗号来分隔提示词,改变提示词权重有多种写法,还可以进行提示词的步数控制。
2025-03-05
AGI什么意思
AGI 指的是通用人工智能(Artificial General Intelligence)。它通常被定义为一种能够像人类一样思考、学习和执行多种任务的人工智能系统,能够在许多领域内以人类水平应对日益复杂的问题。例如,OpenAI 致力于实现 AGI,其研发的 ChatGPT 被认为是朝着 AGI 迈出的巨大一步。同时,Sam Altman 也指出呈现人工通用智能特征的系统正浮现,人工通用智能是人类进步脚手架上的另一个工具,可能会带来治愈所有疾病、有更多时间与家人共享、充分发挥创造潜力等美好愿景。
2025-03-05
AGI是什么意思
AGI 指的是通用人工智能(Artificial General Intelligence),是一种能够像人类一样思考、学习和执行多种任务的人工智能系统,能够胜任几乎所有人类智力活动,其能力不局限于特定领域。例如,OpenAI 致力于 AGI 的研究,ChatGPT 就是由致力于 AGI 的 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具。当 AGI 真正实现并可能迅速发展为超人工智能(ASI)时,人类社会将在随后的二十年里经历深刻变革。
2025-02-27