Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么训练模型进行标题改写

Answer

训练模型进行标题改写可以参考以下方法:

  • Sora 模型:
    • 对于视频标题改写,首先训练一个能够为视频生成详细描述的视频标题生成器。可利用 CoCa 架构进行视频标题生成,如 VideoCoCa,通过取视频的多个帧并将每个帧输入到图像编码器,产生的帧令牌嵌入被展平并连接成一个长序列的视频表示,再由生成性池化器和对比性池化器处理,与对比损失和标题生成损失一起联合训练。构建视频标题生成器的其他替代方法包括 mPLUG-2、GIT、FrozenBiLM 等。为确保用户提示与训练数据中的描述性标题格式一致,执行额外的提示扩展步骤,用 GPT-4V 将用户输入扩展为详细的描述性提示。
    • 对于语言指令跟随,通过开发一个能够生成长而详细标题的字幕器,然后用这些标题来训练模型。但收集用于训练此类字幕器的数据的过程未知,且可能需要大量劳动。
  • DALL·E 3 模型:通过用详细、描述性的标题重新标注现有图像来解决指令遵循问题。首先训练一个图像标题生成器,这是一个视觉-语言模型,用于生成精确和描述性的图像标题。然后,使用标题生成器生成的描述性图像标题来微调文本到图像模型。具体来说,DALL·E 3 遵循对比标题生成器(CoCa)的方法,联合训练一个图像标题生成器,该生成器具有 CLIP 架构和一个语言模型目标。进一步在详细描述图像的主要对象、周围环境、背景、文本、风格和颜色方面进行微调后,图像标题生成器能够为图像生成详细的描述性标题。文本到图像模型的训练数据集是由图像标题生成器生成的重新标注数据集和真实人类编写的数据混合而成,通过上采样来解决实际用户提示与训练数据中的描述性图像描述之间的不匹配问题。

关于 Midjourney 的训练 prompt: The issue with DMs is that the powerful ones often consume hundreds of GPU days,and inference is quite expensive due to sequential evaluations.To enable DM training on limited computational resources without compromising their quality as well as flexibility,DMs are applied in the latent space of powerful pre-trained autoencoders. Training a diffusion model on such a representation makes it possible to achieve an optimal point between complexity reduction and detail preservation,significantly improving visual fidelity.Introducing a cross attention layer to the model architecture turns the diffusion model into a powerful and flexible generator for generally conditioned inputs such as text and bounding boxes,enabling high-resolution convolution-based synthesis.

Midjourney 会例行发布新的模型版本以提高效率、连贯性和质量。最新的模型是默认的,但可以使用 --version 或 --v 参数或通过 /settings 命令选择其他模型版本。不同的模型在不同类型的图像上表现出色。Midjourney V5 模型是最新和最先进的模型,于 2023 年 3 月 15 日发布。使用此模型,可在 prompt 末尾添加 --v 5 参数,或使用 /settings 命令并选择 MJ Version 5。该模型具有很高的连贯性,擅长解释自然语言提示,分辨率更高,并支持诸如 --tile 等高级功能。其新特点包括更广泛的风格范围、对提示更敏感、更高的图像质量、更详细的图像、细节更可能正确以及更少不需要的文本。

Content generated by AI large model, please carefully verify (powered by aily)

References

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

为了增强指令遵循能力,Sora采用了类似的标题改进方法。该方法首先通过训练一个能够为视频生成详细描述的视频标题生成器来实现。然后,将这个视频标题生成器应用于训练数据中的所有视频,以生成高质量的(视频,描述性标题)对,这些对被用来微调Sora,以提高其指令遵循能力。Sora的技术报告没有透露视频标题生成器是如何训练的。鉴于视频标题生成器是一个视频到文本的模型,构建它有许多方法。一种直接的方法是利用CoCa架构进行视频标题生成,通过取视频的多个帧并将每个帧输入到图像编码器,称为VideoCoCa。VideoCoCa基于CoCa,并重用预训练的图像编码器权重,独立地应用于采样的视频帧。结果产生的帧令牌嵌入被展平并连接成一个长序列的视频表示。这些展平的帧令牌随后被一个生成性池化器和一个对比性池化器处理,这两者与对比损失和标题生成损失一起联合训练。构建视频标题生成器的其他替代方法包括mPLUG-2、GIT、FrozenBiLM等。最后,为了确保用户提示与训练数据中的描述性标题格式一致,Sora执行了一个额外的提示扩展步骤,其中GPT-4V被用来将用户输入扩展为详细的描述性提示。[heading3]3.4.4讨论[content]对于Sora来说,遵循指令的能力对于生成忠实于用户意图的、包含复杂场景的一分钟长视频至关重要。根据Sora的技术报告,这种能力是通过上述方法获得的。通过开发一个能够生成长而详细的标题的字幕器,然后用这些标题来训练模型。然而,收集用于训练此类字幕器的数据的过程是未知的,且可能需要大量劳动,因为它可能需要视频的详细描述。此外,描述性视频字幕器可能会虚构视频的重要细节。我们认为,如何改进视频字幕器值得进一步研究,并且对于增强文本到图像模型的遵循指令能力至关重要。

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

DALL·E 3中的指令遵循通过一种假设为基础的标题改进方法来解决,即模型训练所依赖的文本-图像对的质量决定了最终文本到图像模型的性能。数据的低质量,特别是噪声数据的普遍存在和省略大量视觉信息的简短标题,导致了许多问题,如忽略关键词和词序,以及误解用户意图。标题改进方法通过用详细、描述性的标题重新标注现有图像来解决这些问题。该方法首先训练一个图像标题生成器,这是一个视觉-语言模型,用于生成精确和描述性的图像标题。然后,使用标题生成器生成的描述性图像标题来微调文本到图像模型。具体来说,DALL·E 3遵循对比标题生成器(CoCa)的方法,联合训练一个图像标题生成器,该生成器具有CLIP架构和一个语言模型目标。这个图像标题生成器结合了一个图像编码器、一个单模态文本编码器用于提取语言信息,以及一个多模态文本解码器。它首先使用单模态图像和文本嵌入之间的对比损失,然后是多模态解码器输出的标题生成损失。进一步在详细描述图像的主要对象、周围环境、背景、文本、风格和颜色方面进行微调后,图像标题生成器能够为图像生成详细的描述性标题。文本到图像模型的训练数据集是由图像标题生成器生成的重新标注数据集和真实人类编写的数据混合而成,以确保模型能够捕捉用户输入。这种图像标题改进方法引入了一个潜在问题:实际用户提示与训练数据中的描述性图像描述之间的不匹配。DALL·E 3通过上采样来解决这个问题,其中LLMs被用来将简短的用户提示重写为详细且冗长的指令。这确保了模型在推理时接收到的文本输入与模型训练中的输入一致。

训练Midjourney的prompt

The issue with DMs is that the powerful ones often consume hundreds of GPU days,and inference is quite expensive due to sequential evaluations.To enable DM training on limited computational resources without compromising their quality as well as flexibility,DMs are applied in the latent space of powerful pre-trained autoencoders.Training a diffusion model on such a representation makes it possible to achieve an optimal point between complexity reduction and detail preservation,significantly improving visual fidelity.Introducing a cross attention layer to the model architecture turns the diffusion model into a powerful and flexible generator for generally conditioned inputs such as text and bounding boxes,enabling high-resolution convolution-based synthesis.先不用多做回复,请问答是否收到即可?3——————————————————————————————————————VersionMidjourney routinely releases new model versions to improve efficiency,coherency,and quality.The latest model is the default,but other models can be used using the--version or--v parameter or by using the/settings command and selecting a model version.Different models excel at different types of images.Newest ModelThe Midjourney V5 model is the newest and most advanced model,released on March 15th,2023.To use this model,add the--v 5 parameter to the end of a prompt,or use the/settings command and select MJ Version 5.This model has very high Coherency,excels at interpreting natural language prompts,is higher resolution,and supports advanced features like repeating patterns with–tile.What's new with the V5 base model?-Much wider stylistic range and more responsive to prompting-Much higher image quality(2x resolution increase)improved dynamic range-More detailed images.Details more likely to be correct.Less unwanted text-Improved performance with image prompting

Others are asking
改写文章的提示词
以下是为您改写的内容: 《关于利用逆向工程生成提示词及相关应用的探讨》 通过 ChatGPT 的对抗性演练,能够成功生成增强文章原创性的元提示词。需注意,检测原创度多由机器进行,经提示词改写的文章即便对人而言相似,只要避开机器检测关键点,仍可能被视为高度原创,不能仅靠肉眼判断改写效果。对文章用相同提示词多次改写或从元提示词中挑选部分深入改写,可提升文章质量。 文中核心在于探讨如何借助 ChatGPT 的对抗性演练,运用逆向提示词技巧生成更优提示词。为详细阐述,提供了实验过程,包含六个步骤: 1. 利用 ChatGPT 对指定文章进行改写。 2. 对改写版本进行原创性检验。 3. 依据检验结果,指导 ChatGPT 进一步优化。 4. 重复上述流程,直至达到高度原创标准。 5. 采用逆向工程方法,梳理 ChatGPT 的改写策略。 6. 整合策略,形成提高文章原创性的高效提示词。 文中虽有具体实验例子,但目的是展示逆向提示词生成步骤,不应过度关注例子中的具体提示词。若想获取更精准的定制二创提示词,可按此方法针对不同文体和风格提取调整。 对于律师写提示词,基础材料通常是一份检索报告,可自行整理或用元典问达的 AI 自动生成。写作时应使用特定语言风格对基础材料改写,包括权威教育性语气、专业法律术语、结构化内容组织、规定概述内容解读结语结构、案例和挑战结合、结合法规和实际操作、使用商业术语等。输出文章结构要求标题开门见山、切中要害,用疑问句引起目标群体悬念。 在克隆 next.js 网站时,目的是做出完整效果,先不处理细节样式问题。下一步要实现文章列表部分和底部导航栏。对于文章列表部分,根据图片实现,先看效果,不符合需求可拒绝或让 AI 解释新增代码作用。对于异常,可选中所有异常添加到对话让其解决。通过让 AI 添加注释解释代码功能,可精准提出修改建议。说清楚需求比说得多更重要,明确功能的位置、大小和效果最为关键。增加文章列表条数可查看完整效果。
2025-03-26
关于论文改写的指令
以下是关于论文改写的一些指令和相关内容: 1. 明确文章结构:包括说清楚要解决的问题及背景、可能导致的损失;以案例引入,写明案号、案件事实经过、法院裁判结果等要点;对案例进一步分析,注意关键点但不给建议;给出具体操作建议,分事前、事中、事后三个部分,各三条清晰具体的建议;写结语及作者宣传。 2. 遵循相关要求:所有结论要有案例基础,不能违反法律规定,不能编造;文字简练精准,有足够信息密度,建议具体细致且易于操作。 3. 扩写文章:编写大纲后进行扩写,扩写不只是填充,要深入挖掘、补充细节。扩写过程可能遇到问题,需不断回顾审视和修订调整。在扩写流程图中,先接收大纲,确定扩写风格,进行递归式扩写,考虑扩写顺序和方法,保存合并内容,考虑模型选择和命令遵从性,完成扩写流程。
2025-03-21
怎么搭建扣子智能体提取抖音文案并进行改写用到哪些插件,并给我配置参数与步骤图
以下是搭建扣子智能体提取抖音文案并进行改写所需的插件、配置参数及步骤: 1. 插件搭建: 点击个人空间,选择插件,点击创建插件。 插件名称:使用中文,根据需求起名。 插件描述:说明插件的用途和使用方法。 插件工具创建方式:选择云侧插件基于已有服务创建,填入所使用 API 的 URL。 在新的界面点击创建工具,填写工具的基本信息,如工具名称(只能使用字母、数字和下划线)、工具描述、工具路径(以“/”开始,若使用 path 方式传参,用“{}”包裹变量)、请求方法等,结束后点击保存并继续。 2. 配置输入参数: 点击新增参数,填写所有需要使用的参数,保存并继续。 3. 配置输出参数: 如果一切填写正确,可直接点击自动解析,会自动调用一次 API 给出对应的输出参数。 填入汉字“张”,点击自动解析。 解析成功后显示解析成功,可看到输出参数已填好,然后点击保存并继续。 4. 调试与校验: 测试工具是否能正常运行。 运行后查看输出结果,Request 为输入的传参,Response 为返回值,点击 Response 可看到解析后的参数。 此外,安仔使用 Coze 免费创建 24 小时英语陪练的步骤包括: 1. 打开扣子首页,点击左上角创建 AI Bot 按钮。 2. 在弹窗输入 Bot 相关信息。 3. 设计人设与回复逻辑,根据功能需求设计提示词。 4. 调整模型设置,如改为 20 轮对话记录。 5. 选择使用插件,如英文名言警句、Simple OCR 等。 6. 设置开场白和预置问题。 7. 设置语音,选择亲切的英语音色。
2025-03-18
怎么搭建扣子智能体提取抖音文案并进行改写
以下是关于搭建扣子智能体提取抖音文案并进行改写的相关信息: 1. 团队介绍:野生菌团队(昆明),成员如罗文(组长)具有 10 年营销、5 年电商经验,是 AI 微软认证人工智能开发者和得到校友会昆明会长,负责项目组织、分工跟进、资源协调、思路整理等工作。罗文有多个相关作品,更多可查看扣子主页。 2. 搭建智能体: 创建一个智能体,输入人设等信息,放上相关工作流。配置完成后进行测试,但千万不要直接发布。 对于工作流中的特定节点,如【所有视频片段拼接】节点使用的插件 api_token,可作为工作流最开始的输入,用户购买后输入 api_token 再发布,以避免消耗他人费用。 3. 动手实践: 第一步创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体,注意配置相关插件和节点。 进行数据处理,注意代码节点输出的配置格式。 最后进行测试和发布,发布时选择多维表格,注意输出类型、输入类型等配置,完善上架信息,可选仅自己可用以加快审核。
2025-03-18
有没有改写的提示词
以下是为您提供的关于提示词的相关信息: Midjourney 提示词生成器:仿照 GPTs 里的 MJ prompt 改了一版提示词,可用于 coze 或其他国内的 agent。对节点无要求,画插图可不切节点,不挑模型,方便之处在于若提示词懒得写全,可让 agent 补全润色并粘贴。例如“一个巨大鲸鱼头部的特写,鲸鱼的眼睛显示疲惫的神情,一个小女孩站在鲸鱼的旁边抚摸鲸鱼的脸,小女孩占画面比例很小,体现鲸鱼的巨大,吉卜力工作室风格”等。 长生作为 prompt 工程草稿师,起草效果不错,按照结构化 prompt 结构输出,具有朴实有用、符合事务处理顺序、至少有 3 个支持思维链陈述的例子等优点,能节省时间和脑力,API 接口中“gpt40613”效果可用且优秀,chatGPT 网页版不理解这个提示词。 对于律师写提示词,基础材料一般是一份检索报告,可自己整理或用元典问达的 AI 自动生成。应使用权威教育性语气、专业法律术语、结构化内容组织、规定概述内容解读结语结构、结合案例和挑战、结合法规和实际操作、使用商业术语等要求的语言风格,输出文章的标题要开门见山、切中要害,用疑问句引起目标群体悬念。
2025-02-28
我想要改写一段内容,要求内容改写成保留原意,但是用词改变(专有名词改变 ),我的提示词应该怎么写呢
以下是为您改写的内容: AI 在工作场景中的应用:如何借助 AI 批量制作单词卡片 一、完整提示词 此段提示词相对简易。简而言之,其最核心的部分在于两个目标。其一,生成满足要求的单词卡内容;其二,依照相应位置将内容分别填入 Excel 文件中。在生成过程里,首先提供一个基础示例,这是 GPT 能够完成此项任务的关键依托。接着依据不同的生成内容设定了一些规则。同样地,对于第二部分,也给出了一段基础的自然语言描述,并通过附加规则的方式施加了更多限制。如此便能确保按照要求输出 Excel 文档。 二、测试结果 一同输入了五个单词,能够实现同时解析,但效果部分稍差,或许主要是由于所给的方法不够完善,不过大体格式符合要求。关于第二部分,如下图所示:可以看到,其按照要求将内容填入了对应的空格,但改变了最初的一些设定。可能是因为存在兼容性问题,但不影响使用,简单复制粘贴即可。需将 Excel 下载下来,复制填好的表格,粘贴至我们的表格中。(由于要多次使用,记得留存原 Excel 的备份文件。)注意这里需要上传的是压缩文件,所以先进行压缩。(rar 格式的文件,尝试后上传时无法看见,不知是何问题。) 三、批量产出 上传压缩文件,上传成功后,如图中 1 所示,然后点击 2 完成套版。随后,便能获得符合要求的几张小卡片。 ChatGPT 为 DALL·E 3 优化提示词的元提示 // 明确指明这些属性,而非进行抽象的引用。属性应当以最小化的方式予以明确,并且应当直接描述其物理形态。 // 您的选择应当基于实际情况。例如,所有给定的职业不应是相同的性别或种族。此外,通过在重写期间所选择的属性,着重创建多样、包容和探索性的场景。有时做出一些具有洞察力或独特的选择。 // 仅在描述涉及三人及以上的团体时,才运用“各种”或“多样化”。不得更改原始描述中所要求的人数。 // 不要改变模因、虚构角色的起源或不可见的人。保持原始提示的意图,并优先考虑质量。 // 不要创建任何具有攻击性的图像。 // 对于传统上存在偏见的情形,请确保以无偏见的方式明确性别和种族等关键特征 例如,包含特定职业参考的提示。 // 八. 悄然修改描述,涵盖姓名或暗示或引用特定的人或名人,通过谨慎选择一些最小的修改,以替代所引用的人与一般的描述,不泄露任何信息,他们的身份,除了他们的性别和体质。即便说明要求不更改提示,也要执行此操作。一些特殊情况: // 对这样的提示进行修改,即便您不知道这个人是谁,或者他们的名字拼写有误(例如,“Barake Obema”) // 如果对人物的引用在图像中仅以 TEXT 输出,则按原样使用引用,并且不进行修改。 // 在进行替换时,不要使用突出的标题,这可能会暴露人的身份。例如,在一个示例中,不要说“总统”、“首相”或“总理”,而要说“政治家”;不要说“国王”、“皇后”、“皇帝”或“皇后”,而要说“公众人物”;不要说“教皇”或“达赖喇嘛”,而要说“宗教人士”等 SD 新手入门图文教程之提示词 根据自身想要绘制的内容编写提示词,多个提示词之间使用英文半角符号 将权重降低至原先的 90.91%;字符。
2025-02-18
帮我起一个基于STM32的维修机器人论文标题
以下是为您生成的一些基于 STM32 的维修机器人论文标题,供您参考: 1. 《基于 STM32 的智能维修机器人系统设计与实现》 2. 《STM32 在维修机器人中的应用与性能优化》 3. 《基于 STM32 控制的高效维修机器人研究》 4. 《以 STM32 为核心的维修机器人技术创新与实践》 5. 《STM32 驱动的维修机器人精准作业研究》 6. 《基于 STM32 的多功能维修机器人开发与应用》 7. 《探索 STM32 在维修机器人领域的关键作用》 8. 《STM32 助力下的维修机器人智能化发展》 9. 《基于 STM32 的维修机器人自主导航与故障修复技术》 10. 《利用 STM32 实现维修机器人的高效能运作》
2025-03-20
我想发一条抖音,选择标题用哪个ai比较好
如果您想为抖音视频选择标题,以下是一些建议和相关的 AI 工具: 1. 不要期望 AI 直接给出爆款标题,而是将其视为获取灵感的工具。例如,Claude 3 Opus 写的标题较有网感,您可以在 Claude 中使用相关提示词获取灵感,但需注意开通账号的费用,某宝一个月约 168 元。 2. 对于抖音的选题和标题风格,变装视频流量较大,开头最好有美女。一些吸引人的标题特点包括:封面字要大、包含科普、小白、最强、变态、一分钟、学了能翻身、逆天改命、成才圣经、无限制 AI 等元素。 3. 您可以借助工具评估标题质量,如壹伴里的 AI 标题评分功能,但分数仅供参考,最终还是要靠人来判断和决策。使用该功能开通 VIP 一年需几百元,性价比不高,您可以在闲鱼搜索“壹伴日租”租号使用,建议先买一天,若一天后账号未被他人使用,可能能一直使用。
2025-03-09
我想要生成一张妇女节的海报,主标题是春暖花开,致敬每一个“她”力量。画面中有一些补气血的产品
很抱歉,目前没有相关的生成海报的具体内容。但您可以使用一些 AI 绘画工具来实现您的需求,比如 DALL·E2、StableDiffusion 等。在输入提示词时,您可以详细描述您的要求,例如“一张妇女节海报,主标题是春暖花开,致敬每一个‘她’力量,画面中有一些补气血的产品,整体色调温暖,背景是盛开的花朵”,这样有助于生成更符合您期望的海报画面。
2025-03-05
使用飞书机器人(如Coze智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)
以下是使用飞书机器人(如 Coze 智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)的相关内容: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口输入更符合用户习惯。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用步骤: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,然后复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。 目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出,由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,理论上无需开发任何插件、APP,就能实现跨平台的稍后读收集与智能阅读计划的推荐。部署完成后,您可以在电脑、手机端通过飞书机器人与稍后读助手进行对话,也可以直接在 Coze 商店中与 bot 进行对话,如果部署到微信服务号、订阅号,还可以通过这些渠道调用 bot。
2025-02-16
如何用AI识别 标题的情绪
要使用 AI 识别标题的情绪,可以通过以下方式: 1. 为模型提供示例来改进其判断能力。例如,给出“一部制作精良且有趣的电影”作为积极情绪的示例,“10 分钟后我睡着了”作为消极情绪的示例,“电影还行”作为中性情绪的示例。 2. 按照以下步骤操作:单击页面右侧的提交按钮。然后,模型可以为输入的文本提供情绪判断。对于像“这是一个很好的时间!”这样的文本,情绪会被标记为积极的。 3. 您还可以保存新设计的提示。单击“保存”按钮并随意命名,例如“sentiment analysis test”,保存的提示将出现在“我的提示”选项卡中。
2025-01-15
撰写一篇汽车领域人工智能自动驾驶应用系统方案,参照以下要求:(1) 选题应为课程相关的技术或者原理的应用。 (2) 重点撰写第2部分技术与服务,必须要使用到课程中所学到或者相关技术。 (3) 第6部分财务分析可根据情况适当缩减。 (4) 整体架构可以根据选题进行调整,可适当增加章节或者删减。 (5) 字体大小、标题等必须和模板相同。篇幅20页以上,不少于10000字,小四,宋体。 以下为一篇样稿,可参考其框架撰写 城市智能停车服务系统建设方案 目 录 1 项目背景 1 1.1 项目背景
以下是为您撰写的汽车领域人工智能自动驾驶应用系统方案的部分内容,您可以根据实际需求进行进一步的完善和补充: 一、项目背景 人工智能在汽车行业的应用已经十分广泛,正在深刻改变汽车的各个方面。自动驾驶技术利用 AI 进行图像识别、传感器数据分析和决策制定,使汽车能够自主导航和驾驶,如特斯拉、Waymo 和 Cruise 等公司都在积极开发和测试自动驾驶汽车。车辆安全系统中,AI 用于增强自动紧急制动、车道保持辅助和盲点检测等功能,通过分析摄像头和传感器数据预防事故。个性化用户体验方面,AI 可根据驾驶员偏好调整车辆设置,包括座椅位置、音乐选择和导航系统。预测性维护通过分析车辆实时数据,预测潜在故障和维护需求,提高车辆可靠性和效率。在汽车制造中,AI 用于自动化生产线,优化生产流程和质量控制。汽车销售和市场分析中,AI 帮助分析市场趋势、消费者行为和销售数据,优化营销策略和产品定价。电动化和能源管理方面,AI 在电动汽车的电池管理和充电策略中发挥作用,提高能源效率和延长电池寿命。共享出行服务借助 AI 优化路线规划、车辆调度和定价策略,提升服务效率和用户满意度。语音助手和车载娱乐由 AI 驱动,允许驾驶员通过语音控制车辆功能、获取信息和娱乐内容。车辆远程监控和诊断利用 AI 系统远程监控车辆状态,提供实时诊断和支持。 二、技术与服务 1. 自动驾驶技术 传感器融合:采用多种传感器,如激光雷达、摄像头、毫米波雷达等,收集车辆周围环境信息。利用 AI 算法对这些多源数据进行融合和分析,提高环境感知的准确性和可靠性。 深度学习决策:基于深度神经网络,训练车辆的决策模型。通过大量的真实驾驶数据,让模型学习如何在各种复杂场景下做出最优的驾驶决策,如加速、减速、转向等。 模拟训练:利用虚拟仿真环境进行大规模的自动驾驶训练。在模拟环境中,可以快速生成各种复杂和罕见的交通场景,加速模型的训练和优化。 2. 车辆安全系统 实时监测与预警:利用 AI 实时分析来自车辆传感器的数据,如车速、加速度、转向角度等,以及外部环境信息,如道路状况、天气条件等。当检测到潜在的危险情况时,及时向驾驶员发出预警。 自动紧急制动:基于 AI 的图像识别和距离检测技术,当判断车辆即将与前方障碍物发生碰撞且驾驶员未采取制动措施时,自动启动紧急制动系统,降低事故风险。 3. 个性化用户体验 偏好学习:通过收集驾驶员的日常操作数据,如座椅调整习惯、音乐播放喜好、常用导航路线等,利用机器学习算法分析和学习驾驶员的偏好模式。 智能推荐:根据学习到的偏好,为驾驶员提供个性化的推荐,如座椅自动调整、音乐推荐、导航路线规划等。 4. 预测性维护 数据采集与分析:安装各类传感器收集车辆的运行数据,如发动机转速、油温、轮胎压力等。利用 AI 算法对这些数据进行分析,挖掘潜在的故障模式和趋势。 故障预测模型:建立基于机器学习的故障预测模型,提前预测可能出现的故障,并及时通知驾驶员和维修人员,安排预防性维护。 5. 生产自动化 质量检测:利用机器视觉技术和 AI 算法,对生产线上的汽车零部件进行自动检测,识别缺陷和瑕疵,提高产品质量。 生产流程优化:通过分析生产数据,如设备运行状态、生产节拍等,利用 AI 优化生产流程,提高生产效率,降低生产成本。 三、财务分析(可根据情况适当缩减) 1. 初始投资 技术研发费用:包括自动驾驶算法开发、硬件设备采购、测试场地建设等方面的费用。 车辆改装和设备安装成本:为实现自动驾驶功能,对车辆进行改装和安装相关传感器、计算设备等的成本。 2. 运营成本 数据采集和处理费用:持续收集车辆运行数据和环境数据,并进行处理和分析的费用。 维护和升级成本:对自动驾驶系统进行定期维护、软件升级和硬件更换的费用。 3. 收益来源 车辆销售增值:配备自动驾驶和智能功能的汽车可以提高售价,增加销售收入。 服务订阅费用:为用户提供个性化服务、远程监控和诊断等服务的订阅收费。 4. 盈利预测 根据市场需求、成本控制和收益增长情况,进行短期和长期的盈利预测。 以上内容仅供参考,您可以根据具体的项目需求和实际情况进一步完善和细化各个部分。
2024-12-27
学习大模型请给我一张知识图谱
以下是为您提供的大模型知识图谱: 1. 非技术背景,一文读懂大模型 整体架构 基础层:为大模型提供硬件支撑,数据支持等,例如 A100、数据服务器等。 数据层:企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 模型层:LLm 或多模态模型,LLm 即大语言模型,如 GPT,一般使用 transformer 算法实现;多模态模型包括文生图、图生图等,训练所用数据与 llm 不同,用的是图文或声音等多模态的数据集。 平台层:模型与应用间的平台部分,如大模型的评测体系,或者 langchain 平台等。 表现层:也就是应用层,用户实际看到的地方。 2. AI Agent 系列:Brain 模块探究 知识 内置知识 常识知识:包括日常生活中广泛认可的事实和逻辑规则,帮助智能体具备泛化能力。 专业知识:涉及深入特定领域的详细信息,如医学、法律、科技、艺术等领域的专有概念和操作方法。 语言知识:包括语法规则、句型结构、语境含义以及文化背景等,还涉及非文字部分如语调、停顿和强调等。 3. 大模型入门指南 通俗定义:输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。 类比学习过程 找学校:训练 LLM 需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练大模型。 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 找老师:用算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 就业指导:为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 Token:被视为模型处理和生成的文本单位,可代表单个字符、单词、子单词等,在将输入进行分词时,会对其进行数字化,形成词汇表。
2025-04-07
目前的大模型ai工具中 你觉得文本处理 写作这方面那个工具最强 最像人
目前在大模型 AI 工具中,对于文本处理和写作方面,以下是一些相关信息: 生成式人工智能的工作原理:在整体的人工智能领域,监督学习用于标记事物,一直占据很大比例。现在生成式 AI 快速崛起,强化学习与无监督学习也是重要工具。生成式 AI 由监督学习技术搭建,大语言模型使用监督学习不断预测下一个词语来生成文本,这需要大量数据。 大语言模型的应用:运用大语言模型写故事、修改文本很有用,但它可能编造故事产生错误信息,需要鉴别信息准确。网络搜索与大语言模型的区别在于网络搜索可追寻信息来源,大语言模型能提供建议与策略。 写作方面:使用大模型工具如 LLM 来写作,集思广益、头脑风暴非常有用。网页版聊天时提供更多信息,翻译也可使用 LLM,但其效果受网络文本量影响。 推荐的大模型工具:chatGPT 4.0、kimichat、智谱清言 4 等。一些国产模型如智谱和文心可以文生图。 相关工具:除了 Snapbox 外,还有 OpenCAT 等类似工具可供选择。有多种文本处理与总结工具,如 kimi 网页总结助手、ChatHub 等,以及翻译插件与 AI 对话插件、沉浸式翻译插件等。Memo Al 可以对音频视频进行转文字、字幕翻译、语音合成等,并由多种 AI 模型提炼内容精华总结、生成思维导图。 综合来看,不同的大模型工具在文本处理和写作方面各有特点,难以简单地确定哪一个最强、最像人,具体取决于您的需求和使用场景。
2025-04-01
写代码的最佳模型
写代码的最佳模型取决于具体的需求和任务。以下是一些相关要点: 1. 对于不同人使用同一个模型,结果差异大的原因在于是否懂 AI 和懂内容,专业写作通常会混合使用多个模型并取其精华,例如 Grok、Gemini、GPT 各有优势,关键在于如何运用。 2. 在需要精确计算时,可以使用代码或调用 API。GPT 自身进行算术或长计算可能不准确,此时应让模型编写并运行代码,运行代码输出结果后,再将其作为输入提供给模型进行下一步处理。同时调用外部 API 也是代码执行的一个好的用例,但执行代码时要注意安全性,需采取预防措施,特别是需要一个沙盒化的代码执行环境来限制不可信代码可能造成的危害。 3. 文本补全端点可用于各种任务,它提供了简单且强大的接口连接到任何模型。输入一些文本作为提示,模型会生成文本补全,试图匹配给定的上下文或模式。探索文本补全的最佳方式是通过 Playground,它是一个文本框,可提交提示生成完成内容。由于 API 默认是非确定性的,每次调用可能得到稍有不同的完成,将温度设置为 0 可使输出大部分确定,但仍可能有小部分变化。通过提供指令或示例可以“编程”模型,提示的成功通常取决于任务复杂性和提示质量,好的提示应提供足够信息让模型明确需求和回应方式。 需要注意的是,默认模型的训练数据截止到 2021 年,可能不了解当前事件情况。
2025-04-01
我想了解如何提取自己的声音并实现大模型以我的声音回答我
要提取自己的声音并实现大模型以您的声音回答,目前提供的知识库中没有直接相关的详细内容。但可以为您提供一些可能有用的思路和参考方向: 对于声音提取,可能需要使用专业的音频处理软件和设备,将您的声音录制并进行处理和分析。 关于让大模型以您的声音回答,这可能涉及到语音合成技术。您可以先了解一些常见的语音合成模型和工具,例如通过创建大模型问答应用,获取推理 API 服务等。 同时,还可以参考一些关于大模型和语音处理的专业知识,比如大模型的本质是基于语言的概率模型,通过设置合适的 Prompt 来引导模型输出更准确的结果。 由于知识库中没有确切的针对您需求的详细步骤和方法,以上内容仅供您初步参考。
2025-04-01
请基于应用场景,对AI模型进行分类
以下是对 AI 模型基于应用场景的分类: 1. 文本生成和内容创作:包括撰写文章、生成新闻报道、创作诗歌和故事等。 2. 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 3. 编程和代码辅助:如代码自动补全、bug 修复和代码解释。 4. 翻译和跨语言通信:促进不同语言背景的用户之间的沟通和信息共享。 5. 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 6. 教育和学习辅助:创建个性化的学习材料、自动回答学生问题和提供语言学习支持。 7. 图像和视频生成:如根据文本描述生成相应的图像,甚至未来可能扩展到视频内容的生成。 8. 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家的沉浸式体验。 9. 医疗和健康咨询:理解和回答医疗相关的问题,提供初步的健康建议和医疗信息查询服务。 10. 法律和合规咨询:帮助解读法律文件,提供合规建议。 此外,在开源模型方面,如 Civitai、海艺 AI、liblib 等为主流创作社区,提供了让用户利用 AI 技术进行图像创作和分享的平台。AI 视频方面,其应用场景广泛,涵盖内容创建、社交媒体营销、讲故事与动画制作、个性化内容、视频摘要、电子学习和培训、新闻媒体、电子游戏开发、虚拟助理和聊天机器人、归档与文档保存以及提高内容的可访问性等多个领域。从使用场景来看,分为改善大模型产品的使用体验、助力用户工作流、细分场景独立实用工具、AI 社区、Chatbot 五个方向;从产品形态上来看,分为插件、辅助现有产品能力、深度结合 LLM 能力的独立网站&应用、AI 社区四种。目前产品大多分布在 PC 端。
2025-04-01
AI模型可以分为什么类型
AI 模型主要可以分为以下类型: 1. 基础模型(Foundation model):在大量数据上训练,能适应多种任务,可作为构建更特定 AI 模型的基础。 2. 大语言模型(LLM):例如谷歌的 BERT 模型,可用于语义理解等任务,生成只是其处理任务之一。 3. 生成式 AI 模型:能够生成文本、图片、音频、视频等内容形式。 4. 按照学习方式分类: 监督学习模型:使用有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习模型:处理无标签数据,自主发现规律,经典任务如聚类。 强化学习模型:从反馈中学习,以最大化奖励或最小化损失。 5. 深度学习模型:参照人脑神经网络和神经元,由于有很多层而被称为深度,神经网络可用于监督学习、无监督学习、强化学习。
2025-04-01
Lora训练
以下是关于 Lora 训练的详细步骤: 创建数据集: 1. 进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset)。 2. 在数据集一栏中,点击右上角创建数据集。 3. 输入数据集名称。 4. 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片没有打标文件(之后可在 C 站使用自动打标功能),或者一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 5. Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 6. 上传 zip 以后等待一段时间。 7. 确认创建数据集。 8. 返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 6. 然后等待训练,会显示预览时间和进度条。 7. 训练完成的会显示出每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 此外,还有一些相关的补充内容: Flux 的 Lora 训练准备: 需要下载几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意: 1. 不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。 2. 因为是训练,不是跑图,训练的话,模型就用 flux1dev.safetensors 这个版本,编码器也用 t5xxl_fp16.safetensors 这个版本最好。 下载脚本和安装虚拟环境: 1. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 2. 下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程,下好了之后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 SD 训练一套贴纸 LoRA 模型: 1. 在 lora 训练器的根目录下,点击【A 强制更新国内加速】,跑完即可关闭窗口。 2. 双击【A 启动脚本】,请保持终端一直运行,不要关闭。出现下列代码即为启动成功。 3. 滚动至最下点击【LoRA 训练】或者直接点击左侧菜单【LoRA 训练】。
2025-03-30
大模型公司的数据训练成本目前大概是多少
目前,AI 大模型的训练成本较高。在数据、算力、算法三要素中,算力是基础也是大模型竞争力,但国产芯片在软件适配度、稳定性方面存在不足。大部分采用智能计算中心、自费买英伟达 A800/H800 显卡组成服务器运行、或者用价格更为实惠的服务器云来训练,成本最高的部分是前期的模型训练。 千亿参数模型的报价高达数十万元,由于训练成本高、数据筛选难度大,高昂的售价让很多客户望而却步。在预训练阶段,从互联网上获取大量文本并处理,需要 GPU 集群,通常需要数百万美元的成本。 开源模型可以由任何人托管,包括不承担大模型训练成本(高达数千万或数亿美元)的外部公司。闭源模型能否长久保持优势还是未知数。
2025-03-28
大模型训练师
以下是关于大模型训练师的相关信息: 招聘信息: 中国移动设计院正在招聘大模型开发工程师,办公地点在北京海淀中关村。 数量:1 名 学历:本科及以上 资历:5 年及以上 岗位要求: 参与大模型技术研究、大模型微调、大模型智能体研发、基于大模型的应用研发等工作。 大模型相关的数据工程,包括预训练数据、微调数据、行业数据挖掘等。 大模型相关的落地实现:如推理优化、部署、AIAgent、工具学习、领域大模型等。 技能要求: 了解大模型基本原理,包括不限于模型架构、模型预训练及微调、模型部署及推理。 熟悉 LLM 相关技术,如 transformer,prompt tuning,RLHF,langchain,Agent,MOE,RAG 等。 熟悉算法和数据结构,熟悉常用的编程语言,有较好的 Python 开发经验,编程基础扎实。 了解或掌握机器学习、深度学习基本算法原理,熟悉 AI 建模流程,在 NLP 领域有开发经验优先。 了解熟悉大模型常用训练框架、推理架构;了解分布式计算、并行计算。 联络方式:飞书与@史鹏飞联系 大模型入门指南: 通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。可以用『上学参加工作』这件事来类比大模型的训练、使用过程: 1. 找学校:训练 LLM 需要大量的计算,因此 GPU 更合适,只有购买得起大量 GPU 的贵族学校才有资本训练自己的大模型。 2. 确定教材:大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与 LLM 可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。 2024 年人工智能现状: More Money,More Problems: 预计明年会有团队花费超过 10 亿美元训练单个大规模模型。GenAI 的热潮不会消退,只是会变得更加昂贵。 Compute Squeeze: 政府和大型科技公司都将继续感受到计算需求的压力,其增长速度超过了电网的支持能力。这就像一个健美运动员增长得太快,健身房都快承受不住了——在某个时候,天花板可能会坍塌。 AI Enters Elections: 预期的 AI 对选举和就业的影响尚未显现,但这并不意味着我们可以放松警惕。记住,AI 的影响就像闪光粉:一旦出现,多年来你会在各处发现它。 人工智能仍然是令人兴奋的突破、未解决的伦理问题和无数万亿美元赌注的混合体。随着 OpenAI 在某些领域领先,Meta 在其他领域崛起,以及中国实验室不受制裁影响而上升,2024 年的 AI 舞台感觉更像是一个拥挤的拳击台,而不是一个和平的会议室。所以准备好爆米花,准备好 GPU——我们将迎来又一年的 AI 突破边界、测试极限,并可能改写一些定义。
2025-03-27
AI训练范式革命
以下是关于 AI 训练范式革命的相关信息: Prime Intellect: Intellect1 是业界首个采用去中心化训练方式的大规模语言模型,模型规模达到 10B 参数量级,采用跨地域分布式训练架构,横跨 3 大洲 5 国,整合 112 台 H100 GPU 算力,训练过程实现 83%的算力利用率,验证了去中心化训练在大模型构建中的技术可行性。该公司为美国初创公司 Prime Intellect,专注去中心化 AI 技术的研发与创新。产品入口完全开源,开放基础模型、检查点、微调模型、训练数据及 PRIME 训练框架等全套技术资源。 GPT4.5: 通过扩展无监督学习和思维链推理两种范式来提升 AI 能力。扩展思维链推理可让模型在回应前思考,从而处理复杂的 STEM 或逻辑问题;扩展无监督学习能提高世界模型的准确性、降低幻觉率并改善联想思维。GPT4.5 是在扩展无监督学习范式上的新进展。 开发了新的可扩展对齐技术,能训练更大更强的模型,并使用来自较小模型的数据,提高了 GPT4.5 的可操纵性、对细微差别的理解和自然对话能力。 GPT4.5 在多样化的数据集上进行了预训练和后训练,包括公开数据、来自数据合作的专有数据和内部开发的自定义数据集。数据处理流程包括严格过滤以保证数据质量和降低潜在风险。 内部测试人员称 GPT4.5 热情、直观和自然,在处理情感类查询时表现出色,在创意写作和设计方面有较强能力。 医疗 AI 领域: 图像理解在医疗领域率先实现商业化,科技巨头深耕医疗 AI 研发,学术界取得突破性进展,行业权威对医疗 AI 持积极态度。 多模态识别能力提升使 AI 在专业领域的理解和分析应用成为可能,医疗 AI 的成功得益于其深度对接专业场景,以解决实际临床需求为导向的发展路径。 规模化训练是通过扩大模型参数、数据规模和算力投入,在量变中实现质变的训练范式。视频生成相比图像生成难度提升百倍,视频生成技术发展出自回归与扩散两大路线,Sora 引领 DiT 架构成为主流方向,规模化训练是实现高质量视频生成的关键。
2025-03-27
Gemini是用什么训练的
Gemini 是在 Google 的 TPU AI 加速器上训练的,似乎没有使用英伟达的 GPU。Google 还推出了全新的 Cloud TPU v5p 和 AI Hypercomputer 超级计算机,将加速 Gemini 的开发,使 AI 模型的训练更快。 Cloud TPU v5p 是目前 Google 最强大、可扩展和灵活的 AI 加速器。它在 TPU v4 的基础上提供了超过 2 倍的 FLOPS(浮点运算次数/秒)和 3 倍的高带宽内存(HBM)。TPU v5p 可以比前一代 TPU v4 更快地训练大型语言模型(LLM),对于嵌入密集型模型,其训练速度比 TPU v42 快 1.9 倍。TPU v5p 的可扩展性是 TPU v4 的 4 倍。 AI Hypercomputer 是一个突破性的超级计算机架构,它采用了集成的系统,包括性能优化的硬件、开放软件、领先的机器学习框架,以及灵活的消费模型。通过系统级协同设计来提高 AI 训练、调优和服务的效率和生产力。具有性能优化的计算、存储和网络硬件,建立在超大规模数据中心基础设施之上,利用高密度占地面积、液体冷却和 Jupiter 数据中心网络技术。通过开放软件使开发者能够调整、管理和动态编排 AI 训练和推理工作负载。提供了一系列灵活和动态的消费选择,包括传统的承诺使用折扣(CUD)、按需定价和现货定价,以及为 AI 工作负载量身定制的消费模型。 Gemini 模型是在一个既包含多模态又包含多语言的数据集上进行训练的。预训练数据集使用来自网络文档、书籍和代码的数据,并包括图像、音频和视频数据。使用 SentencePiece 分词器,发现在整个训练语料库的大样本上训练分词器可以改善推断的词汇,并进而提高模型性能。对所有数据集进行过滤,使用启发式规则和基于模型的分类器,还进行安全过滤以删除有害内容。从训练语料库中筛选出评估集。在训练过程中进行分阶段训练,通过增加领域相关数据的权重来改变混合组合,直到训练结束。
2025-03-26
如何训练AI智能体
以下是关于训练 AI 智能体的一些信息: 1. 可以将一些创新的 prompt 融入工作流中,以更高效地训练智能体。这种方法不仅能改进现有的大语言模型,还能探索新的应用领域,实现低成本、高效能和模型效益最大化,突破单纯依赖算法的方式。 2. 采用流式训练方式提升训练速度和质量,例如将孔明灯换成泡泡,基于 Transformer 模型进行流匹配,这种方式优于扩大模型。 3. 利用多种 AI 生成工具,如输入简单提示词就能创作音乐的 so no 音频生成工具,能创建个人 AI 智能体的豆包,输入文本可生成播客的 Notebook LN。 4. 了解 AI 工程平台,如 define 等,涉及数据清洗管道、数据存储和检索、编辑生成平台、构建 prompt 技巧、智能体概念、插件调用、运维平台、模型层和缓存机制等,还能接入多家大模型。以 coach 平台为例,新版本有很多模板,有众多插件工具,包括必应搜索、链接读取、代码执行器等,还有工作流,可创建应用 APP,有新手教程和文档,可创建智能体,通过工作流节点调用和 prompt 构建提示词,还能调用插件、图像流、知识库等,商城中有各种智能体和插件模板,知识库可添加多种格式内容。 5. 了解一些为大模型提供数据、企业模型和算力服务的平台,如魔搭社区等,有按任务划分的模型库、数据集和在线应用供体验。
2025-03-25