Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么快速生产训练语料

Answer

以下是快速生产训练语料的一些方法:

  1. 在 LORA 模型训练中:
    • 首先在脚本的 LoraTraining 目录下新建训练文件夹命名为 train。
    • 如果需要训练多个概念,就在(input_角色名称)下面再新建一个文件夹,命名写(训练次数_角色名称_泳装)进行文件夹区分。
    • 在脚本根目录下面建立一个训练文件夹(train),在(train)文件夹内建立一个概念文件夹和一个正则化文件夹(reg,不需要正则化可不建立),在概念文件夹内建立--训练素材文件夹(训练素材文件夹前面的需要加“_”你想训练的次数)之后将训练素材放置进去即可。
    • 正则化素材方面,正则化在深度学习中指的是给模型加一些规则和约束,限制要优化的参数有效防止过拟合。假设在训练集里面放入了一个泳装角色的训练素材,那么为了防止过拟合的问题,在正则化文件夹内放入一些同样是泳装的图片素材。正则化素材注意不要过多,不然机器会过多的学习到里面的素材导致跟训练目标角色不一致。
  2. 对于神经网络大模型:
    • 大模型生成文字的过程,是根据输入的文字,预测下一个字。通过一次又一次反复的调用同一个神经网络模型,一个一个字的往后续写,直到输出结束符号为止。
    • 大模型的输出并不是一个字,而是所有字都输出一个概率。可以选择最高概率的或者第二高的汉字作为输出结果,也可以从前几名当中随机挑选。
    • 可以将任何网络上的文本直接当作训练素材来训练神经网络模型。把任意一段文字的前几个字作为输入,而下一个字作为答案用做训练素材,从而方便地得到大量的训练素材。
  3. 在雅思口语备考中:
    • 如果时间充裕,建议把每个 topic 的问题喂给 GPT,让它一道道问您,您回答,然后转成文本查看发音问题。
    • 让 GPT 对您的内容执行 correct 或者 another native answer 两个指令。前者可以基于您的内容做修正,后者是在自己完全没思路时让它给出答案。
    • 对语料进行分类归纳,如按照教育、工作、购物、科技、消费分成几大类,再弄吃、环保、交通、历史等专题,挑最不熟悉、现场水不出来的准备。考前 1 小时,再顺一遍语料,多看两眼关键表达。
Content generated by AI large model, please carefully verify (powered by aily)

References

《LORA模型训练超入门级教程》--人人都可以当炼金术士

注:这里把概念名称转换成角色名称方便理解,具体概念名称按照需求进行填写,*文件夹命名不能用中文。1.首先在脚本的LoraTraining目录下新建训练文件夹命名为train2.如果需要训练多个概念(例如:角色除了本体之外,还要加一个穿着泳装训练素材),这时候就在(input_角色名称)下面再新建一个文件夹,命名写(训练次数_角色名称_泳装)进行文件夹区分。[heading3]a.训练文件夹建立步骤:[content](1).在脚本根目录下面建立一个训练文件夹(train)(2).在(train)文件夹内建立一个概念文件夹和,一个正则化文件夹(reg),不需要正则化可不建立(3).在概念文件夹内建立--训练素材文件夹(训练素材文件夹前面的需要加“_”你想训练的次数)之后将训练素材放置进去即可。[heading3]b.正则化文件夹搭建:[content][heading3]c.正则化素材示意:[content]正则化在深度学习中指的是:给模型加一些规则和约束,限制要优化的参数有效防止过拟合。正则化素材【假设我在训练集里面放入了一个泳装角色的训练素材,那么为了防止过拟合的问题,在正则化文件夹内放入一些同样是泳装的图片素材】可以用SD进行快速生成*正则化素材不需要生成tag文本文件!!!正则化素材注意不要过多,不然机器会过多的学习到里面的素材导致跟训练目标角色不一致,*简单来说就是让AI稍微克制一下学习的程度,防止发生过拟合。在我的理解看来正则化手段是目前控制过拟合问题,最容易理解的一个操作的方法。

一个希望有点意思的AI分享(二)

从PPT里可以看到,这个神经网络大模型其实只做一件事,就是根据输入的文字,预测下一个字是什么。你输入台湾大,它会预测学。如果你输入的已经是完整的一段文字带有句号,那么它会预测下一个应该是结束。所以,大模型生成文字的过程,并不是一次性输出整段,而是通过一次又一次反复的调用同一个神经网络模型,一个一个字的往后续写,直到输出结束符号为止。你可能想到,一段文字的下一个字会有多种可能性,事实上,大模型的输出并不是一个字,而是所有字都输出一个概率。你可选择最高概率的或者第二高的汉字作为输出结果,你更可以从前几名当中随机挑选。也正是由于这样,现在AI生成的文章才能体现出这么多的创意性。这么做的一大好处是,我们几乎可以将任何网络上的文本直接当作训练素材来训练我们的神经网络模型。因为我们可以把任意一段文字的前几个字作为输入,而下一个字作为答案用做训练素材。这使得我们可以非常方便的得到大量的训练素材。而AI也是通过这种方式,“读”过了当前网络上几乎所有的文字资料。这种“预测下一个词”的行为可以看作是一种信息压缩。AI将它看过的所有文章压缩在了它的上亿参数中。当然,你或许发现了,既然是预测,那么它就不一定保证正确。它只是根据它看过的海量资料的“印象”猜了一个结果。事实上,这一点也很像人类,其实人类自己也无法保证记忆的正确性。另外,这种预测下一个字的方式可以拓展到图像、声音等等领域,只要定义好“下一个”是什么信号即可。当前的AI也正是类似这样学会处理图像、声音等等信息的。

外语:雅思口语急速备考

part3是重头戏,据说直接决定分数。3.1.如果时间充裕,建议把每个topic的问题喂给GPT,让它一道道问你,你回答(我用苹果自带的录音转文字)。转成文本你差不多也能知道自己发音都有啥问题了。3.2.然后让它对你的内容执行correct或者another native answer两个指令就行。前者可以基于你的内容给你做修正,后者是自己完全没思路让它给你弄一个。我只能说效果很惊艳,我说得再烂,它都能给我润色得不错。当然这种练习比较废时间,我之前的效率差不多2小时能搞完2、3个topics,如果时间充裕p1也可以用这个方法练习。不过当时没时间绝望的我只能暴力出奇迹,把25个新题的p3问题全部丢给它让它直接给我出答案,要求是critical,2sides,50字左右。3.3.然后还是要归纳,我把语料按照教育,工作,购物,科技,消费分成几大类,然后再弄吃、环保、交通、历史几个专题(专题多少完全看自己脑子还剩多少容量了),可以挑最不熟悉、现场水不出来的准备。分完类还是找关键表达。p3差不多5、6面A4。考前1小时,拿着10多面A4纸再顺一遍语料,画线的关键表达多看两眼。进考场开始你的表演...

Others are asking
有没有一种小模型,语料只是一个知识库,超出范围的无法回答?
以下是关于您问题的回答: 在医疗领域,存在一种智能体,其在提示词中约定回答只能来自于知识库。例如生物医药小助手,为了避免在医疗这个严肃领域出现误导性的回答,其回答被限制在特定的知识库范围内,可能存在问题超出知识库范畴的情况,但尚未发现有医学上不严谨的回答现象。 同时,模型存在一定的局限性。在训练过程中,模型虽接触大量知识,但未完美记忆且不清楚知识边界,可能尝试回答深奥话题并虚构不正确内容,产生幻觉。例如要求模型描述虚构的牙刷产品时,会给出逼真但虚构的描述。在构建应用程序时,可使用一些技术避免这种情况,如要求模型先从文本中找相关引文,再用引文回答问题并追溯源文件,以减少幻觉的发生。 另外,“小模型”在特定任务上表现出色,如专门识别猫或狗的模型,但无法用于其他任务。而“大模型”像多功能基础平台,能处理多种任务,应用范围广泛且有更多通识知识,但大模型的知识来源于有限的训练数据,不能拥有无限知识,且知识库不会自动更新,在某些特定或专业领域知识可能不够全面。
2025-03-05
语料库训练相关文档
以下是为您提供的语料库训练相关文档: 中文数据集 |ID|标题|更新日期|数据集提供者|许可|说明|关键字|类别|论文地址|备注| ||||||||||| |6||2020 年|CLUE||CLUENER2020 数据集,是在清华大学开源的文本分类数据集 THUCTC 基础上,选出部分数据进行细粒度命名实体标注,原数据来源于 Sina News RSS。数据包含 10 个标签类别,训练集共有 10748 条语料,验证集共有 1343 条语料|细粒度;CULE|命名实体识别|\\|中文| |7||英文| |8||||EMNLP2015|命名实体识别||| |9||2005 年|MSR/PKU|||bakeoff2005|命名实体识别||| TTS 超全教程 音库制作和文本前端 音库制作 音频录制 音频的录制对合成语音的表现较为重要,较差的语音甚至会导致端到端声学模型无法正常收敛。用于训练的录音至少要保证录音环境和设备始终保持一致,无混响、背景噪音;原始录音不可截幅;如果希望合成出来的语音干净,则要删除含口水音、呼吸音、杂音、模糊等,但对于目前的端到端合成模型,有时会学习到在合适的位置合成呼吸音、口水音,反而会增加语音自然度。录音尽可能不要事先处理,语速的调节尚可,但调节音效等有时会造成奇怪的问题,甚至导致声学模型无法收敛。音频的录制可以参考录音公司的标准,购买专业麦克风,并保持录音环境安静即可。在音库录制过程中,可尽早提前尝试声学模型,比如音库录制 2 个小时语音后,就可尝试训练基线语音合成系统,以防止录音不符合最终的需求。 语料整理 检查文本和录制的语音是否一一对应,录制的音频本身一句话是否能量渐弱,参与训练的语音前后静音段要保持一致,能量要进行规范化。可使用预训练的语音活动检测(Voice Activity Detection,VAD)工具,或者直接根据语音起止的电平值确定前后静音段。可以使用一些开源的工具,比如统一所有语音的整体能量,这将有助于声学模型的收敛。当然,在声学模型模型训练时,首先就要对所有语料计算均值方差,进行统一的规范化,但是这里最好实现统一能量水平,防止一句话前后能量不一致。能量规整的示例代码如下。
2025-01-02
怎么投喂语料库给ai
以下是关于投喂语料库给 AI 的一些方法和步骤: 在音乐学习方面: 1. 步骤 3:把 Midi 导出到 MP3 虚拟演奏文件。可以直接导总谱,也可以分轨导出(适用于不同乐器组合)。由于制谱软件有很重的 midi 味,有时需要调整乐器音色。320kbit 码率是各大音乐平台的门槛,而向 Suno 导出的是 192k 的,后期如果想输出到 QQ 音乐之类,需要转个码。导出以后就可以喂给 AI 了。修改音色这一步不是必须,也有很多染色的软件可以用,比如用 Neutron4 从 Youtube 上面下载一些自己喜欢的乐器音色(比如雅马哈大钢琴),然后用宿主软件打开插件,导入这段音频,就可以实现渲染。 2. 步骤 4:丢给 AI 做二次创作。比较喜欢丢完整的小节给 AI,这样节奏的识别性更好,当然也可以在中间掐断,AI 的识别能力还是不错的。接下来就是细化去 roll 后面的部分,大家可以自由发挥。 在 OpenAI 方面: 如果作为输入的一部分提供,模型可以利用外部信息源。这可以帮助模型生成更明智和最新的响应。例如,如果用户询问有关特定电影的问题,将有关电影的高质量信息(例如演员、导演等)添加到模型的输入中可能会很有用。嵌入可用于实现高效的知识检索,以便在运行时将相关信息动态添加到模型输入中。文本嵌入是一个向量,可以衡量文本字符串之间的相关性。相似或相关的字符串将比不相关的字符串靠得更近。这一事实以及快速向量搜索算法的存在意味着嵌入可用于实现高效的知识检索。特别是,一个文本语料库可以被分割成块,每个块都可以被嵌入和存储。然后,给定的查询可以被嵌入,可以进行向量搜索,以找到与查询最相关的语料库的嵌入文本块(即,在嵌入空间中最接近的)。可以在中找到示例实现。有关如何使用知识检索来最小化模型编造错误事实的可能性的示例,请参阅策略“指示模型使用检索到的知识来回答查询”。
2024-12-30
大模型中的参数和语料是什么意思
大模型中的参数和语料含义如下: 语料:大模型通过输入大量的语料来学习,从而获得类似人类的“思考”能力,能够进行诸如文本生成、推理问答、对话、文档摘要等工作。这些语料通常来自互联网,包括论文、代码、公开网页等,数据量巨大,一般以 TB 级别计。 参数:大模型的参数数量非常多,例如 OpenAI 在 2020 年发布的 GPT3 就已经达到 170B 的参数。参数规模的大小对模型的性能和表现有重要影响。 在大模型的训练和使用过程中,可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有有资本购买大量 GPU 的才有能力训练自己的大模型。 2. 确定教材:大模型需要大量的数据量,几千亿序列(Token)的输入基本是标配。 3. 找老师:即采用合适的算法让大模型更好地理解 Token 之间的关系。 4. 就业指导:为了让大模型更好地胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行诸如翻译、问答等工作,在大模型里称之为推导(infer)。 大模型的发展历程起源于 2017 年发布的 Attention Is All You Need 论文,之后基于大量语料的预训练模型百花齐放,如 BERT(参数规模:110M 到 340M)、GPT(参数规模:1750 亿)、LLAMA(参数规模:十亿到千亿)等。 大模型的架构包括 encoderonly、encoderdecoder 和 decoderonly 三种,目前常见的 AI 助手基本采用 decoderonly 架构。
2024-08-10
你好,我想训练一个自己的专属模型,比如说基于网页里面的问卷调查,我有答题的逻辑,网页的问卷调查项目每天都有非常多的不同的地方,但是又有相通的地方,我想让AI在我的逻辑之上能自我迭代自动答题,我该怎么办
如果您想基于网页问卷调查训练一个能在您的逻辑之上自我迭代自动答题的专属模型,有以下两种常见的技术方案: 1. 训练专有大模型: 优点:效果最好。 缺点:成本高,训练和维护需要大量计算资源和专业知识;更新模型知识难度大,需要重新训练或微调,过程复杂耗时。 2. 利用 RAG(检索增强生成)技术: 例如选择 Baichuan27BChat 模型作为底模,配置模型本地路径和提示模板。在 Train 页面里选择 sft 训练方式,加载定义好的数据集,根据数据集大小和收敛情况设置学习率和训练轮次。使用 FlashAttention2 可减少显存需求、加速训练速度;显存小的朋友可减少 batch size 并开启量化训练,内置的 QLora 训练方式好用。但需要用到 xformers 的依赖。根据聊天记录规模大小,训练时间少则几小时,多则几天。 此外,还有学生训练专属植物分类 AI 模型的案例供您参考。在北京市新英才学校的跨学科选修课“生化 E 家”中,老师和学生共同收集校园内不同树叶的照片,在 OpenInnoLab里找到图像分类训练工具,建立植物分类模型,加入大量数据集进行训练,再用图像化编程将其套在程序里,形成简单的识别工具。在这个过程中,老师通过生活体验与学生讨论图像分类原理,学生从体验到实践操作,在不进行大量代码编程的情况下能够训练 AI 模型,并了解模型训练准确度与数据的关系。
2025-03-14
分布式预训练里的流水线并行
分布式预训练中的流水线并行是一种在模型参数量太大一张卡不能完全放下时采用的切分方法。具体而言,沿着模型的拓扑序将其切分成 p 段,每段为一个 stage。将大小为 N 的 minibatch 进一步切分为 m 个大小为 M 的 microbatch(N = m·M),这些 microbatch 依次进入上述 p 个 stage。 在流水线并行切分后,每个 stage 的耗时会发生变化。假设 1 指出:算力为 1 的节点,处理完整模型的 1 个 microbatch,前向和反向耗时分别是 t_f 和 t_b。基于此有推论 1:算力为 1/p 的节点,处理完整模型的 1 个 microbatch,前向和反向耗时分别是 p·t_f 和 p·t_b;推论 2:算力为 1 的节点,处理 1/p 模型的 1 个 microbatch,前向和反向耗时分别是 t_f/p 和 t_b/p;推论 3:算力为 1/p 的节点,处理 1/p 模型的 1 个 microbatch,前向和反向耗时分别是 t_f 和 t_b。 从耗时情况来看,理论上界是显存无限大,不需要 pipeline 并行,一把梭直接对 minibatch 的样本做前向和反向,耗时正比于样本数量,b_best 耗时为 t_best = m·,可见耗时是理论上界的 p 倍,存在大量计算资源闲置空载,硬件利率用很低。 最后小结,3D 并行包括数据并行。DP 计算和通信效率友好,但权重显存不友好;PP 要求 minibatch 里 batch size 足够大以掩盖流水线带来的 overhead,batch size 过大则会增大激活显存占用;TP 权重显存友好,但计算和通信效率不友好,通信量要求大。ZeRO 针对数据并行显存占用大的问题提出优化,Alpa 借鉴 AI 编译器思路对 3D 并行建模并用自动化搜索方式得到并行策略。
2025-03-14
如何训练自己的智能体
训练自己的智能体可以参考以下步骤: 1. 创建智能体 知识库 手动清洗数据:上节课程是自动清洗数据,自动清洗数据可能出现数据不准的情况,本节尝试手动清洗数据以提高准确性。参考。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以分割,选择飞书文档、自定义的自定义,输入,可编辑修改和删除,添加 Bot 后可在调试区测试效果。 本地文档:对于本地 word 文件,注意拆分内容以提高训练数据准确度,例如对于画小二的 80 节课程,分为 11 个章节,不能一股脑全部放进去训练,要先将大章节名称内容放进来,章节内详细内容按固定方式人工标注和处理,然后选择创建知识库自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能够搜到,没有通过发布无法获取 API。 2. 参考谷歌发布的世界模型 Genie:或许有一天,Genie 可以被用作训练多任务智能体的基础世界模型。在图 14 中,作者展示了该模型已经可以用于在给定起始帧的全新 RL 环境中生成不同的轨迹。 3. 了解基础通识课中的相关内容: 流式训练方式提升训练速度和质量。 多种 AI 生成工具,如输入简单提示词就能创作音乐的 so no 音频生成工具,能创建个人 AI 智能体的豆包,输入文本可生成播客的 Notebook LN。 端侧大模型的特点。 AI 工程平台,如 define,涉及数据清洗管道、数据存储和检索、编辑生成平台、构建 prompt 技巧、智能体概念、插件调用、运维平台、模型层和缓存机制等,还能接入多家大模型。 AI 工程平台 coach 的应用,包括新手教程和文档,可创建智能体,通过工作流节点调用和 prompt 构建提示词,还能调用插件、图像流、知识库等,商城中有各种智能体和插件模板,知识库可添加多种格式内容。 模型社区介绍,如魔搭社区等。 AI 建站预告。
2025-03-13
分布式预训练模型并行
分布式预训练模型并行主要包括以下内容: 张量并行:当模型参数增大,除流水线并行外,还可用张量并行缓解,即以前的模型并行。以矩阵乘为例,对权重矩阵 B 有按列切分和按行切分两种方案。按列切分,A 不变,每一列独立计算后结果 concat 在一起;按行切分,A 对应列切分,两部分独立计算后结果 sum 在一起。 大模型发展历程:2017 年发布的 Attention Is All You Need 论文开启了相关研究。之后有多种预训练模型,如 2018 年 Google 提出的 BERT,创新性地双向预训练并行获取上下文语义信息和使用掩码语言建模;2018 年 OpenAI 提出的 GPT,开创仅用自回归语言建模作为预训练目标;2021 年 Meta 提出的首个开源模型 LLAMA,为构建更大规模、更通用的语言模型提供方法与工具。 分布式训练的其他方面: 分布式通信原语包括点对点通信和集合通信,集合通信包含多种方式。 3D 并行包括数据并行,各自有优势和问题。 ZeRO 针对数据并行显存占用大的问题提出优化,Alpa 借鉴 AI 编译器思路对 3D 并行建模并用自动化搜索方式得到并行策略。 如果想了解更多关于 transformer 在 NLP/多模态/AIGC 的算法知识、分布式训练知识,以及如何在 TVM 上做 PTQ 量化和部署,可以关注作者 aaronxic。
2025-03-12
分布式预训练数据并行
分布式预训练中的数据并行是使用广泛且加速性能良好的并行方法。各个数据切片能完全解耦,只需在每个 minibatch 结束时进行梯度的 allreduce。数据并行分为中心化方式(如 pytorch 里的 DataParallel)和无中心化方式(如 pytorch 里的 DistributedDataParallel)。这两种方式最大的区别在于 gradient 和 reduce 计算过程。DataParallel 需在 forward 之后把所有输出 gather 到 0 号卡上,计算完 loss 之后再 scatter 到各个设备上,然后做 backward 独立计算 gradient,最后搜集 gradient 到 0 号卡,forward 和 backward 间需插入一次通信。DistributedDataParallel 则是每张卡独立做 forward 和 backward,然后对各卡的 gradient 做 allreduce,forward 和 backward 间无需通信。此外,ZeRO 的出发点是优化数据并行中的显存占用,因为在数据并行中,每个 device 上都有完整的权重、梯度和优化器状态信息,较为冗余。
2025-03-12
分布式预训练
分布式预训练是指在训练模型时采用的一种方法。 在训练 GPT 时,模型以完全随机的权重开始,随着训练时间的推移,通过从分布中抽样并持续反馈,逐渐学会关于单词、空格和逗号等的知识,预测也越来越一致。观察训练时,可通过损失函数随时间的变化来评估。经过预训练,模型在语言建模中学会强大的通用表示,能有效对任意下游任务进行微调。 此外,还有一些关于初始化权重的灵活方法,如利用非监督式训练方式逐个训练神经层。例如,以受限玻尔兹曼机器(RBM)开始,通过对比发散进行训练,生成隐藏值并模拟训练另一个 RBM,重复此过程形成多层,如有分类需求可添加隐藏单元并微调权重,这种非监督式与监督式的组合也称为半监督式学习。 深度信念网络(DBNs)在标准化 MNIST 字符识别数据库中有出色表现,超越普通神经网络。Yoshua Bengio 等提出深层网络冗余式逐层训练,认为深度机器学习方法在复杂问题上比浅显方法更有效。关于非监督式预训练,利用自动代码取代 RBM 也是一种看法,其关键在于有足够多的显示层,能学习优良的高层数据显示,与传统手动设计特征提取步骤不同。Hinton 与 Bengio 的工作证明了深层神经网络能被训练好的假设是正确的。
2025-03-12
快速帮我补充下大模型的发展时间线和关键节点,以及当前最前沿的新闻
大模型的发展时间线和关键节点如下: 2017 年:发布《Attention Is All You Need》论文。 2018 年: Google 提出 BERT,创新性地采用双向预训练并行获取上下文语义信息及掩码语言建模。 OpenAI 提出 GPT,开创仅使用自回归语言建模作为预训练目标的方式。 2021 年:Meta 提出 Large LAnguage Model Approach(LLAMA),成为首个开源模型。 2022 年 11 月 30 日:ChatGPT 发布,在全球范围内掀起人工智能浪潮。 2022 年 12 月:字节云雀大模型等出现。 2023 年: 国内大模型发展大致分为准备期(国内产学研迅速形成大模型共识)、成长期(数量和质量逐渐增长)、爆发期(开源闭源大模型层出不穷,形成百模大战态势)。 关键进展包括:Meta 开源 Llama2、OpenAI 发布多模态 GPT4V 及 GPT4 Turbo、百川智能开源 Baichuan7B 及 Baichuan2、百度升级文心一言 4.0、清华&智谱 AI 开源 ChatGLM2 及清华开源 ChatGLM3、腾讯发布混元助手等。 当前最前沿的新闻包括:过去半年,国内领军大模型企业实现了大模型代际追赶的奇迹,从 7 月份与 GPT3.5 的 20 分差距,到 11 月份测评时已在总分上超越 GPT3.5。
2025-03-14
AI快速看书的工具吗
以下为关于 AI 快速看书工具的相关内容: 小七姐的 Prompt 喂饭级系列教程小白学习指南(五)中提到,如果想要让 AI 帮助像“樊登读书”或者“得到”这样给您讲书,要做一个叫做“书籍阅读助手”的 Prompt,把通用型的读书方法论复刻到 Prompt 里,并根据不同类型的书籍测试来不断优化和迭代。如果让 AI 在“选书”和“督促读书”环节起作用,要做一个叫做“催我读书”的 Prompt,重点研究如何选出适合的书以及实现 Prompt 的激励效果和生成读书笔记等。如果更侧重读完书后的知识内化部分,要重点研究读书的效率和信息转化问题,注重结构化信息能力和有效的记忆存储与调取。 周鸿祎免费课 AI 系列第二讲中提到,为了保持一年至少看 100 本书的能力,要求机器帮忙阅读并做深刻的剖析摘要、逻辑分析。AI 时代,看书的工具也要跟着变化。同时还提到 360AI 浏览器背后有 5 个场景模型,通过多个专业模型进行协作,在合适的场景里发挥长处。 他山之石|如何防止 AI 取代人类思考一切中未提及 AI 快速看书工具的相关内容。
2025-03-13
如何在20天内快速学习AI技术,并找到工作
以下是在 20 天内快速学习 AI 技术并找到工作的一些建议: 1. 基础知识学习: 了解人工智能、机器学习、深度学习的定义及其之间的关系。 简要回顾 AI 的发展历程和重要里程碑。 熟悉统计学基础,如均值、中位数、方差等统计概念。 掌握线性代数基本概念,如向量、矩阵。 学习基础的概率论知识,如条件概率、贝叶斯定理。 2. 算法和模型: 学习监督学习中的常用算法,如线性回归、决策树、支持向量机(SVM)。 熟悉无监督学习中的聚类、降维等算法。 了解强化学习的基本概念。 3. 评估和调优: 学会如何评估模型性能,包括交叉验证、精确度、召回率等。 掌握使用网格搜索等技术优化模型参数。 4. 神经网络基础: 理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 5. 实践操作: 像案例中的二师兄一样,通过实际操作和练习来巩固所学知识,例如使用相关工具进行炼丹。 参与社群交流和项目实践,如加入 Prompt battle 社群,尝试用 GPT 和 SD 制作图文故事绘本、小说推文等项目。 需要注意的是,20 天的时间较为紧张,要保持高强度的学习和实践,同时不断总结和反思,提升自己的能力,以增加找到工作的机会。
2025-03-11
推荐一个可以快速搭建的高级个人智能体
以下为您推荐一个可以快速搭建的高级个人智能体: 五津的DeepSeek+扣子:输入人设等信息创建智能体,放上创建的工作流。配置完成后可测试,但工作流中【所有视频片段拼接】节点的api_token不能直接发布,可作为工作流输入让用户购买后使用。 阿里云百炼平台的Deepseek R1模型:无需部署直接使用,有丰富的模型广场和大量免费额度,使用需解锁和授权,实名认证后可通过模型广场的API调用示例连接Chat Box,新建智能体应用可选择模型并调整参数,还能开启互联网搜索。 小众打卡地智能体:输入旅游目的地城市可推荐3个小众打卡地小红书类文案及配图,其搭建思路包括录入小红书文案参考知识库、通过文本模型组成搜索词搜索并提取相关url、滤除部分网站、提取小众地点输出及图片搜索等。
2025-03-11
AI快速总结视频
以下是关于 AI 快速总结视频的相关内容: 除聊天内容外,AI 还能总结各种文章(不超过 2 万字),可全选复制全文发给 GPTs 进行总结,GPT4 能识别重点内容。 对于 B 站视频,若视频有字幕,可通过安装油猴脚本获取字幕。安装后刷新浏览器,点击字幕会出现“下载”按钮,可选择多种字幕格式。获取字幕后全选复制发送给 GPTs 即可实现总结。 此外,NVIDIA AI Blueprint 能快速总结数小时视频的关键事件和对话,适用于多种场景,并为开发者提供构建视频理解和摘要功能的框架。
2025-03-10
利用AI,快速提取信息的核心内容
以下是关于利用 AI 快速提取信息核心内容的相关介绍: 伊登: 工作流程: 输入新闻链接,系统自动提取核心内容。 利用添加的网页图片链接提取插件获取网页图片,以 1ai.net 资讯为例,提取主要图片。 对图片进行格式转换。 使用链接读取节点提取文字内容。 接上大模型节点重写新闻为口播稿子,可使用 DeepseekR1 模型,也可在提示词中加入个性化台词。 通义千问: Qwen2.5VL 特色文档解析:设计了更全面的文档解析格式,能精准识别文本和提取文档元素位置信息,还原版面布局,可对多种场景进行鲁棒的文档解析。 增强的视频理解:支持最长 1 小时视频理解,具备秒级事件定位能力,能对视频不同时间段进行要点总结。 能够操作电脑和手机的视觉 Agent:利用内在能力执行任务,为创建视觉代理提供参考。 生成式 AI Studio: 生成式人工智能:能够生成新的、未曾存在的多模态内容,包括文本、图像、音频、视频等。 应用场景:文档摘要、信息提取、代码生成、营销活动创建、虚拟协助、呼叫中心机器人等。 工作方式:通过从大量现有内容中学习进行训练,分为训练阶段和应用阶段,应用阶段基础模型可用于生成内容和解决一般性问题,也可针对特定领域进一步训练。 Google Cloud 的工具:包括 Vertex AI 端到端机器学习开发平台、Generative AI Studio 工具、Model Garden 平台。
2025-03-10
作为产品经理,如何完成生产级的提示词调优,保证ai功能的上线效果
作为产品经理,完成生产级的提示词调优以保证 AI 功能上线效果可参考以下内容: 1. 明确与大模型对话产品的提示词不同。对于大模型 API,要利用插件预先获取的网页内容变量、提示词和 API 请求参数,拼搭出完整的 API 提示请求,精确引导 API 返回想要的生成结果。 2. 根据 BigModel 官网给出的请求示例,在请求中传递 Model 类型、系统提示词、用户提示词、top_p、temperature 等关键参数。 3. 构建相应的 API 请求内容: 设定系统提示词,定义基础任务。 设定用户提示词,提供具体任务数据,并要求大模型按 JSON 格式返回生成结果。需注意为确保大模型能有效进行内容总结,提示词中使用${}语法动态引用插件获取的网页数据(如标题、描述、正文等),在实际发送 API 请求时,这些变量会被替换为真实的网页内容。 4. 最后,根据文本总结类任务的通常经验与实际调试情况,设定其他 API 所需关键参数。如果缺少参数设定的经验,可以先询问 AI 文本总结类的模型 API 请求,temperature 设定多少合适,再逐步调试效果。 此外,在星流一站式 AI 设计工具中: 1. 提示词用于描绘想生成的画面,支持中英文输入。不同基础模型对输入语言有不同要求。 2. 写好提示词要做到内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。还可调整负面提示词,利用“加权重”功能让 AI 明白重点内容,使用预设词组、辅助功能(如翻译、删除所有提示词、会员加速等)优化提示词。启用提示词优化后,能帮您扩展提示词,更生动地描述画面内容。
2025-03-11
AI生产力 数字劳动力 数字员工
以下是关于 AI 生产力、数字劳动力和数字员工的相关信息: 摊位信息方面: 有摊位主题为“AI 数字员工”,内容为为企业和个人提供数字劳动力,解决重复性、创意性工作难题,体验 demo 包括抖音运营、AI 客服、智能问诊、企业定制员工、定制知识库。 学习路径方面: 结合“一人公司”的愿景,需要大量智能体(数字员工)替我们打工。未来的 AI 数字员工会以大语言模型为大脑,串联所有已有的工具和新造的 AI 工具。 Agent 工程(基础版)如同传统的软件工程学,有迭代的范式,包括梳理流程、“任务”工具化、建立规划、迭代优化。 关于数字员工“进化论”,需要在对 AI 能力基础上对固化流程和让 AI 自主思考作出妥协和平衡。 社区动态方面: BCG 最新报告指出,AI Agents 能让一名员工完成六名分析师的工作,将成为数字员工,帮助企业降低成本、提升效率和客户满意度,预计未来五年市场将快速发展。 月之暗面推出国产多模态模型 Kimi k1.5,全面对标 OpenAI 满血版 o1,在多项基准测试中表现优异,推动了国内 AI 技术的进步。
2025-03-08
哪些AI工具可以生产PPT
以下是一些可以生成 PPT 的 AI 工具: 1. Gamma:在线 PPT 制作网站,可通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式,如 GIF 和视频,网址:https://gamma.app/ 2. 美图 AI PPT:由美图秀秀团队推出,通过输入简单文本描述生成专业 PPT 设计,包含丰富模板库和设计元素,网址:https://www.xdesign.com/ppt/ 3. Mindshow:AI 驱动的 PPT 辅助工具,提供自动布局、图像选择和文本优化等智能设计功能,网址:https://www.mindshow.fun/ 4. 讯飞智文:科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术,提供智能文本生成等功能,网址:https://zhiwen.xfyun.cn/ 5. 爱设计 6. 闪击 7. Process ON 8. WPS AI 希望这些工具能够满足您的需求。
2025-03-07
哪个工具可以生产产品原型
目前有以下一些基于人工智能生成内容的工具(AIGC)可以用于产品原型设计: 1. UIzard:利用 AI 技术生成用户界面,可根据提供的信息快速生成 UI 设计。 2. Figma:基于云的设计工具,提供自动布局和组件库,其社区开发的一些 AI 插件可增强设计流程。 3. Sketch:流行的矢量图形设计工具,插件系统中部分插件利用 AI 技术辅助设计工作,如自动生成设计元素。 4. AdamCAD:通过文字描述即可生成专业级 CAD 图纸并支持 3D 打印,可用于工业零部件、产品外壳设计或快速制作 3D 原型。 随着 AI 技术的不断发展,未来可能会有更多专门针对产品原型设计的 AIGC 工具出现。
2025-03-07
卡片笔记生产AI工具有哪些
以下是一些卡片笔记生产的 AI 工具及相关介绍: 1. 利用 ChatGPT 辅助完成单词卡片制作: 可以生成对应的单词内容,并整理好放入 Excel 文件中。 利用搞定设计批量产图,步骤包括点击右上角三个点、选择批量套版、按照步骤依次点击、保留要替换的部分等。 2. 以 Trae 为代表的自然语言交互式 AI 编程工具:能让程序小白迈出创造的第一步,只要有清晰需求和创意,就能将想法转化为实际产品。 3. 利用 AI 快速总结群聊消息制作笔记卡片: 方法是文字原文+提示词+AI 大模型+小卡片软件。 先将微信聊天内容批量复制,如多选想要复制的内容转发到群里或文件传输助手,收藏并转存为笔记后全选复制。还可使用能让电脑和手机设备剪切板共享的工具。
2025-03-06
上传ppt自动生产思维导图
以下是关于上传 PPT 自动生成思维导图的相关信息: 好用的 AI PPT 工具: Gamma:在线 PPT 制作网站,可通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式,如 GIF 和视频,网址:https://gamma.app/ 美图 AI PPT:由美图秀秀开发团队推出,通过输入简单文本描述生成专业 PPT 设计,包含丰富模板库和设计元素,网址:https://www.xdesign.com/ppt/ Mindshow:AI 驱动的 PPT 辅助工具,提供智能设计功能,如自动布局、图像选择和文本优化等,网址:https://www.mindshow.fun/ 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术优势,提供智能文本生成、语音输入、文档格式化等功能,网址:https://zhiwen.xfyun.cn/ 使用 Process ON 生成思维导图的思路和步骤: 网址:https://www.processon.com/ 输入大纲和要点: 导入大纲和要点: 手动复制,相对耗时。 导入方式: 复制最终大纲内容到本地 txt 文件,将后缀改为.md(若看不见后缀,自行搜索开启)。 打开 Xmind 软件,将 md 文件导入 Xmind 文件。 在 Process ON 导入 Xmind 文件。 输入主题自动生成大纲和要求:新增思维导图,输入主题,点击“AI 帮我创作”。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版再点击下载。若喜欢用 Process ON 且无会员,可在某宝买一天会员。 此外,Chat GPT 有多种应用,包括内容生成、聊天机器人、问答系统、文本摘要、机器翻译、群聊总结、代码生成、教育、浏览器插件、PDF 对话等,也能用于 PPT 生成。生成脑图的网址:https://xmind.ai/editor/
2025-03-06