Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

一个可以总结文章的AI应用是怎么训练出来的?

Answer

一个可以总结文章的 AI 应用通常通过以下方式训练:

  1. 数据准备:收集大量的文本数据,包括各种类型和主题的文章。
  2. 模型选择:使用适合自然语言处理任务的大型语言模型,如 OpenAI 的 GPT 系列。
  3. 导入相关库和加载 API 密钥:例如导入 OpenAI 并加载 API 密钥。
  4. 设计提示:制定明确的提示,如要求从电子商务网站的产品评论中生成简短摘要。
  5. 针对不同需求训练:
    • 文字总结:对一般性的文字进行总结。
    • 针对某种信息总结:例如特定领域或特定类型的信息。
    • 尝试“提取”而不是“总结”:更侧重于关键信息的提取。
    • 针对多项信息总结:处理多个相关的文本信息。
  6. 应用拓展:不仅可以总结文章,还能总结群聊消息、B站视频等。对于 B 站视频,通过获取字幕并发送给 AI 来实现总结。
  7. 与 API 配合:通过 OpenAI API 等获取有效密钥,并结合示例代码进行开发和优化。
Content generated by AI large model, please carefully verify (powered by aily)

References

4.总结类应用

在当今的世界中,有如此多的文本存在,几乎没有人有足够的时间阅读我们希望有时间阅读的所有文本。因此,我看到大型语言模型最令人兴奋的应用之一是使用它来概括文本。这是我看到多个团队正在将其内置到多个软件应用程序中的事情。你可以在Chat GPT网络界面中完成这项工作。我经常会这样做来总结文章,这样我就可以阅读更多文章的内容,而不仅仅是以前能读的那么少。如果你想以更加机械化的方式实现这一点,你可以在这节课中看到如何做到这一点。所以,让我们深入了解代码,看看你如何使用它来总结文本。因此,让我们从与之前相同的入门代码开始,导入OpenAI,加载API密钥,以及这个getCompletion助手函数。我将使用一个运行示例,即对该产品评论进行摘要的任务。我得到了这个熊猫毛绒玩具作为女儿生日礼物,她非常喜欢并且带它到处走等等。如果你正在构建一个电子商务网站并且有大量的评论,那么一个可以总结冗长评论的工具可以让你很快地浏览更多的评论,以更好地了解所有客户的想法。因此,这是一个产生摘要的提示。你的任务是从电子商务网站的产品评论中生成一个简短的摘要,并在30个单词以内对评论进行总结等等。[heading2]4.1文字总结[content][heading2]4.2针对某种信息总结[content][heading2]4.3尝试“提取”而不是“总结”[content][heading2]4.4针对多项信息总结[content]

夙愿:AI 快速总结群聊消息

除了聊天内容之外,我们还能让AI总结整理各种文章(文章不超过2w字,否则就超出token了)例如,我复制了我的一篇文章给它总结:打开后直接全选复制全文,然后粘贴发送给GPTs,它就开始总结了,很方便,GPT4它能识别出哪些部分属于重点内容。[heading3]2、B站视频[content]你可能会疑惑,GPT不是无法处理视频内容吗,这是怎么做到的?答案是视频字幕。我用这个视频举例:https://www.bilibili.com/video/BV1VL411U7MU/?spm_id_from=333.337.search-card.all.click&vd_source=e05ea46c768d112737bc19e721da8967打开这个视频,如果你能在视频栏下面有一个字幕按钮,说明这个视频作者已经上传了字幕或者后台适配了AI字幕。那我们把这些字幕弄下来,再发给AI执行内容总结任务,是不是就达到了总结视频的效果?是的,目前大部分用AI总结视频的工具/插件/应用都是这么干的。那接下来的卡点就是,怎么把字幕文字内容给提取出来,用语音转文字?不,效率太低了。像这种有字幕的视频,我们可以装一个油猴脚本:[Bilibili CC字幕工具](https://greasyfork.org/zh-CN/scripts/378513-bilibili-cc%E5%AD%97%E5%B9%95%E5%B7%A5%E5%85%B7)安装之后,刷新浏览器,点击字幕,你会看到多出一个“下载”按钮点击下载按钮,会弹出下面这个窗口,你可以选择多种字幕格式,带时间的或者不带时间的:接下来,还是老办法,将字文字内容全选复制发送给GPTs即可。当然,总结完视频内容之后你继续向AI提问更多细节内容或者与它探讨视频内容。

写给不会代码的你:20分钟上手 Python + AI

在和AI配合写代码的过程中,如果你遇到了Bug,类似:你可以直接将问题报给ChatGPT,就像我这样然后再把ChatGPT给出来的结果粘贴回去(如果还不行,就反复调试)[heading2]使用未来百货[content]OpenAI API,YYDS[heading3]完成一个AI应用[content]有这样一类bot:你把公众号文章丢给他,他就会自动总结这篇文章。怎么做的呢?答:通过OpenAI API(或者其他家的API),打开后,点击「Create new secret key」获取https://platform.openai.com/api-keys请注意:通常,你需要绑定支付方式,才可以获取有效Key[heading3]获得API使用的示例代码[content]以OpenAI API为例,你可以在Playground这个页面获取API调用的示例代码:https://platform.openai.com/playground这里,我将SYSTEM定义成了缩略信息助手,而在USER中输入了文章内容运行后,结果很令人满意点击右上方View Code,获取生成这一内容的示例代码[heading3]再问ChatGPT[content]顺着之前的对话,让ChatGPT帮我们继续写代码吧!...继续前文的对话...大聪明帮我升级一下这个代码,完整重写:你不需要输出这篇文章的原始内容,而是通过OpenAI的API,生成这篇文章的缩略信息,并打印你假定我的OpenAI API key是(我这是一个假的Key):Craze-Thursday-Vivo-50这是示例代码:

Others are asking
有哪些自动生成宣传海报的ai
以下是一些自动生成宣传海报的 AI 工具及相关方法: 1. 某些活动中开发的 AI 可以在提供配方的同时自动生成海报,例如鸡尾酒配方搭配生成的私人订制海报。 2. 国内的 AIGC 绘图平台,如无界 AI 可以用于快速制作海报底图并完成主题海报排版。大致流程如下: 确定海报主题后,借助 ChatGPT 等文本类 AI 工具协助完成文案。 选择想要完成的风格意向,根据文案和风格灵活调整画面布局。 使用无界 AI 输入关键词,生成并挑选一张满意的海报底图。 将上述素材进行合理排版,得到成品。排版同样可以参考 AIGC 海报成果。 3. 在无界 AI 中,还可以通过图生图的方式生成海报。首先准备一张真实照片作为样图,然后找到图生图功能,添加关键词,如果要改变画面内容,可调整相关参数和增加修饰词。
2025-03-03
AI 生成海报有哪些好用的工具
以下是一些好用的 AI 生成海报工具: 1. Canva(可画):https://www.canva.cn/ 这是一个非常受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作即可创建海报,其 AI 功能可帮助选择合适的颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ 稿定智能设计工具采用先进的人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ 这是一个简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,其智能建议功能可帮助快速找到合适的设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ 通过简单拖放界面,用户可快速创建演示文稿、社交媒体帖子等视觉内容,还集成丰富模板库和自动图像编辑功能,如智能布局和文字优化,大大简化设计流程。 另外,使用无界 AI 也可以快速生成海报。网址:https://www.wujieai.cc/ 其做图逻辑类似于 SD,优势在于国内网络即可稳定使用,有免费出图点数,支持中文关键词输入,无需额外下载风格模型,可直接取用。 用 AI 快速做一张满意的海报,大致流程如下: 1. 需求场景:例如想在社交平台发布内容时,为避免网上图片质量差、易撞图等问题,可自己制作。 2. 大致流程: 主题与文案:确定海报主题后,可借助 ChatGPT 等文本类 AI 工具协助完成文案。 风格与布局:选择想要完成的风格意向,背景不一定是空白的,可根据文案和风格灵活调整画面布局。 生成与筛选:使用无界 AI,输入关键词,生成并挑选一张满意的海报底图。 配文与排版:将上述素材进行合理排版,得到成品。排版同样可以参考 AIGC 海报成果。 在使用无界 AI 生成海报时,例如制作朋友圈 po 图,画幅比例可选择 1:1,使用皮克斯卡通模型,关键词类别可包括场景、氛围、人物、造型、情绪、道具、构图、画面等方面。
2025-03-03
ai大模型有哪些常用参数
以下是关于 AI 大模型常用参数的相关内容: 1. 架构方面: Encoderonly:适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 Encoderdecoder:结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,用例包括翻译和摘要,代表是谷歌的 T5。 Decoderonly:更擅长自然语言生成任务,众多 AI 助手采用此结构,如 ChatGPT。 2. 规模方面: 预训练数据量大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别数据进行预训练。 参数众多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。参数指的是神经网络的输入权重和输出阈值的总和。假定一个神经元有 9 个输入权重和 1 个输出阈值,就有 10 个参数。当有 100 亿个这样的神经元时,就形成千亿级参数的大模型。 3. 模型部署方面: 在 LLM 中,Token 是输入的基本单元。由于大模型参数多,如 GPT2 有 1.5B 参数,每个参数用 float32 表示需 6GB 内存,更先进的模型如 LLAMA 有 65B 参数则需 260G 内存(还不考虑词汇表)。因此实际部署时会进行模型压缩。 在训练 LLM 中,CPU 与内存之间的传输速度往往是系统瓶颈,核心数反而不是大问题,减小内存使用是首要优化点。使用内存占用更小的数据类型是直接方式,如 16 位浮点数可将内存使用减倍。目前有几种相互竞争的 16 位标准,英伟达在其最新一代硬件中引入了对 bfloat16 的支持。
2025-03-03
帮我 找下AI排版的应用
以下是一些常见的 AI 排版应用: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,可改进文档整体风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,能改进文本清晰度和流畅性,保持原意。 3. Latex:常用于学术论文排版的软件,使用标记语言描述文档格式,有许多 AI 辅助的编辑器和插件简化排版过程。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业,保持原始意图。 6. Overleaf:在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择合适的 AI 排版工具取决于您的具体需求,如文档类型、出版标准和个人偏好。对于学术论文,Latex 和 Overleaf 是受欢迎的选择,对于一般文章和商业文档,Grammarly 和 PandaDoc 等工具可能更适用。 此外,在配图方面,AI 能够给出配图的建议。您可以让 AI 分析文章内容,给出配图建议和关键词,然后利用这些信息在免费图库中快速找到合适的无版权图片,这样不仅提高了配图效率,还能避免版权风险。
2025-03-03
openAI的deep research有哪些缺陷
OpenAI 的 Deep Research 存在以下一些缺陷: 1. 具有滞后性,在某些信息上无法做到及时更新。 2. 存在信息混乱的问题,无法完全替代人类的深度思考。
2025-03-03
AI入门和学习路径
对于新手学习 AI,以下是一份详细的学习路径指南: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出自己的作品。 在知识库中有很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,还可以通过以下方式辅助学习: 了解 AI 相关名词解释,如 AGI、AIGC、agent、prompt 等,建议通过与 AI 对话或李继刚老师的课程来理解。 参考经典必读文章,如介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,以及软件 2.0 时代相关内容。 初学者入门推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 查看历史脉络类资料,如整理的 open AI 的发展时间线和万字长文回顾等。
2025-03-03
有没有这样的产品,能够通过输入X主页,获取这个人的历史所有推特的信息分析与总结
目前没有这样合法合规且普遍可用的产品。获取他人的推特信息需要遵循相关平台的规定和法律法规,未经授权获取他人的信息是不被允许的。
2025-02-28
我是一名高校新媒体工作人员,由于文字能力一般,需要能力较强的ai文本工具,用于撰写公文,新闻稿,公众号推文,总结简报等。请推荐至少5个,并进行对比分析
以下为您推荐至少 5 个适用于高校新媒体工作人员的 AI 文本工具,并进行对比分析: Copy.ai: 功能强大,提供丰富的新闻写作模板和功能。 可快速生成新闻标题、摘要、正文等内容,节省写作时间,提高效率。 Writesonic: 专注于写作,提供新闻稿件生成、标题生成、摘要提取等功能。 智能算法能根据用户提供信息生成高质量新闻内容,适合新闻写作和编辑人员。 Jasper AI: 人工智能写作助手,写作质量较高,支持多种语言。 虽主打博客和营销文案,也可用于生成新闻类内容。 Grammarly: 不仅是语法和拼写检查工具,还提供一些排版功能,可改进文档整体风格和流畅性。 QuillBot: AI 驱动的写作和排版工具,能改进文本清晰度和流畅性,同时保持原意。 秘塔写作猫: 是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,还能实时同步翻译。 支持全文改写,一键修改,实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作: 是智能写作助手,能应对多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等。 支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作: 由腾讯 AI Lab 开发,能探索用 AI 技术提升写作者的写作效率和创作体验。 选择工具时,您可根据具体需求(如文档类型、个人偏好等)进行考虑。例如,若主要需求是生成新闻类内容,Copy.ai、Writesonic 和 Jasper AI 可能更适合;若还需兼顾排版和语法检查,Grammarly 和 QuillBot 是不错的选择;若注重中文内容的改写,秘塔写作猫、笔灵 AI 写作和腾讯 Effidit 写作可优先考虑。
2025-02-26
帮我总结现在主流的AI大模型,以及各自优劣
以下是对主流 AI 大模型的总结及各自优劣的相关内容: 主流 AI 大模型: 1. 谷歌的 BERT 模型:可用于语义理解,如上下文理解、情感分析、文本分类等,但不太擅长文本生成。 相关技术概念: 1. AI:即人工智能。 2. 机器学习:电脑通过找规律进行学习,包括监督学习、无监督学习、强化学习。 监督学习:使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:参照人脑,具有神经网络和神经元,因层数多被称为深度。神经网络可用于监督学习、无监督学习、强化学习。 4. 生成式 AI:能够生成文本、图片、音频、视频等内容形式。 5. LLM(大语言模型):对于生成式 AI,生成图像的扩散模型不属于大语言模型。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,其完全基于自注意力机制处理序列数据,无需依赖循环神经网络或卷积神经网络。
2025-02-26
什么工具可以帮忙总结课程视频的知识点
以下是一些可以帮忙总结课程视频知识点的工具: 1. 剪映:只需提供文案,能够自动配图配音,帮助优化线上课程,为微课总结内容和知识点。 2. BibiGPT:支持小红书、B 站等网站视频的归纳总结,还可以提问互动,答案会附上对应的视频节点,是融合课程备课的好助手,网址为 https://bibigpt.co/ 。 3. 飞书妙记:可以先从视频网站上提取出视频的音频部分,利用其免费语音转文字功能将音频转换成文本,下载文本后上传至其他工具进行总结。 此外,可汗学院出品的 AI Tutor Khanmigo 也具有一定的辅助作用,它可以为学生总结视频内容,并以苏格拉底式教学法引导学生思考和学习。
2025-02-26
文献总结
利用 AI 写课题的步骤和建议如下: 1. 确定课题主题:明确研究兴趣和目标,选择具有研究价值和创新性的主题。 2. 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具搜集相关研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具提取关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成包括引言、文献综述、方法论、结果和讨论等部分的大纲。 5. 撰写文献综述:借助 AI 工具确保内容准确完整。 6. 构建方法论:根据研究需求,采用 AI 建议的方法和技术设计研究方法。 7. 数据分析:若课题涉及数据收集和分析,使用 AI 数据分析工具处理和解释数据。 8. 撰写和编辑:利用 AI 写作工具撰写课题各部分,并检查语法和风格。 9. 生成参考文献:使用 AI 文献管理工具生成正确格式的参考文献。 10. 审阅和修改:利用 AI 审阅工具检查课题的逻辑性和一致性,并根据反馈修改。 11. 提交前的检查:使用 AI 抄袭检测工具确保课题的原创性,并进行最后的格式调整。 学术场景中数据处理方面,以智谱 GLM 系列模型为代表的大模型技术正革新学术研究方式。面对海量论文资料,其能快速总结论文内容、进行精准翻译,通用性强,可适应不同学科和复杂文本,提炼核心观点,降低知识获取难度。在处理论文时,海量文献通常以多种格式存储,需转换为可供模型解析的文本格式,可借助平台工具完成文件内容提取。还可将文件内容自动化提取结合大模型进行批量分析或任务处理,适用于文档总结、信息提取等场景。 对抗性提示的参考文献包括: 1. 2. 3. 4. 5. 6. 7. 8. 请注意,AI 工具可作为辅助,但不能完全替代研究者的专业判断和创造性思维,使用时应保持批判性思维,确保研究质量和学术诚信。
2025-02-25
推荐一个能读取视频并总结出视频内容的ai
以下为您推荐能读取视频并总结视频内容的 AI 工具及方法: 1. GPT 系列: 对于 B 站等有字幕的视频,若视频栏下有字幕按钮,可通过安装油猴脚本获取字幕,将字幕复制发送给 GPT 进行总结。 有开发者利用 OpenAI 升级的 API 对足球比赛视频进行全 AI 解说,具体步骤包括提取视频帧(如使用 OpenCV 初始化视频文件读取,遍历视频逐帧处理并编码为 base64 格式)、构建描述提示(创建结构化提示,定义 GPT 请求参数)、发送 GPT 请求。 2. 视频内容分析模型:可在上传视频后生成视频内容的文本描述。 您可以根据实际需求选择使用。
2025-02-24
怎么利用大模型训练自己的机器人
利用大模型训练自己的机器人可以参考以下内容: OpenAI 通用人工智能(AGI)的计划显示,在互联网上所有的图像和视频数据上训练一个与人类大脑大小相当的 AI 模型,将足以处理复杂的机器人学任务。常识推理隐藏在视频和文本数据中,专注于文本的 GPT4 在常识推理上表现出色。Google 最近的例子展示了机器人学能力可从大型视觉/语言模型中学习,在语言和视觉训练基础上,只需最少的机器人学数据,视觉和文本任务的知识就能转移到机器人学任务上。特斯拉训练的“Optimus”通过人类示范学习抓取物体,若人类示范是先进机器人学性能所需的一切,在互联网上所有视频上训练的大模型肯定能实现惊人的机器人学性能。 梦飞提供了在自己的电脑上部署 COW 微信机器人项目的教程,程序在本地运行,若关掉窗口进程结束,想持续使用需保持窗口打开和运行。以 Windows10 系统为例,注册大模型可参考百炼首页:https://bailian.console.aliyun.com/ ,需更改"model"和添加"dashscope_api_key",获取 key 可参考视频教程。 张梦飞提供了从 LLM 大语言模型、知识库到微信机器人的全本地部署教程,部署大语言模型包括下载并安装 Ollama,根据电脑系统下载:https://ollama.com/download ,安装完成后将下方地址复制进浏览器中确认安装完成:http://127.0.0.1:11434/ 。下载 qwen2:0.5b 模型,Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑通过 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”,复制命令行粘贴回车等待下载完成。
2025-03-03
如何定制化训练ai模型?
定制化训练 AI 模型通常包括以下步骤和要点: 微调(Finetuning): 微调可以让您从 API 提供的模型中获得更多收益,例如获得比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省 Token、实现更低的延迟请求。 GPT3 已在大量文本上预训练,小样本学习时它能凭直觉判断任务并生成合理结果,微调通过训练更多示例改进小样本学习,让您在大量任务中取得更好结果。对模型进行微调后,不再需要在提示中提供示例,节省成本并降低延迟。 微调的高层次步骤包括准备和上传训练数据、训练新的微调模型、使用您的微调模型。 哪些模型可以微调: 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。 安装: 建议使用 OpenAI 命令行界面。要安装,运行(以下说明适用于 0.9.4 及更高版本。此外,OpenAI CLI 需要 python 3。) 通过将相关行添加到 shell 初始化脚本(例如.bashrc、zshrc 等)或在微调命令之前的命令行中运行来设置环境变量。 选择 AI 模型: 通过选择您喜欢的 AI 模型,Cursor Chat 将使用该模型生成响应。您可以通过按 Ctrl/⌘/在模型之间切换。 默认情况下,Cursor Chat 使用 OpenAI 的 GPT4 作为其 AI 模型(具体来说,gpt4 标签指向我们的 GPT4Turbo 实例)。 您为 Chat 选择的 AI 模型将保存以供将来使用,不必每次打开 Cursor Chat 时都更改。 模型概述: OpenAI API 由具有不同功能和价位的多种模型提供支持,还可以通过微调针对特定用例对原始基本模型进行有限的定制。 常见模型包括 GPT4、GPT3.5、DALL·E、Whisper、Embeddings、Codex、Moderation、GPT3 等,各自具有不同的功能和应用场景。
2025-03-03
LoRA训练
LoRA 训练主要包括以下步骤: 1. 创建数据集: 进入厚德云模型训练数据集,点击右上角创建数据集。 输入数据集名称。 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片后续使用自动打标功能,或者一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,预览数据集的图片以及对应的标签。 2. Lora 训练: 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 触发词可有可无,取决于数据集是否有触发词,模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 然后等待训练,会显示预览时间和进度条。训练完成的会显示出每一轮的预览图。 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 此外,郑敏轩提到的 Flux 的 Lora 训练还需要: 1. 下载相关模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 安装虚拟环境:下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手点击“Y”,然后等待 1 2 小时的漫长下载过程,下好后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 在 AI 梦一丹一世界(下)2025 年 2 月 8 日副本中提到,参加相关比赛须用摩搭平台和麦橘超然模型作为底膜训练 Lora,提交训练好的 Lora 及用其生成的六张以上高质量、展现完整世界观的作品。作图分三步,一是明确创作主题即锚点,根据 Lora 风格确定创作方向;二是确定主体,联想主体的角色设定;三是增加叙事感,让画面有一到两个及以上角色,制造反差和联想。好看的图片的构成因素包括构图、色彩以及光影,构图包括景别(远景、全景、中景、近景、特写)和拍摄视角(俯视、平视、仰视,正面、侧面、背面),构图要素有主体、陪体、前景、背景、点线面,构图方式有点中心构图、九宫格构图、三分法构图、对称构图、对角线构图、曲线构图、框架构图、三角形构图等。在 AI 绘图中,推荐中景及以上景别,全身景别可能需开 AD 跳以确保作图质量。
2025-03-02
deepseek和chatgtp的训练方式有什么不同
DeepSeek R1 的训练方式采用强化学习(RL),跳过了监督微调(SFT)阶段。而 ChatGPT 采用预训练+监督微调(SFT)的方式。 ChatGPT 这种方式适用于知识性问答。DeepSeek R1 能自发进行复杂推理,自我回溯、多角度思考,解题过程更完整,但其计算成本更高。在日常查询方面,GPT4o 更快、更适合简单咨询。DeepSeek R1 则在高难度数学和编程问题上更具优势,且更加透明,研究细节可复现,权重可下载。
2025-02-27
大模型训练全流程
大模型训练通常包括以下全流程: 1. 收集海量数据:如同教导孩子成为博学多才之人,要让其阅读大量书籍、观看纪录片、与人交谈,对于 AI 模型,就是收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。 2. 预处理数据:就像为孩子整理学习资料,AI 研究人员需要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、将文本分割成易于处理的片段。 3. 设计模型架构:如同为孩子设计学习计划,研究人员要设计 AI 模型的“大脑”结构,通常是一个复杂的神经网络,如 Transformer 架构,这种架构擅长处理序列数据(如文本)。 4. 训练模型:如同孩子开始学习,AI 模型开始“阅读”提供的数据,通过反复阅读尝试预测句子中的下一个词,从而逐渐学会理解和生成人类语言。 此外,大模型训练还可以类比为“上学参加工作”: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 一般训练还会有以下步骤: 1. 无监督学习:模型通过分析大量文本数据,学习语言基本结构和常识,具备文本补齐能力,将人类知识向量化以获得基础语言模型。 2. 清洗出好的数据。 3. 指令微调:训练模型理解并执行具体指令,如翻译文本以回答问题,输入内容包括特定格式的指令、输入和输出。 4. 对齐过程:通过引入人类评价标准和处理特定格式要求,优化模型输出以符合人类期望,包括处理文化、道德等细节。 虽然各公司具体实现细节可能是机密,但这些步骤共同构成了构建高效、实用大语言模型的过程,最终产生的模型可能含有高达 1750 亿个参数。在开源与闭源模型的开发策略中,开源模型依赖社区贡献,闭源模型由企业投入大量资源开发,两种策略都旨在推动大语言模型技术发展和应用。
2025-02-26
目前市面上有哪些ai可以实现免费创建并训练大模型,以满足个人需求
目前市面上有以下一些可以免费创建并训练大模型以满足个人需求的途径: 1. 免费云服务器: 阿里、腾讯对新用户提供免费试用服务器,如腾讯云的。服务器系统配置可选择【宝塔】系统。 2. 免费大模型接口: 阿里的接口,创建 API key 即可。 也有免费接口,但国内大模型通常限制一定免费额度的 Token。 谷歌的来学习如何给服务器科学上网及使用海外版 Coze。 此外,关于大模型的相关知识: 1. 架构方面: encoderonly 模型通常适用于自然语言理解任务,如分类和情感分析,最知名的代表模型是 BERT。 encoderdecoder 模型同时结合了 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是谷歌的 T5。 decoderonly 模型更擅长自然语言生成任务,目前熟知的众多 AI 助手基本都来自此类架构。 2. 大模型的特点: 预训练数据非常大,往往来自于互联网上,包括论文、代码、公开网页等,一般用 TB 级别的数据进行预训练。 参数非常多,Open 在 2020 年发布的 GPT3 就已经达到 170B 的参数。 在技术原理方面: 1. 生成式 AI 生成的内容叫做 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习。监督学习有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归。无监督学习学习的数据没有标签,算法自主发现规律,经典任务包括聚类。强化学习从反馈里学习,最大化奖励或最小化损失。深度学习参照人脑有神经网络和神经元,神经网络可用于多种学习方式。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。LLM 即大语言模型,生成图像的扩散模型不是大语言模型,对于大语言模型,生成只是其中一个处理任务。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,而不需要依赖于循环神经网络或卷积神经网络。
2025-02-26
如何能將文章直接轉化為用於小紅書的圖文??
要将文章直接转化为用于小红书的图文,您可以参考以下步骤: 1. 详细参数配置: 整体结构图 开始模块、Get_Video 模块、LinkReaderPlugin 模块、标题大模型、内容大模型、图片 Prompt 大模型、文生图 ImageToolPro 等模块的参数配置。 2. 标题创作: 产出 3 个标题,含适当的 emoji 表情,采用二极管标题法,善于使用吸引人的特点,从爆款关键词列表中随机选 1 2 个,了解小红书平台的标题特性,懂得创作规则。 3. 正文写作: 作为小红书爆款写作专家,产出 1 篇正文,每段含适当 emoji 表情,文末有合适的 tag 标签。注意写作风格、开篇方法、文本结构、互动引导方法、一些小技巧、爆炸词等,文章每句话尽量口语化、简短,200 字左右。 4. 图片 Prompt 配置: 将文章内容转成 AI 更容易理解的绘画 Prompt。 5. 应用发布: 包括工作流发布和应用发布,可点击右上角发布,授权的应用能发布或内嵌到不同应用中。 6. 学习交流: 可加入画小二微信交流群,关注画小二微信公众号,若无法掌握技能,还有 41 分钟的手把手视频会员教程。 请注意,本文档教程配套项目文档,版权归画小二所有,禁止商用。
2025-03-01
提示词相关文章
以下是一些与提示词相关的文章: 云中江树: 小七姐:
2025-02-27
文章风格提示词逆向工程
文章风格提示词逆向工程是指通过分析和检查现有文章,了解其设计和创作方式,从而生成更优提示词的过程。 利用 ChatGPT 进行逆向工程的步骤包括: 1. 利用 ChatGPT 对指定文章进行改写。 2. 对改写后的版本进行原创性检验。 3. 根据检验结果,指导 ChatGPT 进行进一步优化。 4. 重复上述过程,直至满足高度原创的标准。 5. 采用逆向工程的方法,梳理 ChatGPT 的改写策略。 6. 整合这些策略,形成一套提高文章原创性的高效提示词。 在进行逆向提示词工程时,需要注意以下几点: 1. 检测原创度的大多是机器,不能仅凭肉眼判断改写效果。 2. 对相同提示词多次改写或从元提示词中挑选部分深入改写,可有效提升文章质量。 3. 逆向提示词要提炼文章的语气、写作风格、用词、句式等各种写作要素,包括修辞手法、文章布局、论点和证据、段落长度和句子节奏等多个维度。 4. 不同领域的逆向分析需要相应的专业知识,如文学作品和编程领域。 这种逆向工程方法在营销、商业分析、心理学等领域均适用,能够在智能写作等领域持续产生可商用的提示词。但也需注意,掌握逆向分析技术可能导致一些 AI 创业公司被替代。
2025-02-25
知识库中智能体相关的文章
以下是为您整理的关于智能体的相关内容: 在“01通往AGI之路知识库使用指南”中: 提到智能体由大语言模型衍生而来,因提示词不太可控才有进阶。 讲述了智能体进阶案例拆解,推荐景淮老师的相关成果。 阐述扣子、千帆百炼属于智能体范畴,扣子更偏ToC应用,所以有专门讲解扣子相关内容。 指出学习AI agent可能较痛苦,建议先吃透prompt再看相关内容。 在“这可能是讲Coze的知识库最通俗易懂的文章了”中: 提到读完文章您会收获更好地使用Coze等AI Agent平台中的知识库组件,打造更加强大的智能体。 预告了关于AI时代编程基础系列,包括数据库、知识库、变量、JSON、API、操作系统与服务器、Docker等内容。 在“元子:WayToAGI知识库究竟咋用?”中: 通识篇中有现有常见AI工具小白扫盲的介绍,包括相关文章和视频链接,适用于对AI没有太多概念的纯纯小白,能帮助其快速感受当下AI工具的力量。 通识篇中还有AI常见名词、缩写解释,提供了相关文章链接,适用于看不懂“黑话”和诸多缩写的小白。
2025-02-23
推荐些AI文章
以下是为您推荐的一些 AI 文章: 1. 《新手如何学习 AI?》 了解 AI 基本概念:建议阅读「」部分,熟悉术语和基础概念,包括主要分支及联系。 浏览入门文章,了解历史、应用和发展趋势。 开始 AI 学习之旅:在「」中找到为初学者设计的课程,特别推荐李宏毅老师的课程。还可通过在线教育平台按自己节奏学习并获取证书。 选择感兴趣的模块深入学习:AI 领域广泛,可根据兴趣选择特定模块,如图像、音乐、视频等,并掌握提示词技巧。 实践和尝试:理论学习后通过实践巩固知识,使用各种产品创作,知识库有实践作品和文章分享。 体验 AI 产品:与 ChatGPT、Kimi Chat、智谱、文心一言等互动,了解工作原理和交互方式。 2. 《01通往 AGI 之路知识库使用指南》 包括关于 AI 知识库使用及 AIPO 活动的介绍,AIPO 线下活动及 AI 相关探讨,way to AGI 社区活动与知识库介绍,AI 知识库及学习路径的介绍,时代杂志评选的领军人物,AI 相关名词解释,知识库的信息来源,社区共创项目,学习路径,经典必读文章,初学者入门推荐,历史脉络类资料等内容。 3. 《【AI 学习笔记】小白如何理解技术原理与建立框架(通俗易懂内容推荐)》 作者 Allen 旨在帮助入门同学建立框架,推荐了两个有重大帮助的视频: 由」,50 分钟速通 AI 大模型原理。 某知识 up 主老石谈芯专访安克创新 CEO 阳萌的视频「」,一共两期,内容都值得观看。
2025-02-21
英文文章重点总结的AI
以下是为您总结的相关英文文章重点: 1. 每周一更新的 AIGC 领域内容,包括谷歌开源的新语言模型 Gemma 2B 和 Gemma 7B,采用与 Gemini 相同技术且质量更高;Stability AI 发布的新图像生成模型 Stable Diffusion 3,可生成图像和视频;Groq 公司利用新型硬件实现语言模型每秒 500 个 Token 的高速输出,速度比顶级运营商快 18 倍;还介绍了新的 AI 产品如视频风格转换平台 GoEnhance、将 Figma 设计转为 React 组件的插件、用于项目管理的工具 Kraftful 等,以及精选的几篇英文文章,如优化 Stable Diffusion XL 的方法、构建语言模型 Tokenizer 的教程、新模型 Sora 和 LAVE 等的应用。 2. 常见的文章润色 AI 工具包括:Wordvice AI 集校对、改写转述和翻译等功能于一体,基于大型语言模型提供全面的英文论文润色服务;ChatGPT 由 OpenAI 开发,可用于多方面写作辅助;Quillbot 是人工智能文本摘要和改写工具;HyperWrite 是基于 AI 的写作助手和大纲生成器;Wordtune 是 AI 驱动的文本改写和润色工具;Smodin 提供 AI 驱动的论文撰写功能。这些工具涵盖了文章润色的各个环节,科研人员和学生可根据自身需求选择。 3. 除聊天内容外,可让 AI 总结整理各种文章(不超过 2 万字),如复制文章给 GPTs 总结。对于 B 站有字幕的视频,可通过安装油猴脚本获取字幕,将字幕文字内容复制给 GPTs 进行总结,总结完还可继续提问或探讨。
2025-02-18