Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

midjourney 教程

Answer

以下是关于 Midjourney 的一些教程:

  1. 利用一致性 MJ 出海马体写真:
    • 超低学习成本,会用任意手机修图软件即可。
    • 得益于 --cref[image url]和 --cw[0~100],能迅速达成角色一致性目的,无需 Lora。cref 代表 character reference(角色参考),cw 代表 character weight(参考权重),默认为 100,会参考角色的人脸和服装特点。若只想关注人脸,可调低到 0。
    • 风格复制和服装替换,用提示词(prompt)和 --sref[image url]解决。--sref 代表 style reference,权重参数为 --sw[0~1000],默认值 100,越高越接近参考图像的风格。
    • 用 /describe 指令反推海马体的提示词,配合 --sref[海马体图像的 url]复制图像风格。回车前检查提示词,避免出现和 sref 风格差异过大的 prompt,也可增加有用的 prompt。
    • 对最满意的图进行 Upscale,解决“形似而神不似”的问题,即 MJ 直出和原人物在五官等地方的细微差距。
  2. 线稿上色 Midjourney + Stable Diffusion:
    • 用 Midjourney 生成线稿,PS 修正错误,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合提高出图质量和效率。
    • 例如生成可爱猫卡通 IP 角色的线稿,mj 关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background--niji 5--style expressive。
  3. 小白 30min 加入离谱村:
    • 选工具,如 SD 或 Midjourney。
    • 抄 prompt,从教程和导航中找喜欢的风格,摘取提示词。
    • 找 ChatGPT 改写提示词。
    • 把提示词喂给 Midjourney 机器人,初学者可多按 V-U 让其自由修改,先弄出满意的图,如 V1-V4 基于某图修改出 4 张,U1-U4 选定某图细节调整。
Content generated by AI large model, please carefully verify (powered by aily)

References

莱森:利用一致性MJ 出海马体写真的教程来啦

Midjourney cref海马体写真教程来啦!10分钟不到出写真~视频在下面(记得mark看文字笔记)超低学习成本,你只要会用任意手机修图软件...就能解决Midjourney Cref角色一致性直出之后的「形似而神不似」的问题。简而言之,文字笔记:得益于--cref[image url]和--cw[0~100],midjourney能够迅速达成角色一致性的目的而无需Lora。其中,cref代表character reference(角色参考);cw则代表character weight(参考权重),默认为100,会参考角色的人脸和服装特点。如果你只想关注人脸,请调低到0。你不需要对角色原图使用/describe来贴近目标生成角色的形象,因为--cref会帮你完成这件事情。于是,风格复制和服装的替换,则应当用提示词(prompt)和--sref[image url]来解决。顾名思义,--sref代表style reference,权重参数为--sw[0~1000],默认值100,越高越接近参考图像的风格举个例子,现在我们要海马体这张图像,我们先用/describe指令反推海马体的提示词,再配合--sref[海马体图像的url],就可以轻松复制图像风格。在回车之前,检查你的提示词,不要出现和sref风格差异过大的prompt;也可以增加一些你之前学过的有用的prompt。Upscale最满意的那一张。接下来解决大家最关心的「形似而神不似」的问题。其实非常简单,这个问题其实是:MJ直出和原人物在眼睛、眉毛、鼻子等其他地方的大小、间距有一些细微的差距。

教程:线稿上色Midjourney+Stable Diffusion

在学习AI绘画这段时间,发现AI绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如上面是用midjourney生成线稿,PS稍微做一些修正,再用controlnet控制,stable diffusion上色,多套AI组合拳,可以快速生成效果惊艳的图作者:三思先欣赏下作品[heading3]1、线稿产出[content]mj关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background--niji 5--style expressive[heading3]2、ps手动手动重绘错误的地方[content]有些图出来没有阴影容易飘,可以自己画一个出来

元子:小白30min加入离谱村的流水账

1.选个工具SD啊,midjourney啊都可以,作为一个小白,我先用了midjourney作为开始,之后去尝试SD。[1.4入门:AI绘画与视频](https://waytoagi.feishu.cn/wiki/Q5ddwxfkMiVUZBkQXN7cgXf4nOb)[目录:Midjourney相关教程](https://waytoagi.feishu.cn/wiki/VUadwndc5iRJktkzaYPcaLEynZc)各位小白多用搜索,各种教程其实咱文档库里都有,搜索这么用哈:1.“抄”个prompt加入教程和导航里面有很多公布了prompt的图片,找个喜欢的风格,先把提示词先摘出来[出图小技巧](https://waytoagi.feishu.cn/wiki/Ue7owFPMqiqVwwkvu2fc3K0vn8e)我的基础prompt摘自这里的水晶蘑菇,也在宣传片里出镜了哦。1.找ChatGPT一起改写有prompt之后,我只需要替换掉之前的描述,之后的风格描述词留着,然后把我对这只新的村民的描述直接问ChatGPT让他给你慢慢改就好了,巨简单粗暴的对话贴在下面:我其实就是让它给我翻译成中文,然后截取,然后替换成自己的,再让它翻译成英文。1.坐等出图这一步就是把提示词喂给Midjourney机器人就可以啦。初学者可能叠图啊喂图啊二合一啥的都不大会,这时候可以让Midnourey更自由一点,没事多按按V-U什么的让它先自己改,先弄出一张还算满意的图V1-V4,基于生成的某一张图修改再出4张U1-U4,选定某一张细节调整

Others are asking
如何访问midjourney社区
要访问 Midjourney 社区,您可以按照以下步骤进行: 1. 拥有一个 Discord 账号:如果没有,可参考进行验证。 2. 订阅 Midjourney 计划:访问了解有关定价和各层可用功能的信息。 3. 加入 Midjourney 服务器: 打开 Discord 并找到左侧边栏上的服务器列表。 按服务器列表底部的“+”按钮。 在弹出窗口中,单击“Join a Server”按钮。 粘贴或输入以下 URL:。 4. 转到任何“General”或“Newbie”频道:加入 Midjourney 服务器后,您会在侧边栏中看到列出的几个频道。 此外,您的 Midjourney 订阅使您可以访问 Niji 社区。要为 Niji 模型版本创建风格调谐器或代码,请加入并以与 Midjourney Bot 交互的方式与 Niji 机器人交互。
2025-01-14
Midjourney 学习教程
以下是学习 Midjourney 的教程: 1. 注册相关账号:注册 Discord 账号并加入 Midjourney 服务器,Midjourney 也有在线版本可直接使用。 2. 掌握提示词结构:了解 Prompt 的基本组成部分,如“主体”“媒介”“环境”等,学习构建有效的 Prompt 来生成理想图像。 3. 熟悉常用参数和命令:学习 Midjourney 的各种参数设置,如放大、细节等,掌握常用命令,如/imagine、/test 等。 4. 针对不同场景练习创作:尝试针对插画、游戏、框架等不同场景进行创作练习,通过实践提高 Prompt 编写和图像生成技巧。 5. 学习他人作品并模仿:观察学习其他用户的优秀作品,了解其 Prompt 技巧,通过模仿提高创作水平。 此外,还可以通过以下方式学习 Midjourney: 把 Midjourney 的官网说明书喂给 GPT,让其根据说明了解机制和结构,给出适合的提示词。 像案例中的二师兄一样,加入相关社群,如 Prompt battle 社群,打磨文生图提示词学习。 总的来说,系统学习 Prompt 编写技巧、熟悉 Midjourney 的功能,并通过大量实践创作,同时善于学习他人经验,是学习 Midjourney 的有效方法。但需注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-06
Midjourney+sd可以生成服装模特视频么
Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法: 1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。 2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。 同时,您还可以参考以下视频工具建议: 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/aitool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。
2025-01-06
怎么学习Midjourney和stable defussion
以下是关于学习 Midjourney 和 Stable Diffusion 的一些建议: Midjourney: 优势:操作简单方便,创作内容丰富,但需要科学上网并且付费,月费约 200 多元。若只是前期了解,可先尝试。 学习途径:只需键入“thingyouwanttoseev 5.2”(注意末尾的v 5.2 很重要,它使用最新的模型),就能得到较好的结果。Midjourney 需要 Discord,可参考。 Stable Diffusion: 优势:开源免费,可以本地化部署,创作自由度高,但需要较好的电脑配置,尤其是显卡。 学习途径: 关于具体的安装方法可以去看看 B 站的【秋葉 aaaki】这个 Up 主的视频。 可以参考,了解其工作原理和基本功能。 如果走 Stable Diffusion 这条路,这里有一个很好的指南(请务必阅读第 1 部分和第 2 部分) 此外,在学习 AI 绘画这段时间,发现 AI 绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如可以用 Midjourney 生成线稿,PS 稍微做一些修正,再用 ControlNet 控制,Stable Diffusion 上色,多套 AI 组合拳,可以快速生成效果惊艳的图。
2025-01-06
midjourney的基础使用教程
以下是 Midjourney 的基础使用教程: 一、进入官网 可以选择桌面端下载或浏览器使用。为方便起见,可选择浏览器使用,若想在桌面端使用,可根据电脑选择对应版本进行下载。点击右上角的浏览器使用,首次使用需注册,选择企业用户注册,输入对应名称和手机号即可注册成功(目前无需填写企业信息),注册完成后进入具体操作页面。 二、基础操作 点击开始想象按钮,将生成的提示词粘贴在下方,直接点击回车,耐心等待几十秒即可看到生成的图片。一次性会生成 4 张图片,可选择喜欢的图片点击,进入后可对图片进行相应操作。 三、创作调整 1. 风格化:数字越大越艺术,但并非越大越好,取决于创作,人像不用调整过高。 2. 怪异化:数字越大越奇怪,可不碰。 3. 多样化:数字越大结果越意想不到,越低越接近提示词。建议新手一开始不用怪异和多样化,可做实验测试。 4. 模式:默认标准,朴实 raw 会让图片质感更好,依个人喜好选择。 5. 版本:默认最高 V6,建议选最高,二次元可选 NIJI。 6. 生成图片的速度:默认快速,速度越快对支付套餐要求越高。 四、图片详情 1. 这边是写的提示词,右上可下载对应图片。 2. 可进行参数调整,参数详解参考下方「参数详解」。对图片进行调整时,注意任何点击都会重新生成图片,免费用户会提示超出套餐,所以别乱点。最右侧是所有生成图片的缩略图。 学习 Midjourney 的步骤 1. 注册 Discord 账号并加入 Midjourney 服务器,Midjourney 也有在线版本可直接使用。 2. 掌握 Midjourney 的提示词(Prompt)结构,了解其基本组成部分,如“主体”“媒介”“环境”等,学习构建有效的 Prompt 来生成理想图像。 3. 熟悉 Midjourney 的常用参数和命令,如放大、细节等参数设置,掌握常用命令如/imagine、/test 等。 4. 针对不同应用场景练习创作,如插画、游戏、框架等,通过实践提高 Prompt 编写和图像生成技巧。 5. 学习他人的优秀作品并进行模仿,观察和学习其他用户的 Prompt 技巧,通过模仿练习提高创作水平。 总的来说,系统学习 Prompt 编写技巧、熟悉 Midjourney 的功能,并通过大量实践创作,同时善于学习他人经验,可有效提升 Midjourney 的使用水平和创作能力。
2024-12-26
MidJourney的地址
Midjourney 的官网地址为:https://www.midjourney.com 。在官网上,已向生成 100 张以上图片的用户开放使用权限。登录后,左侧为各种页面入口,顶部是生成入口(prompt 框)和搜索框。在社区作品、创作(Create)以及组织(Organize)页面中,可随时使用 prompt 框和搜索框,方便查找参考和进行创作,无需频繁切换页面。还可以通过点击 prompt 框最右侧的图标来设置常用参数的默认值,包括画面比例和个性化模型开关。在官网上使用图片参考也变得简单直观,只需点击 prompt 框最左侧的图片按钮,或直接拖入图片即可,官网会记录所有使用过的图片,方便调用或删除。当鼠标悬停在图片上时,会看到 3 个小图标,从左到右分别是角色参考、风格参考、整图参考,点击相应的图标即可,如需多种参考逻辑可按住 shift 键点选多个图标。创作页面最大亮点是 prompt 的复用,可直接点击画面描述或复制描述词到 prompt 框中,也可以直接点击下方横列菜单里的按钮,将包括参考图在内的完整 prompt 替换当前的 prompt。点击图片则会进入单图调整模式,在 discord 中常用的操作指令都被集中在了右下角的按键中,并且上线了全新的 Editor 编辑器功能。
2024-12-17
Coze教程
以下是关于 Coze 的教程: 一泽 Eze 的教程: 可能是全网最好的 Coze 教程之一,能一次性带您入门 Coze 工作流。 即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南:长文预警,请视情况收藏保存。 核心看点:通过实际案例逐步演示,用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent;开源 AI Agent 的设计到落地的全过程思路;10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群:任何玩过 AI 对话产品的一般用户(若没用过,可先找个国内大模型耍耍);希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 大圣的教程: Coze 概述:字节的官方解释为 Coze 是新一代一站式 AI Bot 开发平台,无论是否有编程基础,都可在其上快速搭建基于 AI 模型的各类问答 Bot,从解决简单问答到处理复杂逻辑对话,并能将搭建的 Bot 发布到各类社交平台和通讯软件上互动。个人认为 Coze 是字节针对 AI Agent 领域的初代产品,在 Coze 中称 AI Agent 为 Bot。字节针对 Coze 部署了国内版和海外版两个站点。 国内版:网址为 https://www.coze.cn ,官方文档教程为 https://www.coze.cn/docs/guides/welcome ,使用字节自研的云雀大模型,国内网络可正常访问。 海外版:网址为 https://www.coze.com ,官方文档教程为 https://www.coze.com/docs/guides/welcome ,使用 GPT4、GPT3.5 等大模型(可参考文档白嫖 ChatGPT4),访问需要突破网络限制的工具,参考文档:https://www.coze.com/docs/zh_cn/welcome.html 。 AI Agent 的开发流程:Bot 的开发和调试页面布局主要分为提示词和人设的区块、Bot 的技能组件、插件、工作流、Bot 的记忆组件、知识库、变量、数据库、长记忆、文件盒子、一些先进的配置、触发器(例如定时发送早报)、开场白(用户和 Bot 初次对话时,Bot 的招呼话语)、自动建议(每当和 Bot 一轮对话完成后,Bot 给出的问题建议)、声音(和 Bot 对话时,Bot 读对话内容的音色),下面会逐一讲解每个组件的能力以及使用方式。
2025-02-07
ComfyUI教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户,可在获取相关信息。 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,教程地址是。 3. 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,可在找到相关教程。 4. Bilibili:提供了从新手入门到精通各个阶段的系列视频教程,可在查看。 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 基础教程中关于 KSampler 的部分: KSampler 即采样器,包含以下参数: 1. seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 2. control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 3. step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 4. cfg:一般设置在 6 8 之间较好。 5. sampler_name:可通过此设置采样器算法。 6. scheduler:控制每个步骤中去噪的过程,可选择不同调度算法。 7. denoise:表示要增加的初始噪声,文生图一般默认设置为 1。 内容由 AI 大模型生成,请仔细甄别。
2025-02-07
帮我找到deepseek的培训教程,我是一个技术小白
以下是关于 DeepSeek R1 的培训教程相关内容: DeepSeek R1 引入了纯强化学习(RL),不依赖大量人类标注数据,而是通过自我探索和试错来学习。在“冷启动”阶段,仅通过少量(数千条)人工精选的思维链数据进行初步引导,建立起符合人类阅读习惯的推理表达范式。随后主要依靠强化学习,在奖励系统的反馈下(只对结果准确率与回答格式进行奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。 准确率奖励用于评估 AI 提供的最终答案是否正确,格式奖励强制结构化输出,让模型把思考过程置于<think></think>标签之间,以便人类观察模型的推理过程。 更有趣的是,DeepSeek 还有一个更加聪明的 R1zero 实验版本,这个版本甚至没有进行任何的初始引导,而是采用了完全从零开始的强化学习。实验表明,无需任何人类的监督训练,R1zero 自然而然地学会了用更多的思考步骤来解决推理任务,还学会了在推理过程中反思先前的推理步骤,探索解决问题的替代方法。但因为没有微调,R1zero 的输出内容可读性差、语言混合,且风险不可控。所以我们见到的是经过符合人类阅读偏好的冷启动与微调过的 R1 版本,确保 AI 生成内容的稳定、安全、道德、无害。 附:DeepSeek R1 完整训练过程,因文章定位与行文节奏设计,上文仅对影响 R1 涌现关键智能的前两个训练步骤进行了讲解。更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948 参考文献: 1. 碎瓜波斯兔子《Deepseek R1 可能找到了超越人类的办法》https://mp.weixin.qq.com/s/YgRgDw8ndSHJwcPNMqWZNQ 2. 大聪明赛博禅心《DeepSeek R1 是怎么训练的?》https://mp.weixin.qq.com/s/Wuz0H9jmZYV1jM1YtwTlA 3. 老刘说 NLP《可视化角度具象化理解 DeepSeekR1 类推理大模型的习得进程》https://mp.weixin.qq.com/s/ytKTGTgU2T7jSNrBghX1cA 4. Tianzhe Chu et al.《SFT 记忆,RL 泛化:基础模型训练后的比较研究》https://arxiv.org/html/2501.17161 5. Metaso 长思考对话《RL 和 SFT 在后训练中的区别》https://metaso.cn/s/WGdOwPC
2025-02-07
我需要仿写 AI工具的教程文章,应该怎么写提示词
以下是关于如何仿写 AI 工具教程文章中提示词的相关内容: 样例驱动的渐进式引导法就像让 AI 主动读懂您的想法。它以 1 2 个正向样例为起点,通过与 AI 的多轮对话,引导其从样例中提炼隐含的生成要求,逐步完善提示词。 例如,教 AI 仿写爆文时,只需提供优秀样例,AI 会自动分析理解精髓并生成符合自身运作的指令。这种方法无需用户具备专业的 Prompt 工程知识,也不用费力提炼“Know How”,利用 AI 就能自动生成精彩的 Prompt。 其核心步骤包括: 1. 构建初始样例:创建符合期望输出的具体例子。 2. 评估样例,尝试提炼模板:让 AI 分析理解样例结构和关键元素,并以专家视角优化。 3. 固定模板,强化要求说明:基于对初始样例的理解,让 AI 提出通用模板,通过测试 Prompt 验证可靠性。 4. 生成结构化提示词:将优化后的模板转化为结构化提示词,用户适当调整确认后即可使用。 在这个过程中,用户的角色主要是: 1. 提供尽可能与自己预期一致的初始样例。 2. 判断 AI 的输出质量。 3. 反馈改进建议,提供行动引导。 这种方法的优势在于简化了提示词设计过程,让非专业用户也能创建高质量的 Prompt。用户可专注于判断输出质量和提供反馈,无需深入理解复杂的 Prompt 工程技巧。 此外,编写提示词(prompt)还有一些通用建议: 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:任务需要背景知识时,在 prompt 中提供足够信息。 3. 使用清晰语言:尽量用简单、清晰的语言描述任务,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在 prompt 中明确指出。 5. 使用示例:有特定期望结果时,在 prompt 中提供示例。 6. 保持简洁:尽量简洁明了,过多信息可能使 AI 模型困惑。 7. 使用关键词和标签:帮助 AI 模型更好理解任务主题和类型。 8. 测试和调整:生成文本后仔细检查结果,根据需要调整 prompt,可能需要多次迭代达到满意结果。
2025-02-06
我想学习AI,有没有新手学习教程
以下是为新手学习 AI 提供的教程: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 通过与这些 AI 产品的对话,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得自己的成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-02-06
AI辅助PPT生成的教程
以下是关于 AI 辅助 PPT 生成的教程: 一、AI 辅助 PPT 的原理和作用 1. 减轻排版工作的压力。 2. 生成打底的内容,减轻人写内容的工作。 文章生成 PPT,是让 AI 帮忙摘要内容,生成大纲列表。 主题生成 PPT,让 AI 根据主题扩充成大纲列表,乃至具体内容。 在特定的场景下不用改直接用,如学生快速为小组展示配 PPT。 二、AI 辅助 PPT 生成的流程 1. 用户输入相关内容。 2. AI 输出文本。 3. 排版网站往往提供了各种形状和样式,网站把 AI 输出的文本丢给 LLM,让它根据内容,在已有的 UI 组件中选择更适合的组件。按时间线,每页 PPT 的文字,选出整个 PPT 中,每一页的 UI 组件。有的网站,如 tome、gamma,配图也是由 GenAI 根据页面内容生成的。呈现 AI 生成的 PPT 结果,用户不满意可以自行选择模版。 三、具体操作示例 1. 利用 Process ON 工具 网址:https://www.processon.com/ 输入大纲和要点 确定操作方式,目前该工具提供两种方式: 导入大纲和要点: 手动复制,相对比较耗时间。 导入方式: 复制最终大纲的内容,到本地的 txt 文件后,将后缀改为.md。如果看不见后缀,可以自行搜索开启后缀。 打开 Xmind 软件,将 md 文件导入 Xmind 文件中。 Process ON 导入 Xmind 文件。以导入方式新建思维导图,选择准备好的 Xmind 文件,导入成功。 输入主题自动生成大纲和要求:新增思维导图,输入主题,点击 AI 帮我创作,生成结束。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版,再点击下载。如果喜欢用 Process ON 的小伙伴,没有会员,可以某宝买个一天会员。 2. 几款 PPT 生成工具(网站) https://wenku.baidu.com 百度文库付费质量好 https://zhiwen.xfyun.cn/ 讯飞智文免费引导好 http://Chatppt.com 付费,自动化程度高 http://Mindshow.fun Markdown 导入 http://Gamma.app Markdown 导入 http://Tome.app AI 配图效果好 剪映:图文成片(只需提供文案,自动配图配音) 希望以上内容对您有所帮助。
2025-02-05