直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

文生图

回答

以下是关于文生图的相关知识:

  • 简明操作流程:
    • 定主题:明确生成图片的主题、风格和要表达的信息。
    • 选择基础模型 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。
    • 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。
    • ControlNet:可控制图片中特定图像,如人物姿态、特定文字等,属于高阶技能。
    • 局部重绘:下篇再教。
    • 设置 VAE:可无脑选择 840000。
    • Prompt 提示词:用英文写需求,单词和短语组合,用英文半角逗号隔开。
    • 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语组合,用英文半角逗号隔开。
    • 采样算法:一般选 DPM++ 2M Karras,也可参考模型作者推荐的采样器。
    • 采样次数:选 DPM++ 2M Karras 时,一般在 30 - 40 次。
    • 尺寸:根据需求和喜好选择,注意尺寸并非越大越好。
  • 提示词写作:
    • 分为内容型提示词和标准化提示词,内容型提示词用于描述想要的画面。
    • 例如选择 anythingV5 模型,输入“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”等描述,并翻译成英文。
    • 采样迭代步数通常控制在 20 - 40 之间。
    • 常用采样方法有 Euler a、DPM++2S a Karras、DPM++2M Karras、DPM++ SDE Karras、DDIM 等,有的模型有指定算法,搭配使用效果更好。
    • 比例设置为 800:400,高宽比尽量接近 512x512,太大的数值可能导致奇怪构图,如需高清图可使用高清修复放大图像倍率。
  • 常见工具:
    • DALL·E:OpenAI 推出,可根据文本描述生成逼真图片。
    • StableDiffusion:开源,能生成高质量图片,支持多种模型和算法。
    • MidJourney:图像生成效果好,界面用户友好,在创意设计人群中流行。
    • 更多工具可在 WaytoAGI 网站(https://www.waytoagi.com/category/104 )查看。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Tusiart简易上手教程

定主题:你需要生成一张什么主题、什么风格、表达什么信息的图。选择基础模型Checkpoint:按照你需要的主题,找内容贴近的checkpoint。一般我喜欢用模型大佬麦橘、墨幽的系列模型,比如说麦橘写实、麦橘男团、墨幽人造人等等,效果拔群。选择lora:在你想要生成的内容基础上,寻找内容重叠的lora,帮助你控制图片效果及质量。可以多看看广场上做得好看的帖子里面,他们都在用什么lora。ControlNet:控制图片中一些特定的图像,可以用于控制人物姿态,或者是生成特定文字、艺术化二维码等等。也是高阶技能,后面再学不迟。局部重绘:下篇再教,这里不急。设置VAE:无脑选择前面提到的840000这个即可。Prompt提示词:用英文写你想要AI生成的内容,不用管语法也不要写长句,仅使用单词和短语的组合去表达你的需求。单词、短语之间用英文半角逗号隔开即可。负向提示词Negative Prompt:用英文写你想要AI避免产生的内容,也是一样不用管语法,只需单词和短语组合,中间用英文半角逗号隔开。采样算法:这玩意儿还挺复杂的,现在我一般选DPM++ 2M Karras比较多。当然,最稳妥的是留意checkpoint的详情页上,模型作者是否有推荐采样器,使用他们推荐的采样器会更有保障。采样次数:要根据你采样器的特征来,一般我选了DPM++ 2M Karras之后,采样次数在30~40之间,多了意义不大还慢,少了出图效果差。尺寸:看你喜欢,看你需求。

【SD】文生图怎么写提示词

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-01 20:00原文网址:https://mp.weixin.qq.com/s/kwNfc9NCaKJRy30wHI95UgStable Diffusion的生成方式主要分为文生图和图生图两种:文生图是仅通过正反向词汇描述来发送指令;图生图除了可以添加文字以外,还可以给AI参考图进行模仿,也就是我们常说的“垫图”。接下去就是对你想要的图形进行文本描述,文本描述上又分为两类:内容型提示词和标准化提示词。内容型提示词主要用于描述你想要的画面,我们选择anythingV5这个专门用于二次元绘画的大模型,然后输入以下提示词:1个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面。(使用翻译软件翻译成英文)采样迭代步数是指AI绘画去噪的次数,步数越高绘画越清晰,但是绘画速度也会越慢,通常数值控制在20-40之间最好。采样方法是指AI生成图像时候的某种特定算法,我们不用全部了解,一般常用的为:Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++ SDE Karras;DDIM。有的模型会有指定的算法,搭配起来更好用。将比例设置为800:400,注意这里的尺寸并不是越大越好,因为模型的练图基本上都是按照512x512的框架去画,所以我们的高宽比尽量都在这个数值附近。太大的数值比如1920x1080,会使AI做出很奇怪的构图。那你就会说,我就想要很高清的图怎么办,其实Stable Diffusion也提供了图片放大的功能,我们可以同时点选这个高清修复来放大图像倍率,而高宽比我们只要记住这里主要是控制一个画面比例就可以了。

问:文生图工具有哪些?

文生图工具是一种利用人工智能技术生成图片的工具。它通过分析输入的文本描述,使用深度学习算法生成相应的图片。目前,市场上有许多文生图工具,其中一些比较受欢迎的工具包括:1.DALL·E:DALL·E是OpenAI推出的一款文生图工具,它可以根据输入的文本描述生成逼真的图片。2.StableDiffusion:StableDiffusion是一款开源的文生图工具,它可以生成高质量的图片,并且支持多种模型和算法。3.MidJourney:MidJourney因其高质量的图像生成效果和用户友好的界面设计而受到广泛欢迎,并且在创意设计人群中尤其流行。以上是一些比较受欢迎的文生图工具,它们都具有不同的特点和优势,可以根据自己的需求选择使用。在WaytoAGI网站,可以查看更多文生图工具:https://www.waytoagi.com/category/104类似问题:文字生成图片的AI有哪些?内容由AI大模型生成,请仔细甄别。

其他人在问
请推荐一下文生PPT好用的免费软件
以下为您推荐几款文生 PPT 好用的免费软件: 1. 歌者 PPT(gezhe.com): 功能:话题生成(一键生成 PPT 内容)、资料转换(支持多种文件格式转 PPT)、多语言支持(生成多语言 PPT)、模板和案例(海量模板和案例库)、在线编辑和分享(生成结果可自由编辑并在线分享)、增值服务(自定义模板、字体、动效等)。 产品优势:免费使用(所有功能永久免费)、智能易用(通过 AI 技术简化 PPT 制作流程,易于上手)、海量案例(大量精美模板和优秀案例可供选择和下载)、资料转 PPT 很专业(支持多种文件格式,转换过程中尊重原文内容)、AI 翻译(保持 PPT 原始排版不变,多语言在线即时翻译)。 推荐理由:完全免费,智能化程度高,模板和案例库丰富,对多语言支持好,适合不太擅长制作 PPT 或者时间紧张的人群。 2. Gamma: 作为在各种交流群中频繁推荐的产品,以其卓越的性能和用户体验赢得广泛认可。免费版本也能生成质量非常高的 PPT,随着不断优化和改进,能满足大多数用户的需求。个人使用体验良好,生成效果令人满意,在内容组织、设计美观度和整体专业感方面表现出色。 目前市面上大多数 AI 生成 PPT 按照以下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-11-13
论文全文生成摘要
以下是关于您问题的回答: “Chain of Density”(CoD)是一种通过建立一系列相互关联的紧密提示来指导 AI 生成具体和连续输出的方法。它由美国哥伦比亚大学、麻省理工和 Salesforce 公司的研究人员共同发表。具体来说,是使用 GPT4 生成初始的稀疏摘要,然后通过迭代加入缺失的重要内容,在不增加摘要长度的情况下,添加更多实体信息,让摘要更具细节和丰富性、可读性及抽象性。这些提示相互链接,形成一个“密度链”,更有针对性地引导 AI 达到预期的输出。论文以“如何从文章提炼萃取出最合适的摘要”为重点,发布后有网友实测将 CoD 提示法用于翻译,翻译质量有飞跃提升。 在论文写作方面,有以下常用的 AI 工具和平台: 1. 文献管理和搜索: Zotero:结合 AI 技术,自动提取文献信息,帮助管理和整理参考文献。 Semantic Scholar:AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,精简和优化内容。 3. 研究和数据分析: Google Colab:提供云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化,进行复杂数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,提供模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 使用这些工具时,要结合自身写作风格和需求,选择最合适的辅助工具。需注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-12
文生图?
以下是关于文生图的详细介绍: 定主题:明确您想要生成的图片的主题、风格和表达的信息。 选择基础模型 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 选择 lora:寻找与生成内容重叠的 lora,以控制图片效果和质量,可参考广场上优秀帖子中使用的 lora。 ControlNet:用于控制图片中的特定图像,如人物姿态、生成特定文字或艺术化二维码等,属于高阶技能。 设置 VAE:一般选择 840000 即可。 Prompt 提示词:用英文书写想要 AI 生成的内容,使用单词和短语组合,无需考虑语法,用英文半角逗号隔开。 负向提示词 Negative Prompt:同样用英文书写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:常用 DPM++ 2M Karras,也可参考 checkpoint 详情页上模型作者推荐的采样器。 采样次数:使用 DPM++ 2M Karras 时,采样次数一般在 30 40 之间。 尺寸:根据个人喜好和需求选择。 对于提示词,分为内容型提示词和标准化提示词,用于描述想要的画面。采样迭代步数通常控制在 20 40 之间,步数越高绘画越清晰但速度越慢。采样方法常用的有 Euler a、DPM++2S a Karras、DPM++2M Karras、DPM++ SDE Karras、DDIM,部分模型有指定算法,搭配效果更佳。比例设置为 800:400,尺寸并非越大越好,模型练图多基于 512x512 框架,过大尺寸可能导致奇怪构图,若想要高清图,可使用高清修复功能放大图像倍率,同时注意控制画面比例。
2024-11-12
国内文生图大模型,有哪些?
以下是一些国内的文生图大模型: 百度的文心一言:https://wenxin.baidu.com 抖音的云雀大模型:https://www.doubao.com 智谱 AI 的 GLM 大模型:https://chatglm.cn 中科院的紫东太初大模型:https://xihe.mindspore.cn 百川智能的百川大模型:https://www.baichuanai.com/ 商汤的日日新大模型:https://www.sensetime.com/ MiniMax 的 ABAB 大模型:https://api.minimax.chat 上海人工智能实验室的书生通用大模型:https://internai.org.cn 此外,真人效果卓绝的大模型 lofi.v2 也可用于生成真实场景下的字体。在使用 SDXL 大模型时,其分为 base+refiner 以及配套的 VAE 模型,base 用于文生图操作,refiner 用于细化生成的模型,VAE 用于调节图片效果和色彩。要在 webUI 中使用,需将秋叶启动器中 webUI 的版本升级到 1.5 以上,并将模型放入对应文件夹。
2024-11-12
最新的文生视频/图生视频能力是什么
以下是关于最新的文生视频/图生视频能力的介绍: PIKA1.0 启用了全新的模型,文生视频质量大幅提升,例如输入“Cinematic,happy laughing girl in office,Pixar style”的 Prompt 能瞬间生成匹配皮克斯水平的镜头,且稳定性和神情表现出色,爆杀市面上所有的 AI 视频。在文生图方面,新模型也极其稳定。同时,图生视频效果很棒,人的一致性逆天,语义理解强,动作幅度大。此外,还有一些小技巧,如在右下角第三个设置里,负面提示(Negative prompt)可以常驻“blurry,out of focus,twisted,deformed”,提示词相关性别设 5 15 之间效果较好。 这半年来,除传统的文生视频、图生视频能力迭代外,主要技术发展还围绕着通过转绘改变画风、视频内人物识别和替换方向。在服务头部创作者方面,未来产品会强化编辑器能力和视频细节可控性,并智能化后期制作任务。影视后期方向,可将动捕演员表演转化为虚拟角色提高特效制作效率。专业领域,创作者能通过草图分镜验证效果。在 C 端大众消费侧,AI 视频有望在小说、网文阅读、短情景剧等内容消费方向发挥潜力,人物识别和替换可衍生电商平台虚拟试衣间能力。Viggle、DomoAI 的产品中的模板套用能力若低成本开放在短视频产品中,可能带来新的爆发周期。 Stable Video Diffusion 1.1 新模型以及 stablevideo.com 开始内测,清晰度、控制方式和效果都有很大提升,目前提供文生视频、图生视频两种方式,文生视频先生成 4 张图像选一张用于生成视频,图生视频提供几种控制方式(仅开放了一部分),另外目前提供 17 种风格。
2024-11-10
如何用ai文生视频
以下是关于如何用 AI 文生视频的相关内容: 目前有一些国内外提供文生视频功能的产品,如: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion ,可安装此最新插件,在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI ,能将原视频转换成各种风格。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多的文生视频网站可查看:https://www.waytoagi.com/category/38 。 使用 PixVerse 进行文生视频时,这是 AI 生成视频中最直接的方式,通过输入提示词让其生成视频。但需要对提示词有深入了解,能准确描述画面内容,提示词的基本规则可参考:。为方便创作,提供了灵感分镜、风格选择等功能。 以制作商业级 AI 视频广告为例,视频的大部分片段可用 runway(https://app.runwayml.com/)制作。登录 runway 账户后,在首页左侧点击“Text/Imagine to Video”(即“文生视频/图生视频”),上传图片,更改大模型版本,在提示词方框输入运镜方式等,如“Roll Clockwise Shot slowly”(摄像机围绕垂直轴顺时针旋转)。不想动脑可按分镜表建议填写运镜方式。提示词过多可能导致生成的视频怪异,可多尝试调整提示词和生成时长。运镜提示词填写可参照: 。
2024-11-09