Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想图生图,生成高清矢量图

Answer

以下是关于图生图生成高清矢量图的相关内容:

ControlNet 参数

  • 预处理器:canny,模型:control_v11p_sd15_canny
  • 预处理器:lineart_standard(from white bg&black line),模型:control_v11p_sd15_lineart

放大高清大图

  • 使用 Multi Diffusion + Tiled VAE + ControlNet Tile 模型
  • 将生成的图片发送到图生图,关键词种子会一并发送过去,重绘幅度建议 0.35,太高图片细节会发生变化

Lora 生图

  • 点击预览模型中间的生图会自动跳转到相应页面
  • 模型上的数字代表模型强度,可在 0.6 - 1.0 之间调节,默认为 0.8
  • 可自己添加 lora 文件,输入正向提示词,选择生成图片的尺寸(横板、竖版、正方形)
  • 采样器和调度器新手小白可默认,迭代步数在 20 - 30 之间调整,CFG 在 3.5 - 7.5 之间调整,随机种子 - 1 代表随机生成图
  • 生成的图会显示在右侧,若觉得某次生成结果不错,想要微调或高分辨率修复,可复制随机种子粘贴到相应位置
  • 确认合适的种子和参数想要高清放大,可点开高清修复,选择放大倍数,新手小白可默认算法,迭代步数建议在 20 - 30 之间,重绘幅度正常在 0.3 - 0.7 之间调整

高清修复

  • 文生图高清修复原理是命令 AI 按原来内容重新画一幅,新生成绘图和原绘图细节会不同,降低重绘幅度可更接近原图,如重绘幅度 0.7 时帽子和耳机有变化,0.3 时服饰细节接近但手部可能出现问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 ps 合成等解决
  • 由于高清修复渲染耗时长,建议先低分辨率抽卡刷图,喜欢的图再用随机种子固定进行高清修复

SD 放大

  • 文生图画好图后发送到图生图,点击脚本选择使用 SD 放大
  • 重绘幅度设置 0.3,放大倍率为 2,图块重叠像素设置为 64,原图尺寸加上重叠像素,如 512x768 变为 576x832,重绘幅度要保持较低数值,否则可能出现新人物
Content generated by AI large model, please carefully verify (powered by aily)

References

教程:七夕字体和图

预处理器:canny模型:control_v11p_sd15_canny预处理器:lineart_standard(from white bg&black line),模型:control_v11p_sd15_lineart[heading3]4、放大高清大图[content]Multi Diffusion+Tiled VAE+ControlNet Tile模型将生成的图片发送到图生图,会把关键词种子一并发送过去重绘幅度建议0.35太高图片细节发生变化,

10-0基础训练大模型

上图中,点击预览模型中间的生图会自动跳转到这个页面模型上的数字代表模型强度,可以调节大小,正常默认为0.8,建议在0.6-1.0之间调节当然,你也可以自己添加lora文件点击后会显示你训练过的所有lora的所有轮次VAE不需要替换正向提示词输入你写的提示词可以选择基于这个提示词一次性生成几张图选择生成图片的尺寸,横板、竖版、正方形采样器和调度器新手小白可以默认这个不换迭代步数可以按照需求在20-30之间调整CFG可以按照需求在3.5-7.5之间调整随机种子-1代表随机生成图所有设置都好了以后,点击开始生态,生成的图会显示在右侧如果有哪次生成结果你觉得很不错,想要微调或者高分辨率修复,可以点开那张图往下滑,划到随机种子,复制下来粘贴到i机种子这里,这样下次生成的图就会和这次的结果近似如果确认了一张很合适的种子和参数,想要搞清放大则点开高清修复,可以选择你想放大的倍数新手小白可以就默认这个算法迭代步数也是建议在20-30之间重回幅度根据需求调整,正常来说在0.3-0.7之间调整

【SD】如何画出商用级别的高清大图

我们看一下高清修复下的这张画,文生图高清修复的原理其实是命令AI按照原来的内容重新画一幅,所以新生成的绘图和原来的绘图在细节上会不太一样。如果想要更接近之前的绘图,可以适当降低重绘幅度。我们来对比一下修复前后的区别,这次使用的重绘幅度为0.7,所以可以看到帽子和耳机都有了变化,想要保留原来的细节,可以尝试0.2-0.3。我们再使用重绘幅度为0.3绘制一下,可以看到服饰细节就比较接近了,但是由于重绘幅度低,手部就出现了问题。这种情况,就要通过反复抽卡,图生图局部重绘,或者生成多张图片后进ps合成等办法去解决。由于高清修复的渲染耗时比较长,所以我们一般建议先采用低分辨率进行抽卡刷图,当抽到自己比较喜欢的图之后,再使用随机种子来固定图片进行高清修复。二、SD放大第二种方式是使用图生图的脚本功能,当我们使用文生图画好一张图之后,可以将它发送到图生图。点击下面的脚本,选择使用SD放大。重绘幅度设置0.3,放大倍率为2,图块重叠的像素设置为64。这张图原本的尺寸为512x768,此时需要加上重叠像素的64,就变成了576x832。可以看到,这次的Stable Diffusion是将这张图均匀地切成了四块,然后分别渲染,最终拼接成一整张图,这种方式需要让我们重绘幅度保持在比较低的数值,不然这新生成的四张图中可能会出现新的人物。

Others are asking
coze怎么搭建矢量图动画
以下是搭建矢量图动画的 coze 步骤: 1. 创建工作流: 点击工作流后面的“➕”来添加一个工作流。 点击创建工作流。 给工作流起名字和描述,名字只能用字母、数字和下划线,描述清晰避免误会。 2. 初始化的工作流: 左边有各种插件和搭建 Agent 的工具,可通过点击加号或直接拖拽使用。插件一般有参数说明,之后只介绍需要使用的插件,其他可自行尝试。 初始化后会生成开始模块和结束模块,默认生成且有且只有一个,只能以开始模块启动,结束模块终结工作流。 可观看工作流的视频教程: ,注意视频中有个小 bug,使用 text2image 时最后的 prompt 参数设置错了,可自行调整。 3. 需求分析:主要需求是国内可直接使用且能批量生产,选用扣子搭建工作流。 批量生成句子:不同于手动搭建,一次性生成的句子都进行生成图片处理,建议一次不要生成太多,设置为一次生成五句。 句子提取:把生成的句子一个一个提取出来,针对每个句子画图。 图片生成:根据生成的句子,结合特有画风等描述绘图。 图片和句子结合:扣子工作流本身支持 Python 代码,但环境缺少画图、图片处理的包,可替换成搞定设计的方式处理图片,会 PS 脚本效果也不错。 4. 扣子使用链接分享: 试用链接分享:豆包使用链接未发布,扣子使用链接:https://www.coze.cn/s/iMCq73wp/ 。 效果展示:可自行查看。 5. 批量生产图片:可观看视频演示: 及效果展示。 总结:第一次用录视频方式展示,怕截图说不清楚,文字处理及批量放入 excel 文件操作可用 ai 辅助,有问题可留言。
2025-04-08
矢量图生成工具
以下是一些用于矢量图生成的工具: 1. UIzard:利用 AI 技术生成用户界面,能根据提供的信息快速生成 UI 设计。 2. Figma:基于云的设计工具,提供自动布局和组件库,其社区开发的一些 AI 插件可增强设计流程。 3. Sketch:流行的矢量图形设计工具,插件系统中部分插件利用 AI 技术辅助设计工作,如自动生成设计元素。 此外,还有一个超强 LOGO 生成器的相关教程及案例拆解: 设计一个 logo 生成工具,允许用户上传多张 logo 图片作为参考,若多张图片无法处理,可将四张合成一张处理。通过提示询问用户是否用这些图片创建新 logo 及自定义提示词风格,设定每张图片参考权重。利用 GPT4 Vision 识图能力提取关键特征,结合权重和提示词风格生成新 logo 设计(如不满意可重新生成)。创作完成后提示用户是否满意,满意则发送此链接让用户去转 LOGO 矢量图操作。默认语言是中文。
2024-12-23
矢量图生成工具
以下是一些用于矢量图生成的工具: 1. UIzard:这是一个利用 AI 技术生成用户界面的工具,能根据您提供的信息快速生成 UI 设计。 2. Figma:基于云的设计工具,提供自动布局和组件库,其社区开发的一些 AI 插件可增强设计流程。 3. Sketch:流行的矢量图形设计工具,插件系统中部分插件利用 AI 技术辅助设计工作,如自动生成设计元素。 此外,还有一个超强 LOGO 生成器的相关教程及案例拆解。它允许用户上传多张 logo 图片作为参考,若无法处理多张图片,可将四张合成一张处理。通过提示询问用户是否用这些图片创建新 logo 并自定义提示词风格、设定图片参考权重,然后利用 GPT4 Vision 的识图能力提取关键特征生成新 logo。若用户不满意可重新生成,满意则可通过转 LOGO 矢量图。默认语言为中文。
2024-12-23
矢量图生成工具
以下是一些常见的矢量图生成工具: 1. UIzard:这是一个利用 AI 技术生成用户界面的工具,能根据提供的信息快速生成 UI 设计。 2. Figma:基于云的设计工具,提供自动布局和组件库,其社区也开发了一些 AI 插件用于增强设计流程。 3. Sketch:流行的矢量图形设计工具,插件系统中有些插件利用 AI 技术辅助设计工作,如自动生成设计元素。 此外,还有一个超强 LOGO 生成器的相关介绍: 它可以设计一个 logo 生成工具,允许用户上传多张 logo 图片作为参考,若多张图片无法处理,可将四张合成一个图片处理。通过提示询问用户是否使用这些图片创建新的 logo 设计,能自定义提示词风格,设定每张图片的参考权重。利用 GPT4 Vision 的识图能力提取图片关键特征,结合权重和提示词风格生成新 logo 设计。若用户不满意可重新生成,创作完提示用户是否满意,满意则发送让用户去转 LOGO 矢量图操作。默认语言是中文。
2024-12-23
矢量图生成工具
以下是一些常见的矢量图生成工具: 1. UIzard:这是一个利用 AI 技术生成用户界面的工具,能根据提供的信息快速生成 UI 设计。 2. Figma:基于云的设计工具,提供自动布局和组件库,其社区也开发了一些 AI 插件来增强设计流程。 3. Sketch:流行的矢量图形设计工具,插件系统中一些插件利用 AI 技术辅助设计工作,如自动生成设计元素。 此外,还有一个超强 LOGO 生成器的相关介绍: 它可以设计一个 logo 生成工具,允许用户上传多张 logo 图片作为参考,若多张图片无法处理,可将四张合成一张处理。通过提示询问用户是否用这些图片创建新 logo,可自定义提示词风格,设定每张图片参考权重。然后利用 GPT4 Vision 的识图能力提取关键特征,结合权重和提示词风格生成新 logo。若用户不满意可重新生成,创作完提示用户是否满意,满意则发送此链接让用户去转 LOGO 矢量图操作。默认语言是中文。
2024-12-23
我想做电商主图,用什么ai
如果您想制作电商主图,可以考虑以下几种 AI 工具和方法: 1. Midjourney:通过输入相关关键词,如“Guerlain Perfume,plant flowers,top light.cean natural backaround with water,saturation color scheme.The productis bright,Motled shading,studo lighfing,contrast high precision,Fine gloss,Centered composition,Photography,HD4Krealism–q 2–v 5–s 750–ar 9:16”,生成图片后再进行后期修改调整和文字排版。 2. Stable Diffusion:对于运营网店的女装店主,可采用局部重绘的方法。先真人穿衣服拍照,获取真实质感的照片,选好真人照片风格的底模,如 majicmixRealistic_v7,再根据不同平台需求换头,如面向海外市场换白女头,然后在图生图下的局部重绘选项卡下涂抹自己替换的部分,并设置相关的 prompts 和 parameters,如“breathtaking cinematic photo,masterpiece,best quality,,blonde hair,silver necklace,carrying a white bag,standing,full body,detailed face,big eyes,detailed hands”。
2025-04-15
我想找一个好用的ai绘画,有什么推荐吗
以下是为您推荐的一些好用的 AI 绘画平台: 1. Midjourney:综合体验较好,尤其是其 v6 版本。 2. 可灵 AI:成熟的综合类工具。 3. 即梦 AI:成熟的综合类工具。 4. Krea:集成平台。 5. MewXAI:操作简单,功能丰富,包括 MX 绘画、MX Cute、MJ 绘画、边缘检测、室内设计、姿态检测、AI 艺术二维码、AI 艺术字等。访问地址:https://www.mewxai.cn/
2025-04-15
我想让我的论文降低AIGC使用率,请问我有什么具体可以操作的办法
以下是一些降低论文中 AIGC 使用率的具体操作办法: 1. 使用 AIGC 论文检测工具: Turnitin:广泛使用的学术剽窃检测工具,增加了检测 AI 生成内容的功能。使用方法是上传论文,系统会自动分析文本并提供详细报告,标示出可能由 AI 生成的部分。 Copyscape:主要用于检测网络上的剽窃行为,虽不是专门的 AIGC 检测工具,但能发现可能被 AI 生成的重复内容。输入文本或上传文档,系统会扫描网络查找相似或重复内容。 Grammarly:提供语法检查和剽窃检测功能,其剽窃检测部分可帮助识别可能由 AI 生成的非原创内容。将文本粘贴到编辑器中,选择剽窃检测功能,系统会提供分析报告。 Unicheck:基于云的剽窃检测工具,适用于教育机构和学术研究,能检测 AI 生成内容的迹象。上传文档或输入文本,系统会分析并生成报告,显示潜在的剽窃和 AI 生成内容。 :专门设计用于检测 AI 生成内容的工具,使用先进算法分析文本,识别是否由 GPT3 或其他 AI 模型生成。上传文档或输入文本,系统会提供详细报告。 :提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。将文本粘贴到在线工具中,点击检测按钮,系统会提供分析结果。 GPTZero:专门设计用于检测由 GPT3 生成内容的工具,适用于教育和出版行业。上传文档或输入文本,系统会分析并提供报告。 Content at Scale:提供 AI 内容检测功能,帮助用户识别文本是否由 AI 生成。将文本粘贴到在线检测工具中,系统会分析并提供结果。 此外,为了从根本上降低 AIGC 使用率,您还需要注重自身的思考和研究,确保论文内容是基于您的独立见解和深入分析。
2025-04-14
我想让DEEPSEEK帮我写一篇论文,题目已经定好了,怎么给他输入指令
以下是给 DeepSeek 输入指令以帮助您写论文的一些建议: 1. 采用结构化提示词: 优先保留专业领域术语和技术词汇,这些术语通常具有高信息价值。 对不同类型的信息设置权重,按优先级排序:任务定义>关键约束>专业术语>定量信息>方法论>背景。 以完整语义单元为基本保留单位,而非单个词语,确保压缩后的内容仍保持语义完整性。 避免详细指导思考过程,让模型自主生成思维链。 2. 高阶能力调用: 文风转换矩阵:例如“用鲁迅杂文风格写职场 PUA 现象”“将产品说明书改写成《史记》列传格式”“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 领域穿透技术:如行业黑话破解“解释 Web3 领域的'胖协议瘦应用'理论”。 3. 场景化实战策略: 创意内容生成。 技术方案论证。 4. 效能增强技巧: 对话记忆管理:包括上下文锚定(如“记住当前讨论的芯片型号是麒麟 9010”)、信息回溯(如“请复述之前确认的三个设计原则”)、焦点重置(如“回到最初讨论的供应链问题”)。 输出质量控制:针对过度抽象、信息过载、风格偏移等问题,使用相应的修正指令。 5. 特殊场景解决方案: 长文本创作:可采用分段接力法,如“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理:使用概念脱敏法(如“用经济学原理类比说明网络审查机制”)或场景移植法(如“假设在火星殖民地讨论该议题”)。 在输入指令时,您需要清晰明确地描述论文的题目、研究目的、主要论点、关键论据、期望的结构和风格等重要信息,以便 DeepSeek 能够为您生成符合要求的内容。
2025-04-14
我想要通过建筑草图生成效果图,有什么工具和流程可以使用
以下是使用悠船工具将建筑草图生成效果图的流程和相关介绍: 1. 基础使用: 提示词:在右侧填写提示词,右上可下载对应图片。 参数调整:参数详解参考下方「参数详解」。注意任何点击都会重新生成图片,免费用户可能会提示超出套餐,所以别乱点。最右侧是所有生成图片的略缩图。 2. 图片调整: 变化:分为细微和强烈,细微改变幅度小,强烈改变幅度大。 高清:有“直接”和“创意”两种模式,“直接”表示啥都不变直接出高清,“创意”表示在图片基础上进行微小的优化调整。 风格变化:基于生成的图片作为上传图片(垫图)再创作。 拓展:可上下左右拓展图片。 缩放:指的是镜头,比如 2x 就是镜头拉远 2 倍。 局部重绘:选择区域要大一些,太小的无法进行修改。 3. 图像参考: 在悠船中可以利用垫图和提示词配合生成符合要求的建筑、风景、文物等。只需将图片复制到悠船的提示词框里面,并填写对应的提示词描述。
2025-04-14
如果我想要系统学习coze,我应该怎么安排?
如果您想要系统学习 Coze,可以参考以下安排: 第一期共学回放 5 月 7 号() 大聪明分享|主题:Agent 的前世今生 每个分享人分享最初是怎么接触 Coze 的,以及现在用 Coze 做什么 20:00@?AJ 主持开场 20:00 21:00 大聪明分享 21:00 21:30 关于 Coze 随便聊聊 5 月 8 号() 大圣分享|主题:我眼中的 AI Agent 以及通过搭建知识库实例入门 Coze 20:00 21:20 大圣分享 5 月 9 号() 艾木分享|主题:Agent 系统的核心构成:Workflow 和 Multiagent Flow(以“Dr.Know”和“卧底”为例 20:00 21:00 艾木分享 21:00 21:30 线上答疑 5 月 10 号() 罗文分享|主题:一个方法解锁 COEZ 所有插件的用法+如何自动化解锁每天抓取 X 内容+改写+发布到飞书 20:00 21:00 罗文分享 5 月 11 号() Itao 分享|主题:和 AI 成为搭子 20:00 21:00 Itao 分享 21:00 21:30 线上答疑 Agent 搭建共学快闪 0619 日程安排 6 月 19 日 20:00 开始 从零到一,搭建微信机器人 0 基础小白 张梦飞 小元 金永勋、奥伏 6 月 20 日 20:00 开始 Coze 接入、构建你的智能微信助手 完成第一课 张梦飞 吕昭波 安仔、阿飞 6 月 23 日 20:00 开始 微信机器人插件拓展教学 完成第一课 张梦飞 安仔 大雨 空心菜、AYBIAO、阿飞 6 月 24 日 20:00 开始 虚拟女友“李洛云”开发者自述 完成第一课 皮皮 安仔 6 月 25 日 20:00 开始 FastGPT:“本地版 coze"部署教学 完成第一课 张梦飞 银海 金永勋、AYBIAO 6 月 27 日 20:00 开始 Hook 机制的机器人使用和部署教学 0 基础小白,一台 Windows 10 以上系统的电脑 张梦飞 Stuart 阿飞、空心菜
2025-04-14
图生图网站排名推荐
以下是为您推荐的图生图网站排名: 1. 文生图: Imagen 3:真实感满分,指令遵从强。 Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 快手可图:影视场景能用,风格化较差。 Flux.1.1:真实感强,需要搭配 Lora 使用。 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 Luma:影视感强,但风格单一,糊。 美图奇想 5.0:AI 油腻感重。 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 SD 3.5 Large:崩。 2. 图生视频: pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 luma 1.6:画面质量挺好,但是太贵了。 可灵 1.6 高品质:YYDS! 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 runway:我的快乐老家,画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds!就是太贵了!!!!! seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 3. 小白也能使用的国内外 AI 生图网站: 可灵可图 1.5:https://app.klingai.com/cn/texttoimage/new 通义万相(每日有免费额度):https://tongyi.aliyun.com/wanxiang/creation 文心一言:https://yiyan.baidu.com/ 星流(每日有免费额度):https://www.xingliu.art/ Libiblib(每日有免费额度但等待较久):https://www.liblib.art/
2025-04-13
图生 视频
以下是关于图生视频的相关内容: 工具教程:清影 什么是图生视频:输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 两个小技巧: 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。 提示词要【简单清晰】:可以选择不写 prompt,直接让模型自己操控图片动起来;明确您想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果您不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确您的【主体】该如何描述。 视频演示 |首帧图|PROMPT|视频(配音版)|视频(纯享版)| ||||| |1、泳池里的小鸭子|Little yellow duck toy floating on the water in the swimming pool,closeup|| |2、洞穴文明|The primitive man raises his hand.The camera zooms out.|| |3、魔法少女|A woman reaches out to touch the glowing box.Particle effects.|| |4、离别列车上的小狗|a dog with Furry white claws the bus window with reflections on the glass,Furry white claws,closeup,ultrarealistic|| |5、古典美女|celine,classic photograph from Life magazine|| |6、废土黑雨|游戏场景在下雨,人物看起来非常担心|| 工具教程:PixVerse V2 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-04-13
手绘草图生成图片
以下是关于手绘草图生成图片的相关信息: ComfyUI Flux 与 runway 制作绘画视频: 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD。 绘制的视频:在 runway 里面,使用提示词,从空白页面开始逐行创建,并把生成的图片作为尾帧。 草图上色:使用 flux 的 controlNet,depth 固定,Union 版本不建议权重调太高,结束时间也不宜过长。 生成上色后的视频: how2draw Flux lora:分享一个好玩的 flux lora,触发词为 how2draw。 图片生成 3D 建模工具: Tripo AI:在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。 Meshy:功能全面,支持文本、图片生成 3D 以及 AI 材质生成。 CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象。 Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域。 VoxCraft:免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型。 【SD】真人转二次元: 使用 Stable Diffusion 中的【X/Y/Z plot】脚本做参数对比,X 轴为提示词相关性(130,每次增加 5),Y 轴为重绘幅度(01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,大于 11 后画面色彩和脸型可能崩坏,重绘幅度大小可控制生成图与原图的相似度。 绘图功能:如增加红色眼镜、去掉衣服图案、局部重绘(手涂蒙版)修改部分等。
2025-04-01
怎么用图生成png格式的新图
以下是用图生成 PNG 格式新图的方法: 使用 Stable Diffusion: 1. 若在网上看到好看的大佬的图,将其导入 SD。若能识别,右边会自动弹出照片的信息,包括正面关键词、负面关键词,还有其他种子、大模型等信息。 2. 复制这一大串信息,来到“文生图”页面,粘贴到关键词的文本框中。 3. 点击“生成”按钮下面的第一个小按钮,SD 会自动分配信息,在有相同大模型和 Lora 的前提下,点击生成,可能得到差不多的照片。 4. 若导入照片后右边未出现生成信息,说明照片不是直接从 SD 下载下来的 PNG 格式照片,此时可使用“标签器(Tagger)”来生成照片的关键词。 使用 OpenAI 的图像生成端点: 1. 图像生成端点允许在给定文本提示的情况下创建原始图像,生成的图像大小可为 256x256、512x512 或 1024x1024 像素,较小尺寸生成速度更快。可使用参数一次请求 1 10 张图像。描述越详细,越有可能获得想要的结果,也可在 DALL·E 预览应用程序中探索示例获取更多提示灵感。 2. 图像编辑端点允许通过上传蒙版来编辑和扩展图像。遮罩的透明区域指示应编辑图像的位置,提示应描述完整的新图像,而不仅仅是擦除区域。上传的图片和遮罩必须是小于 4MB 的正方形 PNG 图片,且尺寸相同。生成输出时不使用遮罩的非透明区域。
2025-03-27
思维导图生成ai
以下是一些与思维导图相关的 AI 工具: 1. GitMind:免费的跨平台思维导图软件,可通过 AI 自动生成思维导图,支持多种模式,如提问、回答、自动生成等。 2. ProcessOn:国内的思维导图与 AIGC 结合的工具,能利用 AI 生成思维导图。 3. AmyMind:轻量级在线 AI 思维导图工具,无需注册登录,支持自动生成节点。 4. Xmind Copilot:Xmind 推出的基于 GPT 的 AI 思维导图助手,可一键拓展思路,生成文章大纲。 5. TreeMind:“AI 人工智能”思维导图工具,输入需求后由 AI 自动完成思维导图生成。 6. EdrawMind:提供一系列 AI 工具,包括 AI 驱动的头脑风暴功能,有助于提升生产力。 总的来说,这些工具都能通过 AI 技术自动生成思维导图,提高制作效率,为知识工作者带来便利。 此外,还有一些关于思维导图生成的相关信息: 在使用 flowith 时,可通过引用节点技巧让 AI 根据特定参照输出高关联度内容,还可对比不同模型输出择优深挖,在满意内容节点添加“文本编辑器显示”进行精加工。 12 月更新的生成式 AI 年终数据中,思维导图相关的如 Whimsical Al 等也有相关流量等数据统计。
2025-03-25
高清视频修复ai工具
以下为一些高清视频修复的 AI 工具: 1. 星流一站式 AI 设计工具: 高级模式下,基础模型允许使用更多的微调大模型,图片参考允许使用更多的图像控制功能。星流基础大模型下,增加了 tile 分块与 softedge 线稿。 高清分辨率修复:利用算法对初步生成的图像进行简单的图生图高清放大(目前仅支持基础模型 xl 和 1.5 模型)。 放大算法影响图像放大后的图像质量,重绘幅度与初步生成的图像的相似度,其他参数默认即可。 采样器和采样步数会影响出图质量和生成时间,随机种子和 CFG Scale 也有相应作用,脸部/手部修复利用算法对人像的脸部或者手部进行修复。 2. Pika: 发布 Pikaddition 能力,可以将用户图片物体融合到拍摄视频,不会改变原视频且保证新视频创意效果自然。 支持用户自行上传视频(视频时长需 5s 以上),支持物体、人物(卡通、真人)图像,有 15 次免费尝试机会。 使用方法:进入 Pika 官网,页面底部选择 Pikaddition,上传视频、图像,输入文字描述提示词,点击确认即可。 地址:https://pika.art/ 3. Topaz Labs: 推出 Starlight 首个用于视频修复的扩散模型,只需输入素材,AI 可自动降噪、去模糊、放大、抗锯齿,无需手动调整与参数调整,达成专业视频高清修复。 目前正在 Beta 中。 地址:https://www.topazlabs.com/ 4. Tusiart: 具有高清修复功能,在本来设置的图像分辨率基础上,让图像分辨率变得更加精细。 有 ADetailer 面部修复插件。
2025-04-14
老照片变高清
以下是使用 AI 将老照片变高清的步骤: 1. 给老照片上色:为做到颜色与内容统一,可启用 cutoff 插件,按顺序设置好颜色提示词。不了解该插件的可参考文章。 2. 使照片人脸变清晰:将照片放入后期处理,使用 GFPGAN 算法,可参考文章。但此步骤无法使头发、衣服等元素变清晰。 3. 放大照片:将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 4. 显存不够时:启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染功能帮助放大图片。 5. 处理复杂照片:对于人物多、场景复杂、像素低的照片,可先在 ps 里调整角度和裁切,然后上色。若直接上色效果不佳,可放弃人物服装颜色指定,只给场景方向,让 AI 自行决定。还可加入第二个 controlnet 控制颜色,使用 t2ia_color 模型,给出简单关键词,如“蓝天、绿树、灰石砖”。最后进行脸部修复和放大。
2025-04-13
生成高清视频
以下是关于生成高清视频的相关信息: Meta 发布的 Meta Movie Gen 文生视频模型: 由视频生成和音频生成两个模型组成。 Movie Gen Video 是 30B 参数的 Transformer 模型,能从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens,可进行精确视频编辑和个性化视频生成,在保持角色身份一致性和运动自然性方面表现出色,通过预训练微调范式完成,沿用了 Transformer 特别是 Llama3 的许多设计,预训练阶段在海量视频文本和图像文本数据集上联合训练,微调阶段进行有监督微调,还引入流匹配作为训练目标,效果优于扩散模型。 Movie Gen Audio 是 13B 参数的 Transformer 模型,能接受视频输入及可选文本提示生成高保真音频。 Sora 相对于其他文本生成视频 AI 的优势: 能够生成高达一分钟的高清视频。 支持生成不同分辨率、纵横比的视频。 能生成显示人物复杂、动态运动的视频,运动自然流畅。 能够捕捉和再现丰富的场景细节。 在生成长视频时能保持场景和角色的一致性。 能够处理多角色交互,角色互动自然有信服力。 采用类似 GPT 的技术,自然语言理解强大。 能模拟动作对环境的影响。 可以模拟视频游戏等数字环境。 一些海外的 AI 视频生成工具: Haiper(有免费额度):https://haiper.ai/ ,能文生视频、图生视频、素描生视频、扩展视频,生成 HD 超高清视频,文生视频支持选择风格、秒数、种子值,图生视频只能写提示词、秒数、种子值,还能进行视频重绘和局部重绘。 DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile ,能生成 2 秒图生视频,还可以做短视频拼长视频。 Morph studio(内测):https://app.morphstudio.com/ ,暂未对外开放,可在官网提交内测申请,discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3 秒视频。
2025-03-25
能将像素低的图片高清化的AI工具
目前有一些可以将像素低的图片高清化的 AI 工具,例如: 1. Topaz Gigapixel AI:能够通过深度学习算法对图片进行放大和增强,提高清晰度和细节。 2. Adobe Photoshop 的增强功能:Photoshop 中的一些智能滤镜和插件也可以在一定程度上改善图片的清晰度。 需要注意的是,不同的工具在处理不同类型的图片时效果可能会有所差异,您可以根据具体需求进行选择和尝试。
2025-03-19
我现在要对一些很糊的图像进行图像修复,就是把图像变高清,有什么工具吗?
以下是一些可用于图像修复变高清的工具和方法: 1. 图像修复放大流程: 输入原始图像:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Iceclear/StableSR 模型,并搭配 Stable SR Upscaler 模型,推理图片噪点以还原图像。提示词应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)。 图像高清放大:对第一次放大修复后的图像进行二次修复,realisticVision 底膜效果较好。使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型进行二次放大。 2. 星流一站式 AI 设计工具: 右侧生成器的高级模式:与入门模式相比增加了基础模型、图片参考等更多功能。基础模型允许使用更多微调大模型和更多图像控制功能,如高清分辨率修复等。同时,还可以调整放大算法、重绘幅度等参数,以及选择不同的采样器。 3. SD 新手入门图文教程: 文生图最简流程中的一些参数: CFG Scale(提示词相关性):控制图像与提示的匹配程度,一般开到 7 11。 生成批次和每批数量:影响生成图像的组数和数量。 尺寸:推荐使用小尺寸分辨率结合高清修复(Hires fix)。 种子:决定模型生成图片的随机性。 高清修复:通过勾选“Highres.fix”启用,先按指定尺寸生成图片,再通过放大算法扩大分辨率以实现高清大图效果。
2025-03-04
老旧照片高清修复
以下是关于老旧照片高清修复的方法: 1. 使用 Stable Diffusion 进行修复: 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。可参考文章。 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。可参考文章。 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 为做到颜色与内容的统一,启用 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。可参考文章。 2. 使用 ComfyUI 进行修复: 结合 Flux Controlnet Upscale 模型,以前的工作流比较复杂,现在只要十几个基础的节点就能实现同样的效果,甚至可能更好。 参数调节:一般先确认放大的倍数,然后根据出来的图片调整 controlNet 的强度。 ControlnetUpscaler 放大模型:Flux.1dev ControlNet 是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。其训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 Flux Ultimator 细节增强:能增加小细节,让图像尽可能逼真,可放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用效果好,结合时需将强度降低小于 0.5。 T5 Clip:如果发现出来的图片质量细节不够,选择 fp16 的版本。 图像的传递:controlNet 这里传递的应该是上传的原始图片,因为这个是 controlNet 而不是潜空间图像。
2025-01-19