Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

放大图片

Answer

在 AI 绘画领域,放大图片有以下相关知识:

Midjourney 中放大图片的方法

  • 使用 /imagine 命令生成低分辨率图像选项网格,每个图像网格下方的按钮可用于创建图像的变体、升级图像或重新运行最后一个 Midjourney Bot 操作。
    • U1U2U3U4 按钮将图像与图像网格分开,使用旧版 Midjourney 模型版本时,U 按钮会放大图像,生成所选图像的更大版本并添加更多细节。
    • 重做(重新滚动)按钮重新运行作业。
    • V1V2V3V4V 按钮创建所选网格图像的增量变化。
    • 制作变体:创建放大图像的变体并生成包含四个选项的新网格。网页:在Midjourney.com上打开图库中的图像,最喜欢的:标记您最好的图像,以便在 Midjourney 网站上轻松找到它们。
  • 直接消息:如果#general 或#newbie 频道进展太快,Midjourney 订阅者可以在其 Discord 直接消息中与 Midjourney 机器人进行一对一的合作。
  • 使用 Midjourney Vary Region 编辑器选择并重新生成放大图像的特定部分。Vary(Region)按钮会在中途图像放大后出现,区域差异由原始图像中的内容和您选择的区域决定,与 Midjourney 模型版本 V5.0、V5.1、V5.2、niji 5 兼容。具体操作步骤如下:
    1. 生成图像:使用命令创建图像/imagine。
    2. 升级图像:使用 U 按钮放大所选图像。
    3. 选择不同区域:点击🖌️Vary(Region)按钮,打开编辑界面。
    4. 选择要再生的区域:选择编辑器左下角的手绘或矩形选择工具,选择要重新生成的图像区域。注意选择的大小会影响结果,更大的选择为 Midjourney 机器人提供更多空间来生成新的创意细节,较小的选择将导致更小、更微妙的变化。无法编辑现有选择,但可以使用右上角的撤消按钮撤消多个步骤。
    5. 提交您的工作:单击 Submit→按钮将您的请求发送到 Midjourney Bot。
    6. 查看结果:中途机器人将处理您的作业并在您选择的区域内生成一个新的变化图像网格。

Stable Diffusion 中放大图片的相关设置

  • 文生图是仅通过正反向词汇描述来发送指令。在进行文本描述时,分为内容型提示词和标准化提示词,内容型提示词主要用于描述想要的画面。
  • 采样迭代步数通常数值控制在 20 - 40 之间,步数越高绘画越清晰,但绘画速度也会越慢。
  • 采样方法一般常用的为:Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM。有的模型会有指定的算法,搭配起来更好用。
  • 将比例设置为 800:400,注意尺寸并非越大越好,模型的练图基本上都是按照 512x512 的框架去画,高宽比尽量在这个数值附近。太大的数值比如 1920x1080,会使 AI 做出很奇怪的构图。若想要高清的图,可以同时点选高清修复来放大图像倍率,高宽比主要是控制一个画面比例。
Content generated by AI large model, please carefully verify (powered by aily)

References

MJ手册·如何使用MJ

该/imagine命令根据您的提示生成低分辨率图像选项网格。使用每个图像网格下方的按钮创建图像的变体、升级图像或重新运行最后一个Midjourney Bot操作。[heading3]高档纽扣[content]U1U2U3U4按钮将图像与图像网格分开,使您可以轻松下载该图像或使用其他工具,例如[“缩小”](https://docs.midjourney.com/docs/zoom-out)或[“平移”](https://docs.midjourney.com/docs/pan)。使用旧版Midjourney模型版本时,U按钮会[放大](https://docs.midjourney.com/legacy/docs/upscalers)图像,生成所选图像的更大版本并添加更多细节,这会使用快速GPU时间。[heading3]重做[content]🔄重做(重新滚动)按钮重新运行作业。在这种情况下,它将重新运行原始提示,生成新的图像网格。[heading3]变化按钮[content]V1V2V3V4V按钮创建所选网格图像的增量[变化。](https://docs.midjourney.com/docs/variations)创建变体会生成与所选图像的整体风格和构图相似的新图像网格。[heading1]放大图像[content]🪄Make VariationsWeb↗️❤️Favorite制作变体:创建放大图像的变体并生成包含四个选项的新网格。网页:在[Midjourney.com](https://www.midjourney.com/home/)上打开图库中的图像最喜欢的:标记您最好的图像,以便在Midjourney网站上轻松找到它们。[heading1]直接消息[content]如果#general或#newbie频道进展太快,Midjourney订阅者可以在其Discord直接消息中与Midjourney机器人进行一对一的合作。[了解如何向中途机器人直接发送消息](https://docs.midjourney.com/docs/direct-messages)

Vary (Region)不同区域

该Vary(Region)按钮会在中途图像放大后[出现](https://docs.midjourney.com/upscalers)。区域差异由原始图像中的内容和您选择的区域决定。[与Midjourney模型版本](https://docs.midjourney.com/models)、、和Vary(Region)兼容V5.0V5.1V5.2niji 5[heading1]如何使用不同区域[heading2]1.生成图像[content]使用命令创建图像/imagine。[heading2]2.升级图像[content]使用U按钮放大所选图像。[heading2]3.选择不同区域[content]点击🖌️Vary(Region)按钮,打开编辑界面。[heading2]4.选择要再生的区域[content]●选择编辑器左下角的手绘或矩形选择工具。●选择要重新生成的图像区域。○您选择的大小将影响您的结果。更大的选择为中途机器人提供了更多空间来生成新的创意细节。较小的选择将导致更小、更微妙的变化。注意:您无法编辑现有选择,但可以使用右上角的撤消按钮撤消多个步骤。[heading2]5.提交您的工作[content]单击Submit→按钮将您的请求发送到Midjourney Bot。现在可以关闭Vary Region编辑器,并且在处理作业时您可以返回Discord。注意🖌️Vary(Region)您可以多次使用放大图像下方的按钮来尝试不同的选择。您之前的选择将被保留。您可以继续添加到此现有选择或使用undo按钮清除您的选择。[heading2]6.查看结果[content]中途机器人将处理您的作业并在您选择的区域内生成一个新的变化图像网格。[heading1]不同区域的示例[content]放大图像提示:彩色糖果胸针选择结果放大图像提示:房屋建筑图选择结果

【SD】文生图怎么写提示词

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-05-01 20:00原文网址:https://mp.weixin.qq.com/s/kwNfc9NCaKJRy30wHI95UgStable Diffusion的生成方式主要分为文生图和图生图两种:文生图是仅通过正反向词汇描述来发送指令;图生图除了可以添加文字以外,还可以给AI参考图进行模仿,也就是我们常说的“垫图”。接下去就是对你想要的图形进行文本描述,文本描述上又分为两类:内容型提示词和标准化提示词。内容型提示词主要用于描述你想要的画面,我们选择anythingV5这个专门用于二次元绘画的大模型,然后输入以下提示词:1个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面。(使用翻译软件翻译成英文)采样迭代步数是指AI绘画去噪的次数,步数越高绘画越清晰,但是绘画速度也会越慢,通常数值控制在20-40之间最好。采样方法是指AI生成图像时候的某种特定算法,我们不用全部了解,一般常用的为:Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM。有的模型会有指定的算法,搭配起来更好用。将比例设置为800:400,注意这里的尺寸并不是越大越好,因为模型的练图基本上都是按照512x512的框架去画,所以我们的高宽比尽量都在这个数值附近。太大的数值比如1920x1080,会使AI做出很奇怪的构图。那你就会说,我就想要很高清的图怎么办,其实Stable Diffusion也提供了图片放大的功能,我们可以同时点选这个高清修复来放大图像倍率,而高宽比我们只要记住这里主要是控制一个画面比例就可以了。

Others are asking
ComfyUI中的放大插件
ComfyUI 中的放大插件相关知识如下: 通过使用神经网络对潜在空间进行放大,无需使用 VAE 进行解码和编码,此方法比传统方式快很多且质量损失小。插件项目地址:https://github.com/Ttl/ComfyUi_NNLatentUpscale?tab=readmeovfile 。潜在表示是神经网络处理图像时生成的压缩版本,包含图像主要特征信息,处理潜在表示更快且资源消耗更少。其流程包括生成潜在表示(生成低分辨率图像)、放大潜在表示、生成高分辨率图像(将放大的潜在图像反馈到稳定扩散 UNet 中进行低噪声扩散处理)。UNet 是一种常用于图像处理的特别神经网络结构,包括编码部分(逐步缩小图像提取重要特征)、解码部分(逐步放大图像并重新组合)和跳跃连接(保留细节信息),能在放大图像时保持细节和准确性。 8 月 13 日的 ComfyUI 共学中,讨论了图像生成中分辨率和放大方式。不同模型有适合的分辨率,如 SD1.5 通用尺寸为 512×512 或 512×768,SDXL 基础尺寸为 1024×1024,生成图像前要选对尺寸。通过浅空间缩放放大图像时,直接对浅空间图片编辑放大,然后进行第二次采样和高清处理,直接放大不解码会模糊,需用较低采样系数增加细节。也可使用外置放大模型放大图像,默认放大 4 倍,可通过 resize image 节点调整尺寸,放大后要送回编码器进行采样处理。还提到图像对比节点、算力和资源获取、AI 绘图相关技术与工具、CLIP 和 CFG 的区别、搭建带 Lora 的图生图工作流等内容。 Comfyui PuLID 人物一致节点相关:节点插件 PuLID ComfyUI https://github.com/cubiq/PuLID_ComfyUI 。包括 model(使用预训练的基础文本到图像扩散模型)、pulid(加载的 PuLID 模型权重)、eva_clip(用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型)、face_analysis(使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部)、image(提供的参考图像用于插入特定 ID)、method(选择 ID 插入方法)、weight(控制 ID 插入强度)、start_at 和 end_at(控制在去噪步骤的应用阶段)、attn_mask(可选的灰度掩码图像),还有高级节点可进行更精细的生成调优。
2025-02-20
图片放大
以下是关于图片放大的相关信息: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可以增加更多细节 开源工作流: stability.ai 的:https://clipdrop.co/tools 画质增强: https://magnific.ai/ https://www.krea.ai/apps/image/enhancer https://imageupscaler.com/ https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 https://imglarger.com/ https://letsenhance.io/ http://waifu2x.udp.jp/ 在 SD 中进行图片放大: 使用过插件、脚本和后期处理,原理相同,好坏需尝试,因为 AI 生图有随机性。 在 Tiled Diffusion 中,MultiDiffusion 方案适合图像重绘、风格迁移和放大等功能。 四个滑块代表分块大小、分块之间的重叠像素和同时处理的分块数量,数值越大效果越好、速度越快,数值越小占用显存越小,一般保持默认,重叠像素大小建议使用 MultiDiffusion 时选择 32 或 48,使用 Mixture of Diffusers 选择 16 或 32。 Tiled VAE 可极大程度降低 VAE 编解码大图所需的显存字节,分块大小根据电脑情况调节,数值越小占用显存越低。 生成 512x512 的图片,发送到图生图进行重绘,选择熟悉的放大算法和所需的放大倍数,重绘幅度设置为 0.35,放大算法下面的噪声反转可在重绘前对原图像进行噪声图反推,让放大的图片更接近原图。 在 SD 中文生图的相关提示词: Stable Diffusion 的生成方式主要分为文生图和图生图两种,文生图仅通过正反向词汇描述发送指令,图生图除文字外还可给 AI 参考图进行模仿(垫图)。 文本描述分为内容型提示词和标准化提示词,内容型提示词用于描述想要的画面,例如:1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面(使用翻译软件翻译成英文)。 采样迭代步数通常控制在 20 40 之间,采样方法常用的有:Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM。 比例设置为 800:400,高宽比尽量在 512x512 数值附近,太大的数值会使 AI 构图奇怪,可同时点选高清修复来放大图像倍率。
2024-12-20
好用的图片无损高清放大
以下是关于图片无损高清放大的相关内容: 图像修复放大的流程分为三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,因其处理时间长。 2. 图像高清修复:使用 Iceclear/StableSR 等模型进行高清修复并 2 倍放大,提示词应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)等。全程采取两次高清修复,第一次修复原始图像分辨率并放大。 3. 图像高清放大:针对第一次放大修复后的图像进行二次修复,用 realisticVision 底膜,使用提示词反推 node 对图像进行画面提示词提取,搭配 tile ControlNet 提升画面细节感,用合适的高清放大模型进行二次放大。 【SD】超清无损放大器 StableSR: 作者为白马少年,发布于 2023 年 6 月 10 日 20:01,原文网址:https://mp.weixin.qq.com/s/J0HIF2U1siAen6FWNA67A 。 之前讲过在 Stable Diffusion 中绘制高清大图的方式,主要用到“脚本”和“后期处理”,其中脚本以“Ultimate SD upscale”为主,会改变原图细节;“后期处理”是 Stable Diffusion 自带的扩图功能,适用于所有图片,可按原图内容扩图,但无法还原原图不清晰的地方。 今天讲的 StableSR 可算作“后期处理”的上位替代品,能在尽可能保留原图的情况下更精致地还原原图。安装方式:在扩展面板中搜索 StableSR 直接安装,或将下载好的插件放在“……\\sdwebuiakiv4\\extensions”文件夹下,安装完成后重启 webUI 即可在脚本中找到。 修复需使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹;StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹;VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 测试:用一张网上找的分辨率为 512x768 的神仙姐姐照片,“Ultimate SD upscale”脚本放大哪怕重绘幅度只开到 0.1,人物细节有变化但磨皮严重,重绘幅度开到 0.4 则变化很大;“后期处理”放大 3 倍,眼神变锐利但头发仍模糊;StableSR 放大时,先调整大模型和 VAE,打开脚本下拉选择“StableSR”,模型选择对应模型,放大倍数为 3,勾选“pure noise”。
2024-11-12
ai放大图片的工具
以下是一些 AI 放大图片的工具: 1. 本地工具放大:https://www.upscayl.org/download 2. SD 放大:扩散模型可以增加更多细节 3. 开源工作流: 4. stability.ai 的 https://clipdrop.co/tools 5. 画质增强 magnific 遥遥领先:https://magnific.ai/ 6. Krea https://www.krea.ai/apps/image/enhancer 7. Image Upscaler:https://imageupscaler.com/ 8. 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 9. 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 10. 腾讯开源的模型,能恢复老照片: https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 11. 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 12. Imglarger:https://imglarger.com/ 13. Let's Enhance:https://letsenhance.io/ 14. Waifu2x:http://waifu2x.udp.jp/ AI 画质增强工具是利用人工智能技术对图像进行处理,提高图像质量和清晰度的工具。它能自动识别图像中的细节、纹理和边缘并增强,适用于摄影、视频编辑、医学影像、安全监控等场景。常见的 AI 画质增强工具包括: 1. Magnific:https://magnific.ai/ 2. ClipDrop:https://clipdrop.co/imageupscaler 3. Image Upscaler:https://imageupscaler.com/ 4. Krea:https://www.krea.ai/ 更多工具可以查看网站的图像放大工具库:https://www.waytoagi.com/category/17 。这些工具具有不同特点和功能,可根据具体需求选择合适的使用。 开源的 Magnific AI 的图片放大工作流相关信息: 视频: 模型下载: Replicate 接口:https://replicate.com/philipp1337x/multidiffusionupscaler 原贴地址: 更多放大工具和方法: 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-22
AI图片放大
AI 图片放大是指通过人工智能技术对图片进行放大处理,以获得更高分辨率、更清晰的图片。以下是几种 AI 图片放大的方法: 本地工具放大:通过使用一些图像处理软件或在线工具,可以对图片进行放大处理。这些工具通常使用传统的图像处理技术,如双线性插值、双三次插值等,以增加图片的分辨率。但是,这些方法可能会导致图片的质量下降,出现锯齿、模糊等问题。 SD 放大:扩散模型可以增加更多细节。在我们的 Tiled Diffusion 中,MultiDiffusion 方案就很适合图像的重绘、风格迁移和放大等功能。可以通过调整分块的大小、重叠像素、同时处理的分块数量等参数来控制图像的放大效果。此外,Tiled VAE 可以极大程度地降低 VAE 编解码大图所需的显存字节,从而提高图像的放大效率。 开源工作流:有一些开源的 AI 图片放大工作流,如 Magnific AI、Krea、Image Upscaler 等。这些工作流通常使用深度学习技术,如卷积神经网络(CNN)、生成对抗网络(GAN)等,以提高图片的放大质量。这些工作流通常需要一定的技术知识和计算资源,但可以获得更好的放大效果。 在线工具:有一些在线工具,如佐糖、腾讯 ARC、美图老照片修复等,可以对图片进行放大处理。这些工具通常使用深度学习技术,以提高图片的放大质量。这些工具通常需要上传图片,并且可能会受到网络带宽和服务器性能的限制。 总的来说,AI 图片放大是一种非常有用的技术,可以帮助我们获得更高分辨率、更清晰的图片。不同的方法各有优缺点,需要根据具体的需求和情况选择合适的方法。
2024-05-21
生成一个标注宽1550mm,长2285mm的长方形图片
很抱歉,暂时无法直接为您生成指定尺寸的长方形图片。但您可以使用专业的图像编辑软件,如 Adobe Photoshop、Illustrator 等,或者一些在线图像生成工具,按照以下步骤来创建: 1. 打开所选的图像编辑工具或在线工具。 2. 在新建文档或项目时,设置宽度为 1550mm,长度为 2285mm。 3. 根据您的需求进行后续的图像绘制、编辑或添加元素等操作。 希望这些信息对您有所帮助。
2025-02-20
生成一个标注宽1550mm,长2285mm的图片
很抱歉,目前仅根据您提供的“生成一个标注宽 1550mm,长 2285mm 的图片”这一需求,无法直接为您生成相应图片。您能否再补充一些更具体的信息,比如图片的内容、风格、用途等,以便为您提供更有效的帮助。
2025-02-20
如何图片生成视频
以下是图片生成视频的方法: 1. 使用 Runway: 图片准备好后,拖到 Runway 里生成 4 秒视频(Runway 收费,可在闲鱼或淘宝买号,也可找免费的)。 进入 Runway 官网首页,点击“start with image”。 直接将图片拖进来。 动画幅度尽量用 3,5 有时会乱跑。 无需等进度条转完,可直接继续往里放图片,能同步执行。 直接点删除,重新上传下面的图,重复步骤生成所有视频。 2. 使用 Camera Motion: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择想要的运镜方向,输入运镜值(https://waytoagi.feishu.cn/docx/Ci9yd5xu2o46rXxNofdcnqH9nXbdoxcniTMBNtWHj6MSpXvB2DTyUh)。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可设置成任意值。 选择好种子(seed)、是否高清(HD Quality)、是否去除水印(Remove Watermark),然后点击“create”生成视频。 3. 使用 Pika: 要生成视频,进入 generate 频道,目前有 10 个 generate 频道,随便选择一个进入。 PIKA 生成视频的工作流程: 直接生成视频:在输入/create,然后输入 prompt,得到视频。 图片生成视频:使用 MJ/SD 生成图像(可选)+在 PIKA 平台添加 prompt=得到视频。
2025-02-19
有没有把视频截取成图片的或者剪辑的AI工具
以下是一些可以将视频截取成图片或进行剪辑的 AI 工具: 1. Clipfly :可用于视频编辑与合成。 2. VEED.IO :能帮助进行视频编辑。 3. MMVid :这是一个集成的视频理解系统,能处理和理解长视频内容并进行问答,可应用于快速的视频剪辑等场景。 4. 可灵 AI :例如通过其图生视频功能进行相关操作。 此外,在进行视频剪辑时,还可以使用剪映等工具,具体步骤如下: 1. 在右上方点击抠像按钮。 2. 鼠标选中要处理的素材。 3. 把带绿幕的素材先放入下面主视频轨道。 4. 导入需要的素材,将扣好的绿幕和下方黑色咖啡的素材合成一个片段,最后点击新建的复合片段,调整对应的参数。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-02-19
可以把图片用很精确的中文描述出来的AI
以下是关于图片描述和文生图提示词的相关内容: 利用 GPT 识图功能对图片进行细致描述: 对于一张包含中国小男孩和年轻男子的照片,小男孩站在年轻男子右侧,面带灿烂微笑,露出整齐乳牙,黑色短发蓬松且有微卷刘海,大眼睛充满好奇,身着蓝色衬衫和白色针织背心,干净整洁。年轻男子站在左侧,弯腰与小男孩同高,面带温和笑容,眼神充满喜爱,黑色头发梳得整齐,发尾微卷,五官分明,浓眉大眼,高挺鼻梁,薄唇微弯,身着正式黑色西装、白衬衫和黑领结,帅气迷人。两人并肩站立,男子右手轻放小男孩肩上,小男孩左手搭在男子手臂上,姿态和表情传递出深厚的情感与相互支持,场景充满温暖和谐。 对于一张成年男性的人物照片,其年龄约 20 至 30 岁,头发黑亮整齐梳向后方,发尾微卷,肤色白皙,面部线条分明,五官端正,浓眉大眼,鼻梁高挺,嘴唇薄而有弧度,表情略显严肃但英俊,下巴线条明显,脸部轮廓立体,身着正式黑色西装、内搭白色衬衫并佩戴黑色领结,左手握话筒,似在参加正式场合或演讲,背景简约浅色,突出人物主体,展现出自信专业气质,具有典型亚洲男性特征。 在 Stable Diffusion 中文生图时的提示词: 避免使用过大的数值(如 1920x1080),以免构图奇怪。若想要高清图,可同时点选高清修复来放大图像倍率,记住高宽比主要控制画面比例。 调整好参数生成图片后,若质感欠佳,可使用标准化提示词,如“,绘图,画笔”,使画面更趋近于固定标准。
2025-02-19
图片生成工具
以下是一些常见的图片生成工具: 1. Tripo AI:由 VAST 发布的在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型,基于数十亿参数级别的 3D 大模型,实现快速的 2D 到 3D 转换,提供 AI 驱动的精准度和细节。 2. Meshy:功能全面,支持文本生成 3D、图片生成 3D 以及 AI 材质生成,用户可上传图片并描述材质和风格来生成高质量 3D 模型。 3. CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象再转换为 3D 模型。 4. Sudo AI:支持通过文本和图像生成 3D 模型,特别适用于游戏领域的模型生成,用户可上传图片或输入文本提示词来生成。 5. VoxCraft:由生数科技推出的免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型,并提供图像到 3D、文本到 3D 和文本到纹理等多种功能。 此外,谷歌图像生成工具具有理解能力强、生成速度快、可调整提示词和选项等特点,但有使用门槛,不能输入中文,每日免费 500 次。纳米搜索反推提示词工具可上传图片反推 midjourney 提示词,输出效果好,能调用多种模型,可用于查阅资料。 OpenAI 的图像生成端点允许在给定文本提示的情况下创建原始图像,生成的图像大小可为 256x26、512x512 或 1024x1024 像素,较小尺寸生成速度更快,可使用参数一次请求 1 10 张图像,描述越详细越可能获得想要的结果。其图像编辑端点允许通过上传蒙版来编辑和扩展图像。 这些工具通常具有用户友好的界面,无需专业 3D 建模技能即可简单操作,广泛应用于游戏开发、动画制作、3D 打印、视觉艺术等领域。
2025-02-19