Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有哪些好用的SD扩图

Answer

以下是一些关于 SD 扩图的好用方法和相关信息:

  1. 高清修复:
    • 原理是命令 AI 按照原来的内容重新画一幅,新生成的绘图和原来的绘图在细节上会有所不同。
    • 适当降低重绘幅度可以更接近之前的绘图,如 0.2 - 0.3 能保留较多原有细节,但可能出现如手部等部分的问题,可通过反复抽卡、图生图局部重绘或生成多张图片后 PS 合成等办法解决。
    • 由于渲染耗时较长,建议先采用低分辨率抽卡刷图,抽到喜欢的图后用随机种子固定再进行高清修复。
  2. 图生图脚本功能:
    • 文生图画好图后发送到图生图,点击下面的脚本,选择使用 SD 放大。
    • 重绘幅度设置 0.3,放大倍率为 2,图块重叠的像素设置为 64。
    • 这种方式需保持重绘幅度较低,否则可能出现新人物。
  3. 超清无损放大器 StableSR:
    • 可以算作“后期处理”的上位替代品,能在尽可能保留原图的情况下更精致地还原原图。
    • 安装方式:在扩展面板中搜索 StableSR 直接安装,或将下载好的插件放在“……\sd-webui-aki-v4\extensions”路径文件夹下,安装完成后重启 webUI 即可在脚本中找到。
  4. 二维码相关的 SD 扩图:
    • 与第二步相同的关键词和模型,按照特定参数设置,如原本图片尺寸为 1152x1152 ,需要增高高度可设置为(1152x1526)。
    • 对于无法识别处理的情况,可采取提高 ControlNet 的权重、降低重绘幅度、将原始黑白二维码叠加并调节透明度、使劲抽卡等方法。
Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】如何画出商用级别的高清大图

我们看一下高清修复下的这张画,文生图高清修复的原理其实是命令AI按照原来的内容重新画一幅,所以新生成的绘图和原来的绘图在细节上会不太一样。如果想要更接近之前的绘图,可以适当降低重绘幅度。我们来对比一下修复前后的区别,这次使用的重绘幅度为0.7,所以可以看到帽子和耳机都有了变化,想要保留原来的细节,可以尝试0.2-0.3。我们再使用重绘幅度为0.3绘制一下,可以看到服饰细节就比较接近了,但是由于重绘幅度低,手部就出现了问题。这种情况,就要通过反复抽卡,图生图局部重绘,或者生成多张图片后进ps合成等办法去解决。由于高清修复的渲染耗时比较长,所以我们一般建议先采用低分辨率进行抽卡刷图,当抽到自己比较喜欢的图之后,再使用随机种子来固定图片进行高清修复。二、SD放大第二种方式是使用图生图的脚本功能,当我们使用文生图画好一张图之后,可以将它发送到图生图。点击下面的脚本,选择使用SD放大。重绘幅度设置0.3,放大倍率为2,图块重叠的像素设置为64。这张图原本的尺寸为512x768,此时需要加上重叠像素的64,就变成了576x832。可以看到,这次的Stable Diffusion是将这张图均匀地切成了四块,然后分别渲染,最终拼接成一整张图,这种方式需要让我们重绘幅度保持在比较低的数值,不然这新生成的四张图中可能会出现新的人物。

【SD】超清无损放大器StableSR

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-06-10 20:01原文网址:https://mp.weixin.qq.com/s/J0HIF2U1siAen6FW-NA67A之前,我们讲到过一期如何在Stable Diffusion中绘制高清大图——[【Stable Diffusion】如何画出商用级别的高清大图](http://mp.weixin.qq.com/s?__biz=MzA3ODY0OTc1NQ==&mid=2247486230&idx=1&sn=dde16ebbd5078661c21835c94db554dc&chksm=9fbecbe2a8c942f48cfe40eaea15ff963db9b4fe1c9a8aed330ee718bcf6720e491fc9237a7e&scene=21#wechat_redirect)。主要用到了“脚本”和“后期处理”这两种类型的方式,其中脚本以“Ultimate SD upscale”为主,这种方式主要是通过大模型重绘来实现高清化的,所以生成的图像会改变原图的一些细节;“后期处理”的方式是Stable Diffusion自带的扩图功能,适用于所有图片包括野图,它的特点就是可以完全按照原图的内容进行扩图,当然缺点是原图不清晰的地方也没有办法还原。今天要讲的放大器可以算作是“后期处理”的上位替代品,它是可以在尽可能保留原图的情况下,更精致的还原原图,这个脚本就是——StableSR。安装方式就是在扩展面板中搜索StableSR,可以直接安装。或者是将下载好的插件,放在这个路径文件夹下“……\sd-webui-aki-v4\extensions”。安装完成后,重启webUI,就可以在这个脚本里面找到这个放大器了。

教程:详细二维码

和第二步一样的关键词和模型发送过来,按照下面的参数设置我原本的图片尺寸是1152x1152我需要增高高度这里设置为(1152x1526)ControlNet设置[heading3]4、无法识别处理[content]能扫码不能长按识别1、提高ControlNet的权重(增加预处理权重,降低引导介入时机直到为0,增加引导终止时机直到为1)2、或降低重绘幅度(高清修复大图的时候才用的上)3、把原始的黑白二维码叠加在二维码上方(正片叠底,保留4个定位点,擦去其他地方),调节下透明度。4、使劲的抽卡!!!

Others are asking
有什么软件可以基于原图扩图?除了adobe
以下为您介绍两款除 Adobe 外可以基于原图扩图的软件: 1. 【SD】超清无损放大器 StableSR: 作者:白马少年。 之前讲过在 Stable Diffusion 中绘制高清大图的方式,包括“脚本”和“后期处理”。脚本以“Ultimate SD upscale”为主,会改变原图细节;“后期处理”是 Stable Diffusion 自带的扩图功能,适用于所有图片包括野图,但无法还原原图不清晰的地方。 今天介绍的 StableSR 可以算作“后期处理”的上位替代品,能在尽可能保留原图的情况下更精致地还原原图。安装方式是在扩展面板中搜索 StableSR 直接安装,或者将下载好的插件放在“……\\sdwebuiakiv4\\extensions”路径文件夹下,安装完成后重启 webUI 即可在脚本中找到。 2. 【SD】脸部修复插件 After Detailer: 图片扩充好后,PS 的这个功能又快又好。将 PS 中调整好的图再次导入到 Stable Diffusion 的“图生图”中,使用 controlnet 的 tile 模型进行细化,再使用“Ultimate SD upscale”放大脚本将原图扩充到 2 倍大小。 如果想要这个插件,可以添加公众号【白马与少年】,回复【SD】获取。
2024-12-30
好用的ai扩图工具
以下是一些好用的 AI 扩图工具: 软件架构设计视图绘制工具: Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,可通过拖放界面轻松创建架构图。 Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能。 ArchiMate:开源建模语言,与 Archi 工具配合可创建逻辑视图。 Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 draw.io(现在称为 diagrams.net):免费在线图表软件,支持多种类型图表创建。 PlantUML:文本到 UML 转换工具,可通过描述性文本生成相关视图。 Gliffy:基于云的绘图工具,提供创建架构图功能。 Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型。 Rational Rose:IBM 的 UML 工具,支持多种视图创建。 图片放大工具: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可增加更多细节 开源工作流: 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/
2024-12-30
有什么好用的扩图工具嘛
以下是一些好用的扩图工具: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可以增加更多细节 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片: https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ Bigjpg:http://bigjpg.com/ Bigjpg 是一个强大的图像分辨率增强工具,使用神经网络算法加大图像尺寸,并极大地提高图像的质量。它的处理速度很快,几秒钟内即可完成放大操作。 Topaz Gigapixel AI:https://www.topazlabs.com/gigapixelai discord:https://discord.gg/m5wPDgkaWP GIGAGAN:https://mingukkang.github.io/GigaGAN/ Topaz Photo AI:https://www.topazlabs.com/ 【SD】超清无损放大器 StableSR: 作者:白马少年 介绍:SD 实践派,出品精细教程 发布时间:20230610 20:01 原文网址:https://mp.weixin.qq.com/s/J0HIF2U1siAen6FWNA67A 安装方式:在扩展面板中搜索 StableSR,可以直接安装。或者是将下载好的插件,放在这个路径文件夹下“……\\sdwebuiakiv4\\extensions”。安装完成后,重启 webUI,就可以在这个脚本里面找到这个放大器了。
2024-12-30
AI扩图
以下是关于 AI 扩图的相关信息: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可以增加更多细节 开源工作流: stability.ai 的:https://clipdrop.co/tools 画质增强: https://magnific.ai/ Krea https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x:http://waifu2x.udp.jp/ 在 AI 图像生成中,“diffusion”(扩散)通常指的是一类生成模型,称为扩散模型(Diffusion Models)。这类模型通过逐步引入噪声到数据中,并训练网络学习逆向过程来生成数据。扩散模型在图像生成领域中应用广泛,特别是在文本到图像的生成任务中表现出色。其工作原理包括正向扩散过程、潜空间表示、学习逆向过程、文本到图像的生成等步骤。扩散模型的关键优势在于其生成高质量图像的能力,以及相比其他生成模型在计算效率和稳定性上的优势。Stable Diffusion 等模型就是基于扩散模型的文本到图像生成工具,能够根据文本提示生成逼真的图像。 AI 绘画常用的画面构图提示词有: 曼茶罗构图 超广角 极端特写 微距拍摄 广阔的视野 半身像 侧面 对称的身体 对称的脸 广角 鸟瞰/俯视 俯视图 正视图 对称 居中构图 对称构图 三分法构图 S 型构图 对角线构图 水平构图 乌瞰图 顶视图 倾斜移位 卫星视图
2024-11-19
好用的智能扩图,改变图片比例
以下为您介绍一些关于智能扩图和改变图片比例的方法: 1. 在 Midjourney 中: 不同模型有不同侧重点,如 niji 针对动漫,v 5 对摄影类质量高,可查看官网介绍。 设置图片比例可使用ar 1:1,也可改成其他支持的比例。 还有一些不常用设置,如creative 更适合脑暴和创意设计,chaos 100 或c 100 指生成图的视觉风格,取值范围 0100 之间,默认值 0,stylize 1000 或s 1000 数字越大生成图片越有艺术感,v 5 版本取值范围不同。 2. Coze “图像流”: 适合用于构图不对想改变构图的图片。 节点参数是往 4 个方向扩图,只能选择扩或者不扩,不能选择扩多少像素。 试用效果方面,如文生图生成方图后向左扩图会有新构图的长图效果;左边和上面同时扩图效果也不错;实景照片扩图时,扩图部位尽可能简单,不容易出现崩坏,加提示词建议简单,不建议画人之类,崩坏结果可能惨不忍睹。 3. 【SD】ControlNet: 以某张图为例讲解,先导入图生图界面。 根据情况选择大模型,卡通类一般选“revAnimated”,真实类选“Realistic Vision”,效果不好可尝试其他模型。 图生图重要参数包括“缩放模式”选“缩放后填充空白”,尺寸根据扩充方向调整,单批数量按需填写,“重绘幅度”加大到“0.8”以上。 ControlNet 设置方面,升级到最新版本,导入图片,启用插件,“控制类型”选“局部重绘”,预处理器选“inpaint_only+lama”,控制模式选“更倾向 Controlnet”,缩放模式选“缩放后填充空白”,还可增加“reference_only”通道巩固扩图风格。 可通过反推提示词增加文本控制,新生成部分和原图可能有色差,需调整参数修正。 记住工作流,替换图片改尺寸即可快速扩图。
2024-11-09
扩图的ai工具
以下是一些常见的扩图 AI 工具: 视频放大: https://www.topazlabs.com/topazvideoai 【超级会员 V6】通过百度网盘分享的文件:Topaz 全家桶... 链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1 提取码:16d1 复制这段内容打开「百度网盘 APP 即可获取」 Kraken.io:主要用于图像压缩,但也提供免费的图像放大功能,能保证图像细节清晰度。 图片放大: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可以增加更多细节 开源工作流: stability.ai 的 https://clipdrop.co/tools 画质增强 magnific 遥遥领先:https://magnific.ai/ Krea:https://www.krea.ai/apps/image/enhancer Image Upscaler:https://imageupscaler.com/ 佐糖:https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片: https://github.com/TencentARC/GFPGAN 在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 Imglarger:https://imglarger.com/ Let's Enhance:https://letsenhance.io/ Waifu2x: http://waifu2x.udp.jp/ 能够提供图片的放大和降噪功能,使用深度学习技术提高图像质量,保留细节和纹理,简单易用且效果好。 Bigjpg:http://bigjpg.com/,是强大的图像分辨率增强工具,使用神经网络算法加大图像尺寸,提高图像质量,处理速度快。 Topaz Gigapixel AI:https://www.topazlabs.com/gigapixelai discord:https://discord.gg/m5wPDgkaWP GIGAGAN:https://mingukkang.github.io/GigaGAN/ Topaz Photo AI:https://www.topazlabs.com/ 此外,Deep Art Effects 是一款强大的艺术效果编辑器,通过 AI 技术能够将图像放大并赋予艺术效果,支持多种滤镜和风格,让图像更独特。RealESRGAN 是基于 RealESRGAN 的图像超分辨率增强模型,具有可选的人脸修复和可调节的放大倍数,能将低分辨率图像转换为高分辨率图像,使用深度学习模型训练,恢复更多细节和清晰度,可通过 API 在 Replicate 上运行,但用几次要收费。
2024-10-24
SD曝显存
在使用 SD 进行超大尺寸绘制时,直接调分辨率绘制超高分辨率的图片(如 10000x768 的清明上河图)通常会爆显存。正常尺寸设置最高到 2048,无法直接设置 10000 的宽度。解决方法是先在 PS 中设置所需尺寸的画布并保存为 jpg 图片,然后将图片放入 ControlNet 中,点击右下角箭头将尺寸信息发送到生成设置,填入正反向提示词,并启用 Tiled Diffusion 插件(方案选择 Mixture of Diffusers)防止接缝产生。 在 ComfyUI 中,模型的安装部署方面,FLUX 模型建议选择 dev 版本,显卡可以的用 fp16,显卡不够用的选 fp8,模型下载后放入 ComfyUI/models/unet/文件夹中。若爆显存,“UNET 加载器”节点中的 weight_dtype 可设置为 fp8 降低显存使用量,但可能稍降质量。clip 模型(t5xxl_fp16.safetensors 和 clip_l.safetensors)放在 ComfyUI/models/clip/文件夹,也可用 t5xxl_fp8_e4m3fn.safetensors 降低内存使用率。Vae 模型下载后放入 ComfyUI/models/vae 文件夹。 在生成过程中,ComfyUI 处理 SDXL 模型比 webUI 更有效率。例如,ComfyUI 生成过程中显存占用率为 7 9GB,每次生成耗时 13 15s;webUI 显存占用率为 8 11GB,每次生成耗时 25s。此外,还可对 SDXL 进行风格控制,添加【新建节点】【实用工具】【SDXL Promot Styler Advanced】节点,通过右键增加输入点将文本提示词赋予 base 和 refiner 并切换风格。
2025-02-02
sd 的imagebrowser在哪下载
Stable Diffusion 的 ImageBrowser 插件可以通过以下方式下载: 因为该插件还没有收录到官方的插件列表当中,您可以到这个网址去下载:https://github.com/hnmr293/sdwebuicutoff ,或者是去作者的云盘链接下载。安装之后重启,就可以看到这个插件。 另外,大多数的模型都是在 Civitai(C 站)这个网站里面下载,网址为:https://civitai.com/ 。使用 C 站时需要科学上网,点击右上角的筛选按钮,在框框里面找到自己需要的模型类型。下载的模型保存位置如下: 大模型:存放在 SD 根目录的【……\\models\\Stablediffusion】文件夹。 Lora:存放在根目录下的相应文件夹。 VAE:存放在根目录的【……\\models\\VAE】文件夹。 如果不会科学上网,也可以去启动器的界面直接下载模型。下载的 Embedding 可以在 C 站通过右上角的筛选 Textual Inversion 找到,放在根目录下的 embeddings 文件夹里。
2025-01-23
SD模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将文本输入到 SD 模型,经过一定迭代次数生成符合描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示重绘输入图片使其更符合描述,如在沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本编码生成 Text Embeddings 特征矩阵,用于控制图像生成。 目前 SD 模型使用的是中的 Text Encoder 模型,其只包含 Transformer 结构,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小为 123M,输出 Text Embeddings 的维度为 77x768。 以下是相关资源获取方式: SD 模型权重:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 模型”,可获得包含多种模型权重的资源链接。 SD 保姆级训练资源:关注 Rocky 的公众号 WeThinkIn,后台回复“SDTrain”,可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE、UNet 和 CLIP 三大模型的可视化网络结构图:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 网络结构”,即可获得网络结构图资源链接。
2025-01-22
SD如何操作
以下是关于 SD 操作的相关内容: Stable Diffusion 中,Checkpoint 是最重要的模型,也是主模型,几乎所有操作都依托于它。主模型基于 Stable Diffusion 模型训练而来,有时被称为 Stable Diffusion 模型。主模型后缀一般为.ckpt 或者.safetensors,体积较大,一般在 2G 7G 之间。要管理模型,需进入 WebUl 目录下的 models/Stable diffusion 目录。 画出商用级别的高清大图操作简单,调整好放大倍率即可直接放大。其原理和其他图片放大原理相同,并非重绘,只是变清晰,缺失细节不会补全。 制作中文文字的思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,输入关键词和反关键词,反复刷机得到满意效果。 可输出 C4D 模型,自由贴图材质效果。 若希望有景深效果,可打开 depth。 打开高清修复,分辨率 1024 以上,步数 29 60。
2025-01-09
sd 学习教程
以下是关于系统学习 Stable Diffusion 提示词的教程: 1. 学习基本概念: 了解 Stable Diffusion 的工作原理和模型架构。 理解提示词如何影响生成结果。 掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程: 通读 Stable Diffusion 官方文档,了解提示词相关指南。 研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例: 熟悉 UI、艺术、摄影等相关领域的专业术语和概念。 研究优秀的图像标题和描述,作为提示词范例。 4. 掌握关键技巧: 学习如何组合多个词条来精确描述想要的效果。 掌握使用“()”、“”等符号来控制生成权重的技巧。 了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈: 使用不同的提示词尝试生成各种风格和主题的图像。 对比提示词和实际结果,分析原因,总结经验教训。 在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库: 根据主题、风格等维度,建立自己的高质量提示词库。 将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿: 关注 Stable Diffusion 的最新更新和社区分享。 及时掌握提示词的新技术、新范式、新趋势。 此外,为您推荐以下学习资源: 1. SD 从入门到大佬: Nenly 同学的视频合集(点我看合集):https://space.bilibili.com/1 。 想入门 SD 的同学可以在安装完 SD 后,参考 0.SD 的安装:https://qa3dhma45mc.feishu.cn/wiki/Ouiyw6v04iTJlmklDCcc50Jenzh 。 可选的一些图片版教程: 。 2. 第一期:上班的你: 。 。 。 。 。 。 。 。 。
2025-01-06
Midjourney+sd可以生成服装模特视频么
Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法: 1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。 2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。 同时,您还可以参考以下视频工具建议: 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/aitool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。
2025-01-06
目前最好用的AI是那款
目前,在 AI 领域没有绝对意义上“最好用”的单一产品,不同的 AI 模型和工具在不同方面各有优势。 像 GPT4 这样的高级模型功能全面,还具备代码解释器等特色功能。Anthropic 公司开发的 Claude 3 Opus 在写作和深度洞察方面备受好评。Google 的 Gemini Advanced 擅长提供清晰的解释。 此外,国产的 Kimi 智能助手也是一个不错的选择,它不用科学上网、不用付费、支持实时联网,是国内最早支持 20 万字无损上下文的 AI,对长文理解表现出色。 在笔记本电脑方面,截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列等。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存和高速固态硬盘,还预装了相关深度学习框架和开发工具,但价格相对较高,通常在 2000 美元以上,用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-03
哪款智能简历好用
以下是一些好用的智能简历工具: 1. ResumeMatcher:这是一款 AI 驱动的开源简历优化工具。它能提供智能关键词匹配、深入分析见解,提升简历通过 ATS 筛选的几率。采用 FastEmbed 计算简历与职位匹配度,结合 textacy 提取核心术语,精准优化简历内容。相关链接: 2. Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,能为简历摘要、工作经验和教育等专业部分编写内容,并保持一致语调。 3. Rezi:是一个受到超过 200 万用户信任的领先 AI 简历构建平台,使用先进的 AI 技术自动化创建可雇佣简历的每个方面,包括写作、编辑、格式化和优化。 4. Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结/技能/成就生成器和 AI 驱动的简历工作匹配。 更多 AI 简历产品,还可以查看这里:https://www.waytoagi.com/category/79 您可以根据自己的需要选择最适合您的工具。
2025-02-03
除了ollama外还有什么好用
除了 Ollama 外,以下是一些好用的本地部署或相关的工具和框架: 1. Google Gemma:Google 发布的家用版小模型,分别有 2b(20 亿参数)和 7b(70 亿参数)版本。相对千亿参数的大模型,这种小模型可能不适合解决特别复杂的任务,但从趋势上看是模型本地化提升基础操作效率的模板。小型的 llama 也支持本地部署。 2. Langchain:支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,易于使用,适用于多种操作系统,同时支持 cpu 和 gpu。提供模型库,用户可从中下载不同模型,还支持自定义模型、API 和集成,社区贡献丰富。 如果您想了解更多关于这些工具和框架的详细信息,建议您进一步查阅相关资料。
2025-02-03
给老照片上色,那个AI软件最好用而且免费
以下为您推荐一款可用于给老照片上色且效果较好的免费 AI 软件——Stable Diffusion。 在使用 Stable Diffusion 给老照片上色时,新上线的 controlnet 模型中的 Recolor 模型作用显著,可将黑白图片重新上色。对于人物照片还原,可选择 realisian 的写实大模型,提示词直接描述颜色和对应的内容。 ControlNet 选择 Recolor 时,预处理器选择“recolor_luminance”效果更佳。之后将照片放入后期处理,使用 GFPGAN 算法将人脸变清晰。若要将五官重绘及让照片中的头发、衣服等元素变清晰,可将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。 对于内容较多、无法一一指定颜色的照片,可能需要逐个上色后用 ps 进行融合。
2025-02-02
有免费且好用的ai
以下为一些免费且好用的 AI 工具: 1. 必应(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx):通常是获取信息和学习东西的最佳免费选项,在某些情况下,如技术支持、决定吃饭地点或获取建议等方面,比谷歌更好。但使用人工智能作为搜索引擎存在幻觉风险,需谨慎。 2. Coze:其所有功能免费,无需费用,所看即所得。免费功能还涵盖丰富的主流第三方插件、知识库、数据库、工作流设计、预置 AI Bot、性能监控与优化等。适合小白,无需编程基础,会使用电脑即可。国内版可直接对接微信、飞书等主流平台,使用云雀大模型作为对话引擎;国外版可对接 Facebook Messenger、Slack、Telegram 等主流平台,支持使用 GPT 3.5/GPT 4 大模型作为对话引擎,且完全免费无限制,但国内无法访问,需要特殊方法。此外,Coze 还有手机端,方便用户通过手机端 APP 分享自己的 AI 应用,提高用户使用体验和产品裂变可能性。 需要注意的是,使用人工智能工具时应遵循相关法律法规和道德规范。
2025-02-02
国内有什么写代码比较好用的模型吗(除了deepseek)
国内写代码比较好用的模型除了 DeepSeek 外,还有零一万物、知谱 AI 和阿里巴巴开发的模型,它们在 LMSYS 排行榜上取得了优异成绩,尤其在数学和编程方面表现出色。此外,国产开源模型 DeepSeekV3 也具备出色的性能,其性能接近顶尖闭源模型 Claude 3.5Sonnet,在知识、长文本和数学任务上均有显著提升,生成速度可达每秒 60 个令牌。
2025-02-02