Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何用AI修过曝的图片

Answer

以下是一些用 AI 修复过曝图片的方法和相关工具:

  1. 使用 MutiDiffusion 插件:不开放大倍数,仅使用分块渲染功能,可在显存不够时放大图片。
  2. 辅助工具:
    • 视频放大:https://www.topazlabs.com/topaz-video-ai
    • 百度网盘分享的 Topaz 全家桶:链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1 提取码:16d1
    • Kraken.io:主要用于图像压缩,也提供免费图像放大功能,能保证图像细节清晰度。
    • Deep Art Effects:强大的艺术效果编辑器,通过 AI 技术放大图像并赋予艺术效果,支持多种滤镜和风格。
    • Real-ESRGAN:基于 Real-ESRGAN 的图像超分辨率增强模型,具有可选的人脸修复和可调节的放大倍数,但使用几次要收费。
    • Photoshop Generative AI 功能:主要工具包括 Remove tool、Clone brush、Generative fill 以及 Neural filters。
    • SD 图生图,重绘幅度小一点。
  3. 【SD】超清无损放大器 StableSR:
    • 修复需使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stable-diffusion-webui/models/Stable-Diffusion/文件夹中。
    • StableSR 模块(约 400M 大小)放入 stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。
    • VQVAE(约 750MB 大小)放在 stable-diffusion-webui/models/VAE 中。

在处理过曝图片时,可根据具体情况选择合适的方法和工具。例如,对于复杂的照片,可先在 PS 里进行角度调整和照片裁切,然后使用上述工具和方法进行处理。对于场景方向的指定,可给简单的关键词让 AI 自行决定,避免过多颜色提示词导致画面污染。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】用AI给老照片上色,岁月不改它模样

启用MutiDiffusion插件,不开放大倍数,仅使用分块渲染的功能,能帮助我们在显存不够的情况下,将图片放大到足够的倍数。好了,经过一顿操作,我们就将这张图片处理完成了。对比一下看看,之前的黑白照片和经过上色高清化完成之后效果。同样的步骤,又还原了一张我妈妈的照片。在问到她当时穿的什么颜色衣服的时候,她记得可清楚了,想都没想就告诉我说是绿色的。这两张还算容易的,接下来就遇到比较棘手的照片了。比如这一张,是我外公外婆带着我妈和我舅舅。外公走得更早,我甚至都没见过一面,只有这些照片还记录着他存在的痕迹。而这张照片也有些年头了,一直被外婆好好保存着。人物多、场景复杂,像素非常的低,使得这张照片处理起来难度很大。我首先在ps里面进行了一下角度的调整和照片的裁切,然后使用刚才的步骤进行上色,但是直接上色的结果有点像是加了一层黄色滤镜,有颜色但是年代感还是太强了。而太具体的颜色指定,又容易让画面污染严重,因为内容实在太多了,光是指定衣服就得十来个颜色提示词,AI能分辨得清才怪。所以我决定放弃人物服装的颜色指定,只给一个场景方向,剩下的交给AI去自行决定。于是,我从网上找到了一张仙人洞的照片,让AI去帮我匹配色调。加入第二个controlnet来控制颜色,使用的是t2ia_color的模型。关键词只给了:蓝天、绿树、灰石砖这么简单的几个词。颜色终于正常了,最后经过脸部的修复和放大,得到了最终的效果。

辅助工具:放大/扩图

https://www.topazlabs.com/topaz-video-ai【超级会员V6】通过百度网盘分享的文件:Topaz全家桶...链接:https://pan.baidu.com/s/1bL4tGfl2nD6leugFh4jg9Q?pwd=16d1提取码:16d1复制这段内容打开「百度网盘APP即可获取」Kraken.ioKraken.io主要用于图像压缩,但也提供了一个免费的图像放大功能。不仅能够放大图像,还能保证图像的细节清晰度。Deep Art EffectsDeep Art Effects是一款强大的艺术效果编辑器,通过AI技术能够将图像放大并赋予艺术效果。它支持多种滤镜和风格,让您的图像更加独特。Real-ESRGAN https://replicate.com/nightmareai/real-esrgan--------这个暂时处理的假(群友实操)这个模型是一个基于Real-ESRGAN的图像超分辨率增强模型,具有可选的人脸修复和可调节的放大倍数。Real-ESRGAN是一个非常强大的图像超分辨率算法,可以将低分辨率图像转换为高分辨率图像。它使用深度学习模型进行训练,能够恢复出更多的细节和清晰度。此外,该模型还提供了人脸修复的选项,可以在超分辨率处理的同时对图像中的人脸进行修复,使得人脸更加清晰和自然。同时,用户还可以通过调整放大倍数来控制图像的超分辨率程度,最大放大倍数为10。该模型可以通过API在Replicate上运行,使用户可以方便地对图像进行超分辨率增强处理。这个用几次要收费多种组合操作4️⃣📸使用Photoshop Generative AI功能修复破损老照片🛠️主要工具包括:Remove tool,Clone brush,Generative fill以及Neural filters。🔗https://x.com/xiaohuggg/status/1692751080973828468?s=46&t=F6BXooLyAyfvHbvr7Vw2-gSD图生图,重绘幅度小一点

【SD】超清无损放大器StableSR

这个修复必须要使用StabilityAI官方的Stable Diffusion V2.1 512 EMA模型,放入stable-diffusion-webui/models/Stable-Diffusion/文件夹中。然后是StableSR模块(约400M大小)放入stable-diffusion-webui/extensions/sd-webui-stablesr/models/文件夹中。还有一个VQVAE(约750MB大小)放在你的stable-diffusion-webui/models/VAE中。这三个文件我会放在百度云盘的链接中。安装好之后,我们用一张从网上找的神仙姐姐的照片来做一个测试,这张图片的分辨率为512x768。放大之后看是比较模糊的,脸上有很多噪点,头发丝也糊在一起了。我们先使用“Ultimate SD upscale”脚本放大看一下,哪怕是重绘幅度只开到0.1,也可以看到人物细节的变化,比如嘴角、眼睛等部位,而且整个人磨皮很严重,失去了真实感。重绘幅度开到0.4之后,基本上就变了一个人了。所以,想要还原一些老照片,追求最大保真度的话,用重绘的方法是不太好的。接下来,我们再试验一下“后期处理”的放大方法,缩放3倍。眼神变得更锐利了一些,但是头发还是模糊的,因为原图就很模糊。最后,我们再测试一下StableSR的放大,先将大模型和VAE分别调整为我们刚才下载安装的“Stable Diffusion V2.1 512 EMA”和“VQGAN vae”。

Others are asking
AI编程
以下是关于 AI 编程的相关内容: Trae 国内版 Trae 是字节跳动旗下的 AI 原生编程工具,类似 Cursor、Windsurf 等 IDE 工具。它具有以下特点: 1. 对国内用户友好,有中国官网、中文界面、国内模型,稳定且快速。 2. 使用完全免费,无需折腾会员,下载后可直接使用,支持豆包 1.5pro 和满血版 DeepSeek R1、V3 模型。 3. 内置预览插件,写完代码一键运行,所见即所得。 它不仅适合新手入门,能解决初学 AI 编程时遇到的官网打不开、购买会员、安装中文和预览插件等前置问题,让 AI 编程进入零门槛时代,还能帮助资深程序员大幅提升编程速度。网址:Trae.com.cn 或点击文末【阅读原文】直接访问。 借助 AI 学习编程的关键 1. 打通学习与反馈循环:从验证环境、建立信心、理解基本概念开始,形成“理解→实践→问题解决→加深理解”的循环。 2. 建议:使用流行语言和框架(如 React、Next.js、TailwindCSS);先运行再优化,小步迭代,一次解决一个小功能;借助 AI 生成代码后请求注释或解释,帮助理解代码;遇到问题时采取复现、精确描述、回滚三步走。 用好 AI 编程工具(如 Cursor)的关键技能 1. 准确描述需求,清晰表达目标和问题。 2. 具备架构能力,将复杂系统拆解为松耦合的模块,便于 AI 高效处理。 3. 拥有专业编程能力,能够判断 AI 生成代码的优劣。 4. 具备调试能力,能快速定位问题并解决,独立或借助 AI 完成调试。
2025-03-17
Google 图片视频AI
以下是关于 Google 图片视频 AI 的相关信息: Google 发布了 AI 视频 Veo2 和 AI 绘图 Imagen3。 关于 AI 视频 Veo2: 官网介绍可申请 waitlist,链接为 https://labs.google/fx/zh/tools/videofx 。 引入了改进后的物理引擎,能模拟真实世界动态变化。 能更好地捕捉和模拟人类动作、运动轨迹,并高精度呈现。 具有电影级视觉效果,能生成有深度感和层次感的场景。 提供灵活的镜头控制选项,允许用户调节镜头角度、视角和焦距等参数。 关于 AI 绘图 Imagen3: 绘图链接为 https://labs.google/fx/tools/imagefx 。 是最高质量的文本到图像模型,能生成比之前模型更好细节、更丰富光照和更少干扰伪影。 在图像细节和清晰度上有显著提高,生成的图像更生动、真实,细节更丰富。 相关报道和链接: 数字生命卡兹克:Google 全新发布 AI 视频 Veo2、AI 绘图 Imagen3 何以凌越,https://mp.weixin.qq.com/s/4ACndSdfG8az3gdLn5QLIQ 。 量子位:谷歌版 Sora 升级 4K 高清!一句话控制镜头运动,跑分叫板可灵海螺,https://mp.weixin.qq.com/s/8H286tyxbTeZrtEBDZHaA 。 锤爆 Sora,尺度最大,谷歌发布最强视频模型 Veo2,叫板海螺可灵,https://mp.weixin.qq.com/s/sMECORvSikuKHNaEzPor6Q 。 谷歌版 Sora 来了,4K 高清暴击 OpenAI!视频生图新卷王,更理解物理世界,https://mp.weixin.qq.com/s/PFeyrX2q9mWd6GIrJ9qdWQ 。 谷歌的 Imagen 3 终于来了——它是最好的 AI 图像生成器吗?https://mp.weixin.qq.com/s/gcyGvA6_9mxN9yz__jRRHQ 。 测评: ,Google 视频和图像生成模型更新包括 Veo 2、Imagen 3 和一个新工具 Whisk 。
2025-03-17
AI发展大事记与 时间线
以下是 AI 发展的大事记与时间线: 2022 年 11 月 30 日,OpenAI 发布基于 GPT 3.5 的 ChatGPT。 2024 年 3 月,AI 发展持续升温,潞晨科技发布 OpenSora,Suno 发布 V3 版本爆火。 2024 年 4 月,英伟达发布硬件股价飙升。 2024 年 5 月,苹果发布 AI 芯片,张吕敏发布 IC light,AI 竞争白热化,伊莉雅离开 OpenAI 并成立新公司,估值超五亿美金。 2024 年 7 月,快手开源 LivePortrait 模型,表情迁移。 2024 年 8 月,StabilityAI 老板成立新公司发布 flux 大模型。 2024 年 9 月,阿里云发布模型,海螺 AI 参战,Google 发布 GameGen 实时生成游戏,通义千问 2.5 系列全家桶开源,华为发布 cloud matrix 云计算基础设施,GPT 高级语音模式上线,Meta 发布 AI 眼镜 Orion,AI 代码编辑器 cursor 爆火。 2024 年 10 月,Pika 发布 1.5 模型,诺奖颁发给 AI 奠基人,特斯拉发布机器人,Adobe 发布 Illustrator+Al 生成矢量图,智谱 AI 发布 autoGLM,腾讯混元开源 3D 模型。 在更早的时间: 1943 年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。 1950 年,伟大的计算机先驱图灵最早提出了图灵测试,做为判别机器是否具备智能的标准。 1956 年,在美国一个小镇的达特茅斯学院中,马文·明斯基和约翰·麦凯西拉着香农大佬站台背书,共同发起召开了著名的达特茅斯会议,在这次会议上,人工智能 Artifical Intelligence 一词被正式提出,并做为一门学科被确立下来。 2024 年的其他进展: 2 月,OpenAI 发布视频生成模型 Sora,首次实现高质量文本生成视频,开创 AI 视频生成新纪元。 3 月,Suno 发布 V3 版本,AI 音乐生成方向进入生产力可用状态。 4 月,Meta 发布高性能开源大模型 Llama3,降低了 AI 技术的准入门槛。 5 月,GPT4 发布,RayBan 与 Meta 合作的智能眼镜销量突破百万,字节上线即梦 AI。 6 月,快手发布可灵。 9 月,OpenAI 发布 o1 预览版。 10 月,Rosetta 和 AlphaFold 算法的研发者因在蛋白质结构设计和预测中的突破性贡献获得诺贝尔化学奖,约翰·霍普菲尔德和杰弗里·辛顿因人工神经网络和深度学习的开创性贡献获诺贝尔物理学奖,Anthropic 大模型 Claude 3.5 Sonnet 获得“computer use”功能。 12 月,OpenAI 发布 o3 系列模型。
2025-03-17
AI 搜索中用户查询理解
Perplexity AI 是一家专注于开发新一代 AI 搜索引擎的公司,由前 OpenAI 研究科学家 Aravind Srinivas 与前 Meta 研究科学家 Denis Yarats(Perplexity CTO)等合伙人于 2022 年 8 月共同创办。 其优势包括: 1. 理解能力强,能够深入理解查询的语义,而非仅仅匹配关键词,从而提供更准确和相关的结果。 2. 生成式回答,可生成通顺的自然语言回答,而非简单返回网页链接和片段,使结果更易于理解和使用。 3. 个性化和上下文感知,能根据用户的历史查询和偏好个性化结果,提供更贴合需求的答复。 劣势有: 1. 训练成本高,训练大型 LLM 模型需要大量计算资源和高质量训练数据。 2. 可解释性差,LLM 的工作原理较为黑箱,难以解释为何给出某个结果,缺乏透明度。 3. 潜在的偏差和不当内容,由于训练数据的局限性,LLM 可能产生偏见或不当内容。 独特之处在于将 LLM 技术应用于搜索引擎领域,试图颠覆传统基于关键词匹配的搜索范式,为用户提供更自然和智能的搜索体验,还融合了个性化和上下文感知等功能,努力成为新一代的“智能助手”。 总的来说,Perplexity 凭借 LLM 的强大语义理解能力,为搜索引擎带来了新的可能性,但也面临着一些技术和伦理挑战。 在搜索领域,推荐算法存在精确推荐提高用户黏性和平台广告收益的优点,但也有导致信息茧房和信息过载等负面影响。搜索引擎采用以用户查询为导向的“拉取式”信息获取模式,极大改变了人们获取信息的方式,搜索广告因用户搜索往往携带着明确意图,点击转化率通常高于泛泛的推荐广告,在数字广告市场中长期占据重要份额。 AI 智能体中的检索增强生成(RAG)是当今大多数现代人工智能应用程序的标准架构。以 Sana 的企业搜索用例为例,其过程始于应用程序加载和转换无结构文件,将其转换为 LLM 可查询格式,分块成更小的文本块并作为向量嵌入存储在数据库中。当用户提出问题时,系统检索语义上最相关的上下文块,折叠到“元提示”中与检索到的信息一起馈送给 LLM,LLM 合成答复返回给用户。在生产中,AI 应用程序具有更复杂的流程,包含多个检索步骤和提示链,将结果综合生成最终输出。例如 Eve 法律研究的共同驾驭员,会将查询分解为独立提示链,运行每个提示链生成中间输出,并综合编写最终备忘录。
2025-03-17
目前支持上下文长度最长的是什么AI
目前支持上下文长度较长的 AI 有以下几种: Kimi:是国内最早支持 20 万字无损上下文的 AI,现在已提升到 200 万字,对长文理解表现出色,适合处理长文本或大量信息的任务,但在文字生成和语义理解、文字生成质量方面可能不如国内其他产品,且不支持用户自定义智能体。 http://X.AI 发布的 Grok1.5:支持 128k 上下文长度,性能翻倍,在 MATH、HumanEval、GSM8K、MMLU 测试中表现出色。 AI21 发布的 Jamba:创新的 SSMTransformer 架构,支持 256K 上下文长度,结合 Joint Attention 和 Mamba 技术,提升长上下文吞吐量。
2025-03-17
检索有关AI入门必读书籍
以下是为您推荐的 AI 入门必读书籍: 1. 「」,有助于熟悉 AI 的术语和基础概念。 2. 「」,其中包含为初学者设计的课程。 3. GPT1 到 Deepseek R1 所有公开论文 The 2025 AI Engineer Reading List:涉及人工智能工程的 10 个领域,包括 LLMs、基准、提示、RAG、代理、CodeGen、视觉、语音、扩散、微调。如果您想从零开始,可以从此处开始。 4. 入门经典必读:作者为 ,原文地址:https://a16z.com/2023/05/25/aicanon/ 。文中分享了一份用于更深入了解现代 AI 的精选资源列表。
2025-03-17
根据图片加文字描述生成分镜脚本的提示词
以下是一些根据图片加文字描述生成分镜脚本的提示词示例及相关说明: 1. 对于影片《哪吒·龙影之下》的分镜脚本,其提示词包括分镜编号、分镜内容描述、人物、情绪、对白或配音等方面,如“1|高中操场,学生们活动|学生群|活跃|无”。 2. 在商业级 AI 视频广告的分镜创作中,提示词的结构为:要做多长时间的视频、要出多少个分镜、每个分镜包含哪些内容、对输出格式有什么要求。例如“请把这个故事脚本改写成一个 30 秒时长的广告片分镜脚本,脚本结构包括序号、场景、景别、镜头时长、镜头运动、画面内容、对话旁白和音乐音效。每个分镜拆分细致一些,补充多一些细节,单镜头时长控制在不超过 5 秒,一共拆分 10 个分镜”。 3. 在“城市狂想”的图片制作中,针对分镜内容生成了不同风格的提示词,如“远景,三分法构图,俯视视角,数字绘画,云雾缭绕的山谷,群山连绵起伏,山谷间云雾缭绕,阳光透过云层洒在山间,形成光与影的对比,模拟观众的视线逐渐接近这片土地,新印象派风格特征,使用数字画笔和渐变工具ar 16:9v 6.1”。 希望以上内容能对您有所帮助。
2025-03-17
图片生成ai给我推荐一下
以下为您推荐一些图片生成 AI 工具: 1. 星流一站式 AI 设计工具: 左侧图片案例板块包含大量图像例图与生图信息,滑动鼠标到图像的“info”区域可直接将图像发送到画布与生图信息调取。 图像筛选功能: 推荐:根据您正常进行的生图参数(模型、提示词)进行推荐。 热门:向您推荐浏览量最高的图片。 搜索:输入对需求图像的描述,进行图像搜索。 图像调取: 点击“发送到画布”直接将图像发送到“无限画布”中。 生图参数调取: 整体调取:点击“发送到生成器”将全部参数进行调取。 单个调取:可点击右侧单独的发动键调取单个参数。 2. Tripo AI:VAST 发布的在线 3D 建模平台,能够利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。基于一个数十亿参数级别的 3D 大模型,能实现快速的 2D 到 3D 转换,并提供 AI 驱动的精准度和细节。 3. Meshy:功能全面,不仅支持文本生成 3D,还支持图片生成 3D 以及 AI 材质生成。用户可通过上传图片并描述需要的材质和风格,生成高质量的 3D 模型。 4. CSM AI:支持从视频和图像创建 3D 模型。Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象,再转换为 3D 模型。 5. Sudo AI:支持通过文本和图像生成 3D 模型,特别适用于游戏领域的模型生成。用户可上传图片或输入文本提示词来生成 3D 模型。 6. VoxCraft:由生数科技推出的免费 3D 模型生成工具,能够将图像或文本快速转换成 3D 模型,并提供了图像到 3D、文本到 3D 和文本到纹理等多种功能。 此外,图像生成也离不开深度学习算法,如生成对抗网络(GANs)、变分自编码器(VAEs),以及 Stable Diffusion 等,以创建与现实世界图像视觉相似的新图像。一些具有代表性的海外项目包括: 1. Stable Diffusion:文本生成图像模型,主要由三个部分组成,分别是 VAE、UNet 网络和 CLIP 文本编码器。 2. DALLE 3(Open AI):OpenAI 基于 ChatGPT 构建的一种新型神经网络,可以从文字说明直接生成图像。 3. StyleGAN 2(NVIDIA):一种生成对抗网络,可以生成非常逼真的人脸图像。 4. DCGAN(Deep Convolutional GAN):一种使用卷积神经网络的生成对抗网络,可生成各种类型的图像。
2025-03-17
我是美区Tiktok shop 的卖家,希望AI用图片生成带货短视频
以下是利用 AI 用图片生成带货短视频的步骤: 1. 添加产品/介绍背景:如果有自己的视频/图片素材,可以直接使用;若没有产品背景/产品介绍,可以根据搜索添加。 2. 扣像结合背景:在剪映里面把数字人扣下来,导入视频,点击画面选择抠像,点击智能扣像,调整到合适的大小和位置。 3. 添加字幕和音乐:智能识别字幕,可搜索添加音乐或手动添加自己喜欢的音乐。 这样就可以根据您的需求结合您的图片生成您需要的视频,用于带货或讲解产品。如果应用在直播也是可以的,把视频做长些即可,但直播可能需要收费,短视频可以通过购买邮箱注册使用免费的时长或直接购买会员版。
2025-03-17
用 ai 整理图片
以下是关于用 AI 整理图片的相关内容: 在图像生成与优化方面: 初步生成:使用 DALLE 3 和 Midjourney(MJ)进行初步图像生成。DALLE 3 凭借强大的文本识别能力快速生成符合意图的画面,MJ 则通过垫图功能(Sref 和iw 组合)确保图像风格一致。 图像优化:对于 DALLE 3 和 MJ 跑不出来的图,使用 Stable Diffusion(SD)进行图像的细节处理,尤其是局部重绘,例如调整人物的手部细节。通过 magnific.ai 工具对图像进行超分处理,提高画质。 在关键词方面: 主题描述:图片内容分为二维插画和三维立体两种表现形式。描述场景、物体或人物时,应清晰准确,对于场景中的人物最好独立描述。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 生成特定风格的图片。材质相关的关键词有很多门道,需要针对某一种风格单独进行“咒语测试”。 在老照片处理方面: 将照片放入后期处理,使用 GFPGAN 算法使人脸变清晰,但无法使头发、衣服等元素变清晰。 接着将图片发送到图生图中,打开 stableSR 脚本放大两倍,切换到 sd2.1 模型进行修复,vae 选择 vqgan,提示词可不写以免干扰原图。
2025-03-16
你可以生成图片吗
以下是关于生成图片的相关信息: Sora 是一种可作为世界模拟器的视频生成模型,能够通过在具有一个帧的时间范围的空间网格中排列高斯噪声的分块来生成图像,可生成不同大小的图像,分辨率高达 2048x2048。 ComfyUI Flux 与 runway 结合可以制作绘画视频,包括生成图片(通过提示词让 flux 生成技术草图、CAD 等)、绘制视频(在 runway 中使用提示词从空白页面开始逐行创建,并把生成的图片作为尾帧)、草图上色(使用 flux 的 controlNet,depth 固定,Union 版本不建议权重调太高)、生成上色后的视频等。 LayerStyle 副本中的 LayerUtility 中的 TextImage 可以从文字生成图片以及遮罩,支持字间距、行间距调整,横排竖排调整,可设置文字的随机变化,包括大小和位置的随机变化。节点选项包括 size_as、font_file、spacing、leading、horizontal_border、vertical_border、scale、variation_range、variation_seed、layout、width、height、text_color、background_color 等。
2025-03-16