以下是关于用 AI 整理图片的相关内容:
在图像生成与优化方面:
在关键词方面:
在老照片处理方面:
我们从一开始就意识到了这一点,就坚持无论如何要把在线文档整理好。小田参与过多个打比赛的项目小组,所以他对在线文档的理解和整理是大厂级别的。在这篇在线文档中,大家就能看到我们整个项目多人、多环节推进的过程:大家可以看到,从1)分镜头的脚本;2)文生图;3)图片的筛选;4)图生视频);5)视频的筛选;6)视频超分到4K每一步都井井有条,如果这些都是靠口喷(大厂里把只动嘴的沟通叫做口喷),是难以为继的。甚至可以说这份在线文档的推进,是我们项目大家伙劲往一处使的根基。并且我们每个小伙伴都非常专业,根据文本来理解画面,用AI跑图。十个人的手跑出的不同的图,最后能够做到画风相对一致、运镜符合科学规律,是并不容易的。5、AIGC跑图的硬功夫在《嘉定汇龙》的制作过程中,我们充分利用了AIGC技术,从图像生成到视频制作,都实现了前所未有的效率和质量。[heading3]图像生成与优化[content]初步生成:我们使用DALL-E 3和Midjourney(MJ)进行初步图像生成。DALL-E 3以其强大的文本识别能力帮助我们快速生成符合意图的画面,而MJ则通过垫图功能(--Sref和--iw组合)确保图像的风格一致。图像优化:D3和MJ跑不出来的图,我们用Stable Diffusion(SD)用于图像的细节处理,尤其是局部重绘,例如调整人物的手部细节。通过magnific.ai工具对图像进行超分处理,进一步提高画质。
这个周末尝试了很多种风格的AI出图,一般图片内容我们会分为二维插画以及三维立体两种主要表现形式。为了生成自己想要的图,上面说的3个结构确实可以帮我们大致输出想要的图片:1.1.主题描述:可以描述一个场景和故事以及其组成的元素、一个物体或者人物的细节、搭配。比如一个动物园,里面有老虎、狮子、长颈鹿、大树、围栏等等或者一个小女在森林里搭帐篷,她穿着红色的裙子以及戴着白色的帽子,但是有时候AI不一定能识别每一个描述的元素,如果要描述一个场景中的人物,大家记得进行独立描述,不要用一长串文字去表达,AI会识别不到,比如一个穿着红色盔甲的男孩站在山顶,那么我们最好把他拆分以下:一个男孩、穿着红色盔甲、站在山顶,这样会更加接近我们想要的场景。但是一个大场景中有多个角色的细节就不太容易通过关键词去生成了。1.2.设计风格:设计风格其实很多设计师没有办法直接表达出来,所以我们在这个步骤会去找一些风格类的关键词参考或者是你找到一张想要的风格的图片,放进去,这种我们就称之为垫图/喂图,让AI根据我们给出的图片风格,结合我们的主题描述生成该风格的图片。还有我研究了一下玻璃、透明塑料、霓虹色彩以及一些透明、反射等材质的关键词,比如你想让一个物体表面透明,但是不要把物体里面的机械结构体现出来,可能需要加一些[设计师](https://www.uisdc.com/tag/%e8%ae%be%e8%ae%a1%e5%b8%88)风格,单纯的控制材质很难达到要求,因为系统判断你表面透明了肯定能看到里面的结构,但是有了结构的话物体就会很复杂,不高级。所以这里面关键词的道道非常多,目前也只能通过大家针对某一种风格单独去进行“咒语测试”。未加风格只描述材质
将照片放入到后期处理中,使用GFPGAN算法将人脸变清晰,不知道这个功能的可以参考我这篇文章——[【Stable Diffusion】图片高清化+面部修复+一键抠图,一些你不知道的事儿](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487422&idx=1&sn=9cdf7ef37c2acb3c0fc3328d0ba8af74&chksm=c251597af526d06c921ea6728cb2a32bdf1d5f699e19d6ba13b849994e4d01af8a5144132aad&scene=21#wechat_redirect)。这个步骤,可以将我们的五官进行重绘,但是却没有办法将照片中的头发、衣服等其他元素变清晰。所以,接下来我将图片再发送到图生图当中,打开stableSR脚本,放大两倍。这个放大插件是所有插件中对原图还原最精准的,也是重绘效果最好的,不知道的朋友可以参考我的这篇文章——[【Stable Diffusion】超清无损放大器StableSR](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487403&idx=1&sn=cbb96534fa6f58c37cf9fc64bc7ade0c&chksm=c251596ff526d0792b4bba0e21b69427b23e780824bdc75b22f1073e8bad6f61f30199fc8344&scene=21#wechat_redirect)。切换到sd2.1的模型进行修复,vae选择vqgan,提示词可以什么都不写,以免对原图产生干扰。