以下是关于 Midjourney 的一些教程:
Midjourney cref海马体写真教程来啦!10分钟不到出写真~视频在下面(记得mark看文字笔记)超低学习成本,你只要会用任意手机修图软件...就能解决Midjourney Cref角色一致性直出之后的「形似而神不似」的问题。简而言之,文字笔记:得益于--cref[image url]和--cw[0~100],midjourney能够迅速达成角色一致性的目的而无需Lora。其中,cref代表character reference(角色参考);cw则代表character weight(参考权重),默认为100,会参考角色的人脸和服装特点。如果你只想关注人脸,请调低到0。你不需要对角色原图使用/describe来贴近目标生成角色的形象,因为--cref会帮你完成这件事情。于是,风格复制和服装的替换,则应当用提示词(prompt)和--sref[image url]来解决。顾名思义,--sref代表style reference,权重参数为--sw[0~1000],默认值100,越高越接近参考图像的风格举个例子,现在我们要海马体这张图像,我们先用/describe指令反推海马体的提示词,再配合--sref[海马体图像的url],就可以轻松复制图像风格。在回车之前,检查你的提示词,不要出现和sref风格差异过大的prompt;也可以增加一些你之前学过的有用的prompt。Upscale最满意的那一张。接下来解决大家最关心的「形似而神不似」的问题。其实非常简单,这个问题其实是:MJ直出和原人物在眼睛、眉毛、鼻子等其他地方的大小、间距有一些细微的差距。
在学习AI绘画这段时间,发现AI绘画并不会完全替代设计师,而是可以让出图质量更好,效率更高。比如上面是用midjourney生成线稿,PS稍微做一些修正,再用controlnet控制,stable diffusion上色,多套AI组合拳,可以快速生成效果惊艳的图作者:三思先欣赏下作品[heading3]1、线稿产出[content]mj关键词:Black and white line drawing illustration of a cute cat cartoon IP character,black line sketch,wearing a fortune hat,wearing a collar around the neck,Carrying a huge bag containing scrolls and ingots,matching rope and straps at his wrists,Chinese element style,popular toys,blind box toys,Disney style,white background--niji 5--style expressive[heading3]2、ps手动手动重绘错误的地方[content]有些图出来没有阴影容易飘,可以自己画一个出来
1.选个工具SD啊,midjourney啊都可以,作为一个小白,我先用了midjourney作为开始,之后去尝试SD。[1.4入门:AI绘画与视频](https://waytoagi.feishu.cn/wiki/Q5ddwxfkMiVUZBkQXN7cgXf4nOb)[目录:Midjourney相关教程](https://waytoagi.feishu.cn/wiki/VUadwndc5iRJktkzaYPcaLEynZc)各位小白多用搜索,各种教程其实咱文档库里都有,搜索这么用哈:1.“抄”个prompt加入教程和导航里面有很多公布了prompt的图片,找个喜欢的风格,先把提示词先摘出来[出图小技巧](https://waytoagi.feishu.cn/wiki/Ue7owFPMqiqVwwkvu2fc3K0vn8e)我的基础prompt摘自这里的水晶蘑菇,也在宣传片里出镜了哦。1.找ChatGPT一起改写有prompt之后,我只需要替换掉之前的描述,之后的风格描述词留着,然后把我对这只新的村民的描述直接问ChatGPT让他给你慢慢改就好了,巨简单粗暴的对话贴在下面:我其实就是让它给我翻译成中文,然后截取,然后替换成自己的,再让它翻译成英文。1.坐等出图这一步就是把提示词喂给Midjourney机器人就可以啦。初学者可能叠图啊喂图啊二合一啥的都不大会,这时候可以让Midnourey更自由一点,没事多按按V-U什么的让它先自己改,先弄出一张还算满意的图V1-V4,基于生成的某一张图修改再出4张U1-U4,选定某一张细节调整