在保持人物模样及服装等统一方面,如果使用 Midjourney ,有以下相关信息:
[title]卡兹克:我们花了10天时间,给CCTV6做了一部AI短片- 5000字全流程复盘拆解[heading1]三.AI生图在图片生成上,我们依然用的是Midjourney,原因依然单纯的很简单:我要的电影感和审美,只有Midjourney可以做出来。很多人问,画面的电影感到底怎么做出来,为什么我的图总是一股子AI感。其实挺简单的,画面的电影感无非就是几个点:画幅,审美、色调、构图、光影、景深等等。我最喜欢用的画幅比例就是,21:9。画幅的比例是会影响生图的构图和光影的,21:9,是出电影感最好的比例。同时在Prompt里,也可以加电影的专用摄影机,比如RED Helium 8K等等。而我们的整体Prompt风格后缀:________.Shot on Sony Venice 2,muted color tones,green and dark gray,award-winning composition,cinematic scene --ar 21:9而在人物一致性上,在有了Midjourney的新功能Cref以后,其实就非常简单了。我们直接先跑了一张主角的定妆照。然后在需要出现主角人物的地方,扔进去Cref。保持发型、人脸、衣服。坦率的讲,Midjourney对亚洲人脸的Cref一致性,要比对欧美的人脸的一致性效果差太多太多了,年轻人还好点,亚洲老人简直惨不忍睹。而且Cref的效果,在画面的审美和构图上,其实是有一定的破坏性的,所以在原则上,是能不用Cref就不用Cref,比如只有背影的时候,写个短发男人黑卫衣就完事了。这是人物一致性,而场景一致性,目前基本上还没有任何解决办法,纯粹随缘。roll的大差不差也就那样了。
[title]前Sora时代我最想做的AI短片——使用Pika、Pixverse、Runway、SVD四大AI视频工具更多写剧本的方法、小技巧、格式还有软件,希望后面有时间可以多写一些。照例,先放上我写的分镜,这是非常粗糙且不规范的分镜,正常的分镜是要更仔细的,所以大家凑活看。与上一次制作不同的是,因为更了解AI生图的局限,所以我这次写的分镜,有百分之八十都用上了。也算提高了效率,但还是写得太粗糙了,下次尽量按照正规格式写得准确一些,如果我的肝还好的话(主要是就只有我和Zoik看就有点偷懒了)……给大家推荐一些编剧相关的书,虽然我觉得写短片看这些书还是太多了,但基本涵盖了常见的剧作书,供参考吧~其实也不用看这么多书,只不过我看到同类型的书就想买来对比,没时间的话,看《救猫咪》或《电影剧本写作基础》的第一册就行。主要还是练习,写。第二步,生图这次生图,我明显感觉到Midjourney的语义理解比之前好了很多。很多人在生图上都遇到了人物和场景一致性的问题。有两个取巧的方式,一个是像我上个视频一样生成动物,动物会比较容易保持一致性,另一个方式是特定的名人/或者有特殊属性的人物。这次我们用的是第二种方式。首先,先确定好影片风格,这次用的是皮克斯动画风格。真的不是我们不做其他题材,是因为这个故事比较适合用动画呈现,后面的片子我们会多尝试别的题材风格。其次,先确定好人物形象。短片有两个主要角色,角色一:扎马尾、穿白色T恤、穿牛仔裤的14岁女孩;角色二:戴眼镜、灰色头发、穿灰色短衬衫的50岁男人。
[title]Midjourney人物一致性已上线DavidH:Hey @everyone @here we're testing a new"Character Reference"feature today This is similar to the"Style Reference"feature,except instead of matching a reference style it tries to make the character match a"Character Reference"image.How it worksType --cref URL after your prompt with a URL to an image of a characterYou can use --cw to modify reference 'strength' from 100 to 0strength 100(--cw 100)is default and uses the face,hair,and clothesAt strength 0(--cw 0)it'll just focus on face(good for changing outfits / hair etc)What it's meant forThis feature works best when using characters made from Midjourney images.It's not designed for real people / photos(and will likely distort them as regular image prompts do)Cref works similarly to regular image prompts except it 'focuses' on the character traitsThe precision of this technique is limited,it won't copy exact dimples / freckles / or tshirt logos.Cref works for both Niji and normal MJ models and also can be combined with --srefAdvanced FeaturesYou can use more than one URL to blend the information /characters from multiple images like this --cref URL1 URL2(this is similar to multiple image or style prompts)How does it work on the web alpha?Drag or paste an image into the imagine bar,it now has three icons.selecting these sets whether it is an image prompt,a style reference,or a character reference.Shift+select an option to use an image for multiple categoriesRemember,while MJ V6 is in alpha this and other features may change suddenly,but V6 official beta is coming soon.We'd love everyone's thoughts in ideas-and-features We hope you enjoy this early release and hope it helps you play with building stories and worlds