以下是关于 AI 控制骨骼动画的相关信息:
在 Stable Diffusion 中,使用 ControlNet 插件进行姿态约束时,对于国风 3 模型,点击生成可能得到相应姿势,但 AI 识别可能不准确,会出现骨骼错位等问题,需要耐心刷图和调整参数。作者还收集了不同 pose 的骨架图,可在公众号【白马与少年】回复【SD】获取以作人物动作参考。
Tripo AI 的模型详情页提供丰富工具和选项,可对模型进行编辑和下载等操作。模型工具包括收藏、分享、动态旋转或暂停、删除等按钮,在模型区域按住鼠标并拖动可自由旋转模型。编辑工具中的 Auto Rigging 可自动绑定骨骼,后续可在 Blender 里做动画。风格化选项有原始、乐高、像素化、沃罗诺伊图等,Custom 设置可根据特定软件或用途进行定制,Retopologize 提供不同精度的拓扑网格选项,Format 提供多种模型文件格式,选择“Download”可下载模型,使用“Refine”可进一步精修。
晨然在其 AI 作品《Devices》的创作中,工作流是使用 Blender 制作白模动画,导出深度图、线框图帧序列,使用 ComfyUI 进行风格迥异的渲染。他认为 AI 视频与传统工作流制作视频各有优缺点,不是替代关系。AI 内容生成速度快、成本低但不可控、画面粗糙;传统工作流可控性强但慢、成本高。应让 AI 与传统工作流结合,在随机性中寻找可控性,平衡两者以创造新的艺术创作流程。
[title]【SD】最强控制插件ControlNet(2)姿态约束依旧是国风3模型,点击生成,这个姿势就绘制出来了。当然,AI的识别不会这么准确,经常会出现骨骼错位的崩坏图,所以需要你耐心的去刷图和调整参数。好了,今天我们介绍了ControlNet中关于姿态约束类的预处理器和模型。另外,我这边还收集了一些不同的pose的骨架图,可以在人物动作上做一些参考,有需要的可以添加我的公众号【白马与少年】,回复【SD】即可。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号
模型详情页提供了丰富的工具和选项,可以对模型进行编辑和下载等操作。[heading2]1、模型工具[content]四个按钮选项,从左到右:第一个按钮是收藏,第二个按钮是分享,第三个按钮是动态旋转或者暂停,第四个按钮是删除。在模型区域按住鼠标并拖动可以自由旋转模型.[heading2]2、编辑工具[content]Auto Rigging自动绑定骨骼,后续有需要到Blender里做动画的可以使用风格化选项包括:Original(原始风格)Lego(乐高风格)Voxelize(像素化风格)Voronoi(沃罗诺伊图风格)Custom设置可根据特定软件或用途进行定制,包括:Babylon3ds Max3D printingCinema 4DGodotHoudiniiOSRetopologize提供不同精度的拓扑网格选项:llow(低)med(中)high(高)Format提供多种模型文件格式:usdfbxobjstlglb选择“Download”可下载模型使用“Refine”进一步的精修
简单来说,工作流用一句话总结:使用Blender制作白模动画,导出深度图、线框图帧序列,使用ComfyUI进行风格迥异的渲染。我一直在思考一个问题:AI视频到底跟传统工作流制作视频的区别是什么?其实两者各有优缺点,并不是替代关系。AI内容速度碾压,接近零成本无限生成。AI极其不可控,很难可控构图、一致人物。AI画面粗糙,经不起细看。传统工作流(动画、电影)慢,极其可控,在制作之前即可预测内容。传统工作流成本高,需要规范流程由小到大制作。AI与传统工作流各有优劣,我觉得思考如何使用AI替代传统艺术工业,不如思考AI如何迸发新时代艺术创作流程。让AI做好AI擅长的内容,传统工作流做好传统工作流擅长的内容,两者结合,不谈替代。我想,我这不是拍过微电影又会AI嘛,为啥不结合一下呢?于是,就尝试了一下利用Blender的可控性和ComfyUI的随机性制作AI原生内容。传统工作流是在可控性中寻找创新的随机性,而AI工作流更多是在随机性中寻找可控性,那么最重要的问题变成了:如何平衡可控性与不可控性?这个思考会贯穿整个创作流程。ComfyUI节点编排工作流