Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ai控制骨骼动画

Answer

以下是关于 AI 控制骨骼动画的相关信息:

在 Stable Diffusion 中,使用 ControlNet 插件进行姿态约束时,对于国风 3 模型,点击生成可能得到相应姿势,但 AI 识别可能不准确,会出现骨骼错位等问题,需要耐心刷图和调整参数。作者还收集了不同 pose 的骨架图,可在公众号【白马与少年】回复【SD】获取以作人物动作参考。

Tripo AI 的模型详情页提供丰富工具和选项,可对模型进行编辑和下载等操作。模型工具包括收藏、分享、动态旋转或暂停、删除等按钮,在模型区域按住鼠标并拖动可自由旋转模型。编辑工具中的 Auto Rigging 可自动绑定骨骼,后续可在 Blender 里做动画。风格化选项有原始、乐高、像素化、沃罗诺伊图等,Custom 设置可根据特定软件或用途进行定制,Retopologize 提供不同精度的拓扑网格选项,Format 提供多种模型文件格式,选择“Download”可下载模型,使用“Refine”可进一步精修。

晨然在其 AI 作品《Devices》的创作中,工作流是使用 Blender 制作白模动画,导出深度图、线框图帧序列,使用 ComfyUI 进行风格迥异的渲染。他认为 AI 视频与传统工作流制作视频各有优缺点,不是替代关系。AI 内容生成速度快、成本低但不可控、画面粗糙;传统工作流可控性强但慢、成本高。应让 AI 与传统工作流结合,在随机性中寻找可控性,平衡两者以创造新的艺术创作流程。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】最强控制插件ControlNet(2)姿态约束

[title]【SD】最强控制插件ControlNet(2)姿态约束依旧是国风3模型,点击生成,这个姿势就绘制出来了。当然,AI的识别不会这么准确,经常会出现骨骼错位的崩坏图,所以需要你耐心的去刷图和调整参数。好了,今天我们介绍了ControlNet中关于姿态约束类的预处理器和模型。另外,我这边还收集了一些不同的pose的骨架图,可以在人物动作上做一些参考,有需要的可以添加我的公众号【白马与少年】,回复【SD】即可。-END-白马与少年Stable Diffusion、Blender等学习心得分享139篇原创内容(持续更新中)公众号微信扫一扫关注该公众号

Tripo AI入门手册:AI 3D创作,从未如此简单

模型详情页提供了丰富的工具和选项,可以对模型进行编辑和下载等操作。[heading2]1、模型工具[content]四个按钮选项,从左到右:第一个按钮是收藏,第二个按钮是分享,第三个按钮是动态旋转或者暂停,第四个按钮是删除。在模型区域按住鼠标并拖动可以自由旋转模型.[heading2]2、编辑工具[content]Auto Rigging自动绑定骨骼,后续有需要到Blender里做动画的可以使用风格化选项包括:Original(原始风格)Lego(乐高风格)Voxelize(像素化风格)Voronoi(沃罗诺伊图风格)Custom设置可根据特定软件或用途进行定制,包括:Babylon3ds Max3D printingCinema 4DGodotHoudiniiOSRetopologize提供不同精度的拓扑网格选项:llow(低)med(中)high(高)Format提供多种模型文件格式:usdfbxobjstlglb选择“Download”可下载模型使用“Refine”进一步的精修

晨然:万字复盘我的AI作品《Devices》| 解析AI创作中的变与不变

简单来说,工作流用一句话总结:使用Blender制作白模动画,导出深度图、线框图帧序列,使用ComfyUI进行风格迥异的渲染。我一直在思考一个问题:AI视频到底跟传统工作流制作视频的区别是什么?其实两者各有优缺点,并不是替代关系。AI内容速度碾压,接近零成本无限生成。AI极其不可控,很难可控构图、一致人物。AI画面粗糙,经不起细看。传统工作流(动画、电影)慢,极其可控,在制作之前即可预测内容。传统工作流成本高,需要规范流程由小到大制作。AI与传统工作流各有优劣,我觉得思考如何使用AI替代传统艺术工业,不如思考AI如何迸发新时代艺术创作流程。让AI做好AI擅长的内容,传统工作流做好传统工作流擅长的内容,两者结合,不谈替代。我想,我这不是拍过微电影又会AI嘛,为啥不结合一下呢?于是,就尝试了一下利用Blender的可控性和ComfyUI的随机性制作AI原生内容。传统工作流是在可控性中寻找创新的随机性,而AI工作流更多是在随机性中寻找可控性,那么最重要的问题变成了:如何平衡可控性与不可控性?这个思考会贯穿整个创作流程。ComfyUI节点编排工作流

Others are asking
有哪些比较好的AI知识库学习网站
以下是一些比较好的 AI 知识库学习网站及相关学习建议: 通往 AGI 之路知识库: 提供了全面系统的 AI 学习路径,帮助您了解从 AI 常见名词到 AI 应用等各方面知识。 包含关于 AI 知识库使用及 AIPO 活动的介绍、AIPO 线下活动及 AI 相关探讨、way to AGI 社区活动与知识库介绍等内容。 信息来源有赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等,推荐大家订阅获取最新信息并投稿。 有社区共创项目,如 AIPU、CONFIUI 生态大会,每月有切磋大会等活动,还发起了新活动 AIPO。 学习路径方面,有李弘毅老师的生成式 AI 导论等高质量学习内容,可系统化学习或通过社区共创活动反推学习,鼓励整理学习笔记并分享交流。 有经典必读文章,如介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,还包括软件 2.0 时代相关内容。 初学者入门推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 有历史脉络类资料,整理了 open AI 的发展时间线和万字长文回顾等。 网站:ytoAGI.com 相关渠道:公众号“通往 AGI 之路”、 在线教育平台:如 Coursera、edX、Udacity 等,上面有一系列为初学者设计的课程,您可以按照自己的节奏学习,并有机会获得证书。 对于新手学习 AI,建议: 了解 AI 基本概念:阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 开始 AI 学习之旅:在「」中,找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。 选择感兴趣的模块深入学习:AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。掌握提示词的技巧,它上手容易且很有用。 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 体验 AI 产品:与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。
2025-02-18
扣子AI应用发布到微信小程序中失败
扣子 AI 应用发布到微信小程序中失败可能有以下原因及解决办法: 1. 容器编排不运行: 宝塔面板中设置加速镜像不生效需安,通过命令行手动设置。 新建/etc/docker/daemon.json 文件(如果已经存在可以不用创建)。 在 daemon.json 中添加相应代码。 重启 Docker 服务:systemctl restart docker。若仍无法解决,可继续排查。 2. 本地镜像的方法: 服务下载:服务的百度网盘地址:https://pan.baidu.com/s/1Ueyp6KnOmD18h6wICwJKNg?pwd=85jv 提取码:85jv ;服务的夸克网盘地址:https://pan.quark.cn/s/189b6f3e0d94 。需要把 chatgptonwechat.tar 和 coze2openai.tar 下载到本地。 上传服务:在宝塔操作面板中点击文件,选择上传下载到本地的文件。上传到根目录/www/backup 文件夹下面。 导入镜像:选择 Docker 中选择本地镜像,然后选择导入镜像。导入镜像要选择上传的目录,如根目录/www/backup 。 3. 修改参数不生效:需要删掉“容器编排”和“容器”中的内容,再重新生成一次。 4. 知识库不更新:确认扣子里有点击右上角的发布按钮。 5. 微信机器人无法正常画图,给的图片链接点进去有错误提示:查看/root/chatgptonwechat/run.log 中有相关提示。可能是点链接的时候多了一个小括号。 6. 扫码后,手机登陆后,没有任何机器人的反应:配置有错错误,或者安装不对,根据步骤去逐一检查。或者重装。 7. 机器人回答问题:COW 本身处理不了一次调取多个对话。有代码能力,可以直接调整代码实现。 8. 宝塔之后登录的时候登录不上去:按下图所示重启服务器之后就好了,重启时间可能会久,但一定会重启成功,请耐心等待。 此外,零基础模板化搭建 AI 微信聊天机器人的步骤如下: 1. 直接对接 Coze 平台 Bot 的微信聊天机器人搭建: Coze 相关配置: 创建 Coze API 令牌:进入到,点击左下角的扣子 API 选项,进入到 API 管理页面,点击 API 令牌,按照图示创建第一个 API 令牌,创建成功后保存好,因为这个 API 令牌只会在创建成功后显示一次。 记下 Coze AI Bot 的 Bot ID:去到要绑定的 AI Bot 的设计界面,在所在的链接里面记下 Bot ID,将 Bot 发布到 Bot as API 上。
2025-02-18
剪辑和拍摄两个岗位 会不会被ai取代
目前的观点认为,剪辑和拍摄岗位不太可能被 AI 完全取代。例如,在相关法律法规的《促进创新的人工智能监管方法》中提到,AI 会对工作方式起到补充作用而非完全替代或破坏。在现代工作中,AI 有可能将人们从单调任务中解放出来,让人们有更多时间从事专业训练相关的工作。 同时,在好莱坞的现状中,尽管 AI 在电影制作中已被广泛使用,但也引发了一些争议。如在一些电影中使用生成式 AI 工具制作的图像引发了观众不满,但也有观点认为如果有适当保护措施,AI 可以创造就业机会。 另外,有预测称 2025 年将有 10 亿用户级 AI 助理诞生,AI 可能会取代部分岗位,但也会创造新的工程机会。
2025-02-18
我要做一个关于ai赋能社会组织的线上培训
以下是关于 AI 赋能社会组织线上培训的相关信息: 社区 AI 讲师招募: 招募背景:随着 AIGC 技术的快速发展,传统企业亟需通过 AI 转型实现降本增效与业务创新。工信部大数据产业人才基地计划为传统行业客户提供 AI 技术培训等服务,现面向社区招募具备实战经验的 AI 讲师与咨询专家。 涉及业务: 公开课:针对 B 端渠道持续展开公益科普,形式免费,部分渠道有经费,内容包括企业端的 AI 应用场景案例和 AI 通识类科普分享,目的是建立与企业渠道的信任及构建收费培训/咨询的转化通道。 线下培训:通过培训转化或直接招生,分成两天一夜、三天两夜的培训班,50 人以上开班,建议 100 人。 咨询服务:针对企业的咨询陪跑服务,包括 AI 营销能力搭建等。 近期安排: 商会公开课:时间暂定 2.22 日,线上直播,用户群体是商会会员,公开课主题为《AI 获客》。 重庆区域公开课:时间暂定 2.9 日,线上直播,用户群体是重庆地区相关领导,公开课主题为《Deepseek 引发的商业思考》。 民营经济大讲堂:时间与讲师团商量调整,线下付费,需评估讲师资历和案例,主题包括但不限于 AI 通识培训、AI 企业增长打法等。 省商会公开课:时间待定,线上直播,用户群体是商会会员,公开课主题为《AI 获客》。 SaaS 平台企业公开课:时间待定,线上直播,用户是 SaaS 平台上的企业,主题待定。 杭州市城投线下培训:时间 2 月底,针对城投内部线下培训,付费,主题可与讲师商量。 万人期待的字节 Trae Windows 版正式推出,免费: 重磅福利: AI 编程重磅直播:会邀请在 AI 编程领域取得成绩的嘉宾深度交流,由黄叔亲自主持,还邀请了 Eric 等嘉宾。 AI 编程训练营:WaytoAGI 和 AI 编程社推出为期 2 周左右的共学营,包含图文教程、视频、直播,社群内有老师答疑,完全免费。 相关链接:Trae Windows 版本已经上线,Mac 版本也可下载,官网地址:https://www.trae.ai/
2025-02-18
图片转视频的国产AI推荐
以下是为您推荐的国产图片转视频的 AI 工具: 1. 可灵:由快手团队开发,生成的图像和视频质量高。在视频生成方面,其视频生成质量卓越,画面清晰、连贯且内容丰富,生成速度快,对于国内用户可访问性强。但价格相对较高,重度用户年费可能达几千元,轻度用户有免费点数和较便宜的包月选项。 2. 通义万相:作为国产 AI 工具,在中文理解和处理方面表现出色,可选择多种艺术和图像风格,操作界面简洁直观,用户友好度高,且目前免费,每天签到获取灵感值即可。但为符合国内监管要求,某些类型图像无法生成,处理非中文语言或国际化内容可能不够出色,处理多元文化内容时可能存在偏差。 更多相关网站可以查看: 内容由 AI 大模型生成,请仔细甄别。
2025-02-18
图片转视频的AI推荐
以下是为您推荐的图片转视频的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的相关网站可以查看:https://www.waytoagi.com/category/38 。 另外,在视频转绘制作视频过程中,Topaz Video AI 是一个不错的插件,用于消除视频抖动和运动模糊。其使用方法如下: 解压对应文件,推荐使用绿色版,右键管理员运行 VideoAIportable.exe 文件,导入处理好的视频。主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。右边部分是主要对视频处理的方式,预设部分主要是放大视频、提升画质、提升帧率等。稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 左右,抖动需要开启,次数一般选择 2 保持默认不变。 在制作新年表情包时,生成新年场景可以输入关键词“新年、中国新年、喜庆热闹、恭喜发财”之类的词汇得到合适的新年背景。然后使用可灵 AI 1.6 图生视频工具让场景动起来,抽卡性价比不错,简单效果一般抽两三次即可。
2025-02-18
我想做动画小人,有什么好的工具
以下为您推荐一些制作动画小人的工具: 1. Anifusion: 网址:https://anifusion.ai/ ,twitter账号:https://x.com/anifusion_ai 功能: AI 文本生成漫画:输入描述性提示,AI 生成漫画页面或图像。 直观的布局工具:提供预设模板,可自定义漫画布局。 强大的画布编辑器:在浏览器中优化和完善 AI 生成的作品。 多种 AI 模型支持:高级用户可访问多种 LoRA 模型实现不同风格和效果。 商业使用权:用户对创作作品拥有完整商业使用权。 使用案例:独立漫画创作、快速原型设计、教育内容创作、营销材料制作、粉丝艺术和同人志创作等。 优点:非艺术家也能轻松创作漫画;基于浏览器,无需安装额外软件;快速迭代和原型设计能力;拥有创作的全部商业权利。 2. Midjourney: 教程链接:https://leftpocket.cn/post/ai/cartoon/ 背景:之前有制作从零开始使用 Midjourney 并通过简单提示词生成图片的教程。 操作步骤:选一张满意的图片,在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,上传文件选取图片,发送,复制图片链接,结合 prompt 提示词发送给 Midjourney 进行以图绘图生成头像。 3. Viggle: 网址:http://viggle.ai ,discord 免费体验:https://discord.com/invite/viggle 功能: /mix:将角色图像混合到动态视频中。 /animate:使用文本运动提示为静态角色设置动画。 /ideate:纯粹从文本创建角色视频。 /character:通过文本提示创建角色并将其动画化。 /stylize:使用文本提示符重新设计角色的样式并将其动画化。 操作提示:官方提供了多种动作提示词可供参考,点击对应动作下方的复制按钮即可复制提示词到生成视频的时候使用,提示词地址:https://viggle.ai/prompt
2025-02-08
有生成MG动画的AI平台吗
目前有一些涉及动画生成的 AI 平台,例如 Kinetix(https://www.kinetix.tech/)、DeepMotion(https://www.deepmotion.com/)、RADiCAL(https://getrad.co/)、Move Ai(https://www.move.ai/)和 Plask(https://plask.ai/)。这些平台在动画生成方面具有一定的创新性和实用性,但可能并非专门用于生成 MG 动画。
2025-02-08
制作动画
以下是关于制作动画的一些方法和经验: ComfyUI Flux 与 runway 制作绘画视频: 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD 等。 绘制的视频:在 runway 里面,使用提示词从空白页面开始逐行创建,并把生成的图片作为尾帧。 草图上色:使用 flux 的 controlNet,depth 固定,controlNet 使用的是 Union 的版本,目前不建议权重调得太高,结束时间也是。 生成上色后的视频。 分享好玩的 flux lora 展示绘画过程,触发词:how2draw。 大雷的制作经验: 在时间和金钱的双重压力下,找到适合自己的制作捷径。AI 目前是辅助工具,帮忙搞定图和片,其他部分靠人。 大致工作流程:大雍负责前期的内容构思和脚本编写,大雷主要负责图片、视频生成和视频剪辑。 Midjourney 提示词主要围绕皮克斯、迪士尼、3D 风格来写,例如:"a small white Chiense dragon,anthropomorphic,Smile with surprise,wearing a school uniform,looking at a blurry gift box in the foreground,super closeup shot,camera focus on his face,3D render,Unreal Engine,Pixar 3D style,blurry classroom scene,bright sunshinear 16:9niji 6",重点是"a small white Chiense dragon,anthropomorphic,3D render,Unreal Engine,Pixar 3D style",尺寸比例 16:9,模型选择 niji 6,其他根据需求调整。 动画主要用 runway,看中它的控制笔刷(在制作时还没有更新自动识别区域的笔刷,需手动选择范围)。
2025-02-05
帮我创造一副一只小狗在海边溜达的动画
很抱歉,目前提供的内容中没有直接关于创造一只小狗在海边溜达动画的具体方法和资源。但您可以参考以下思路来创作: 1. 明确动画的风格和细节,例如小狗的品种、毛色、动作姿态,海边的景色、天气等。 2. 利用相关的动画制作软件,如 Adobe Animate、Toon Boom Harmony 等。 3. 通过 AI 绘画工具生成小狗和海边的图像素材,再将其整合到动画中。 4. 设计合理的动画帧数和流畅的动作过渡,以展现小狗在海边溜达的生动场景。
2025-01-17
列举常用的剪辑软件、硬件设备、技术支持和3d动画软件
常用的剪辑软件有 Adobe Premiere Pro、Final Cut Pro、DaVinci Resolve 等。 常用的硬件设备包括高性能的计算机主机,具备强大处理能力的 CPU(如英特尔酷睿 i7 或 i9 系列)、大容量高速内存(16GB 及以上)、专业图形显卡(如 NVIDIA GeForce 系列)、大容量高速存储硬盘(如 SSD 固态硬盘),以及高分辨率和色彩准确的显示器。 常见的技术支持包括视频编码和解码技术(如 H.264、H.265 等)、特效插件(如 After Effects 插件)、色彩校正工具等。 常用的 3D 动画软件有 Maya、3ds Max、Blender 等。
2025-01-16
列举常用的剪辑软件、硬件设备以及技术支持,3d动画和ai视频生成
以下是关于剪辑软件、硬件设备、技术支持、3D 动画和 AI 视频生成的相关信息: AI 视频生成工具: Runway: 主要能力:文生视频(Text 2 Video)、Prompt+图像生成视频(Text+Image to Video)、无 Prompt 直接图片转视频(Image to Video)。 使用建议:Text to Video 时,优先使用右下角的“Free Preview”免费生成多组图片,然后从中选择一张进行视频生成以节约 credits。 近期更新:支持将 4s 的视频延长,每次延长需消耗 20 credits;9 月更新中,支持 110 级的 motion slider 调节,默认幅度为 5,同时支持水平、垂直、空间和旋转的运镜,并支持调节运动速度。 其他功能:提供 30 多项图片、视频处理能力,如 Inpainting 视频修复、Motion Tracking 视频主体跟随运动、Remove Any Background 删除视频元素/背景、3D Texture 生成 3D 纹理等。控制台上线了 Watch 模块,可查看官方精选的创意案例。推荐教程:ai 繪圖教學|Ai 动画:https://www.youtube.com/watch?v=Yj73NRmeSZM 由于您未明确提及剪辑软件、硬件设备和技术支持的具体需求,暂时无法为您详细列举。如果您能提供更具体的要求,我将为您提供更有针对性的信息。
2025-01-16
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
使用O1来控制智能硬件
O1 是一个完全开源的可以控制家里电脑的 AI 语音智能助手。它能够看到您的屏幕内容,学习使用您常用的应用,无论您身在何处,都能通过按下按钮、讲话让它帮您操作电脑完成任务。其 CAD 文件、电路设计、代码完全开源,有能力的开发者可以直接制作该设备。灵感来自 Andrej Karpathy 的 LLM 操作系统,10 月份他的 LLM 科普视频含金量仍在上升。O1 运行一个代码解释语言模型,并在计算机内核发生特定事件时调用它。项目地址:https://github.com/OpenInterpreter/01
2025-02-05
控制模特的姿势
以下是关于控制模特姿势的方法: 在使用相关 AI 工具时,如 Stable Diffusion 等,有以下几种控制模特姿势的方式: 1. 使用蒙版和提示词:输入相关提示词,如“蓝色毛衣”,处理蒙版区域内容为“填充”,调整尺寸与图像一致,重绘幅度为 1。但可能会出现衔接问题,此时可降低重绘幅度或添加 openpose 来控制人物身体,获得正确姿势。 2. 利用 ControlNet 功能: 正常填写大模型和关键词生成照片。 鼠标滑到最下面,点击“ControlNet”。 点击空白处上传指定姿势的照片,并点击“启用”。 在“预处理器”和“模型”里选择“openpose”,用于让计算机识别人物姿势。 点击“预览预处理结果”,最后点击生成照片,即可得到指定姿势的照片。 在 ControlNet 参数配置方面: tile 用于对整体画面的控制,可选择分块+固定颜色+锐化,以保证颜色统一降低后续闪烁,不需要全过程引导,仅在开始时固定画面。 lineart 用于提取人物线条,保证人物整体不跑偏,权重给到 0.6 以控制整体画面输出稳定。 openpose 用于控制人物的姿态、表情和动作,推荐使用 DWpose 处理器,其对面部和手部的识别效果较好。
2025-01-17
MJ中如何精准控制颜色
以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息: 1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。 2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。 3. 在 MJ 的公式方面: 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。 特定公式: 连续场景变化公式: 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyberpunk city)+场景风格描写+官方命令。 木偶公式:人物图片+场景+人物+动作+风格+官方命令。 等距粘土公式: 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
2025-01-17
图的角色 用 cref 去控制一致性 风格可以用 sref 去控制
在 Midjourney 中,cref 和 sref 是用于引用图片的功能,它们有以下区别和使用方法: 1. 角色参考(cref): 作用:保持图像角色的一致性。 使用方法:在提示后添加“cref”,紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girlcref。可以使用“cw”调整参考图像对生成图像的影响程度,数值范围从 0 到 100。强度 100(“cw 100”)是默认值,会使用面部、头发和衣服,cw 为 0 的话仅保证脸部一致。基础格式为“cref 图片链接,cw 100”。 参考链接: 2. 风格参考(sref): 作用:生成类似风格的图片,保持画风的一致性。 使用方法:在提示后添加“sref”,紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girlsref。可以使用“sw”调整参考风格对生成图像的影响程度,数值范围从 0 到 1000。基础格式为“sref 图片链接,sw 100”。 参考链接: 如果想引用一张图,但只是把它作为新图的一部分,可以使用“sref”或“cref”,并通过调整“sw”或“cw”的值来控制引用图像的影响程度。例如:/imagine prompt beautiful girlsrefsw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格。
2025-01-13
我想找一个能够实现运动控制逻辑的编程助手
目前在 AI 领域中,有一些编程助手可以帮助您实现运动控制逻辑。例如,您可以考虑使用 Python 中的相关库,如 `numpy`、`matplotlib` 等,结合数学和物理知识来构建运动控制模型。另外,一些专门的机器人编程框架和工具,如 ROS(Robot Operating System)也能为您提供支持。但具体选择哪种工具,还需要根据您的具体需求和技术背景来决定。
2024-11-20