直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

视频导出动作的AI

回答

以下是关于视频导出动作的 AI 相关信息:

  • AI 视频导出方面:普通社交媒体分享选 1080P,需放大选 720P,码率越高越好,可自定义最高 5 万。
  • Move AI 推出的 Move API 能从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据,相关链接为 https://move.ai/api 。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

娜乌斯嘉AIGC商业片制作 2024年11月1日 - 智能纪要

AI视频制作流程与首尾帧衔接技巧AI视频下载:可一键无水印原图下载,还能在资产功能中批量操作,嗅探下载可去水印。AI视频合成:使用通用软件剪映,将下载的视频全选拖拽进行修剪,添加音效、音乐等。AI视频导出:普通社交媒体分享选1080P,需放大选720P,码率越高越好,可自定义最高5万。首尾帧衔接前提:画面构图和元素最好有一致性,如相同的透视类型。首尾帧衔接操作:在季梦上传首帧和尾帧,选择标准模式、慢速或中速,生成时长6秒较合适;可灵只能上传首帧和尾帧,无更多操作设置。首尾帧衔接问题处理:若出现渐变bug,会PS的可处理,如将原图再次拖入。利用AI工具进行图片处理与生成的技巧分享图片拖选与删除操作:将图片拖进软件,框选需删除部分,对智能对象需栅格化后再删除。前后景生成与对比:通过P图生成合理的前后景,对比了季梦、可林等工具生成效果,季梦生成较完美。工具选择与费用:介绍了不同AI工具的特点、费用和使用场景,如可短期购买Wrong Way会员。提示词运用与镜头描述:强调穿梭镜头相关提示词的重要性,列举多种镜头运动方式的描述词。人物图片生成:在AI图片生成红衣汉服美女,可规定人物面部一致性,季梦1.2版本面部易变形,可林脸部表现较好。

XiaoHu.AI日报

🔗 https://x.com/xiaohuggg/status/1761605006535602516?s=205⃣️🏃 Move AI推出Move API:从2D视频生成3D运动数据支持多种3D文件格式导出为AR应用、游戏开发等提供高质量3D运动数据🔗 https://move.ai/api🔗 https://x.com/xiaohuggg/status/1761590288576061573?s=206⃣️📱 AllenTom/diffusion-client项目:为Android用户提供与Stable-Diffusion-WebuUI服务交互的客户端支持图像生成、编辑、修复、换脸等包含文本到图像、图像到图像、图像修复等功能🔗 https://github.com/AllenTom/diffusion-client?tab=readme-ov-file🔗 https://x.com/xiaohuggg/status/1761371355583516842?s=20

XiaoHu.AI日报

🔗 https://x.com/xiaohuggg/status/1761605006535602516?s=205⃣️🏃 Move AI推出Move API:从2D视频生成3D运动数据支持多种3D文件格式导出为AR应用、游戏开发等提供高质量3D运动数据🔗 https://move.ai/api🔗 https://x.com/xiaohuggg/status/1761590288576061573?s=206⃣️📱 AllenTom/diffusion-client项目:为Android用户提供与Stable-Diffusion-WebuUI服务交互的客户端支持图像生成、编辑、修复、换脸等包含文本到图像、图像到图像、图像修复等功能🔗 https://github.com/AllenTom/diffusion-client?tab=readme-ov-file🔗 https://x.com/xiaohuggg/status/1761371355583516842?s=20

其他人在问
请问有没有AI工具可以实现把一个物体生成多个角度
目前有一些 AI 工具可以实现把一个物体生成多个角度。例如,在图像生成方面,像 OpenAI 等机构的相关模型能够生成同一场景的多个角度,包括具有物理上准确的光线,甚至在某些情况下还能生成物理上准确的流体和雨水。 在生成 AI 人物形象时,也可以通过选择不同的拍摄角度来实现。常用的角度包括高角度、低角度和平视角度。 高角度:位于被拍摄对象的上方,适合拍摄俯视角度的场景,可以突出被拍摄对象的大小和高度。 低角度:位于被拍摄对象的下方,适合拍摄仰视角度的场景,可以突出被拍摄对象的高度和威严感。 平视角度:与被拍摄对象在同一高度,适合拍摄平面场景,可以突出被拍摄对象的水平线和平衡感。 此外,人物构图的视角还可以按照相机相对于被拍摄对象的位置,分为正面、背面和侧面等不同方向。 正视角:拍摄对象正对着相机的姿态,使人像呈现出正面的视角。 后视角:从被摄对象的背后拍摄的视角,能营造出神秘或者引人遐想的氛围。
2024-11-05
ai未来发展
AI 的未来发展具有以下几个方面的特点和趋势: 1. 应用场景不断扩展: 自动驾驶:用于开发自动驾驶汽车,提升交通安全性和效率。 交通管理:优化交通信号灯和交通流量,缓解拥堵。 物流和配送:优化物流路线和配送计划,降低运输成本,包括无人机送货到偏远地区。 教育:提供个性化学习体验。 农业:分析农田数据,提高农作物产量和质量。 娱乐:开发虚拟现实和增强现实体验。 能源:优化能源使用,提高能源效率。 2. 资金投入增加:预计 2024 年有团队会花费超过 10 亿美元训练单个大型模型,生成式 AI 的热潮持续且更加“奢华”。 3. 面临计算压力挑战:政府和大型科技公司承受计算需求压力,逼近电网极限。 4. 对选举的潜在影响:虽尚未成真,但需警惕。 5. 为公司赋能:许多公司将 AI 融入工作流程,快速达成 KPI,如 ServiceNow、Palo Alto Networks、Hubspot、Klarna 等公司通过不同方式获益。 6. 未来有望围绕 AI 功能重新设计 UX 和 UI,开发全新用户界面以提供新体验。 总之,AI 领域充满惊喜、伦理挑战和巨大的商业价值,未来将继续突破界限、挑战极限,并可能重新定义一些熟悉的词汇。
2024-11-05
有没有关于动捕的AI
以下是关于动捕的 AI 相关信息: Move AI 是由一家成立于 19 年的英国公司推出的产品。它的特点是通过手机拍摄视频画面实现动作捕捉,无需佩戴动捕设备即可获取动作捕捉数据,能够极大降低 3D 动画制作成本。 目前测试版应用还比较简陋,公开可下载的 Move AI 版本目前也不再接受新用户注册,全部功能开放使用应该还需要一定时间。 Move AI 支持多台移动端设备同时录制视频,视频上传到 web 端后进行动作检测,支持导出为 FBX 等格式的文件,并导入 iClone 8、Blend、Maya 等软件中,驱动模型进行动作播放。 目前无法实践测试效果,找了半年前的一个测评案例给大家看下,by JSFILMZ,完整使用过程可见:https://www.youtube.com/watch?v=PDFqN_pvEUE 。 该产品若开放使用,会对电影、游戏 3D 动画制作、虚拟主播直播、影视剧制作等场景会产生深刻影响。未来设计师可能只需要拍摄特定动作并映射到制作好的 3D 模型中,快速制作动画方案。 此外,在游戏创作中,还有一些公司涉足动捕相关的生成式 AI 领域,如 Kinetix、DeepMotion、RADiCAL、Move Ai 和 Plask。
2024-11-05
AI大模型的历史路径
AI 大模型的发展历史路径大致如下: 1. 早期阶段(1950s 1960s):出现专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理得到发展。 3. 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等兴起。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等技术不断发展。 自 2022 年 11 月 30 日 ChatGPT 发布以来,AI 大模型在全球范围内掀起了大规模的人工智能浪潮。国内学术和产业界在过去一年也有了实质性突破,大致分为三个阶段: 1. 准备期:ChatGPT 发布后,国内产学研迅速形成大模型共识。 2. 成长期:国内大模型数量和质量开始逐渐增长。 3. 爆发期:各行各业开源闭源大模型层出不穷,形成百模大战的竞争态势。 随着大模型技术的愈发成熟和规模增大,为 AI Agent 提供了强大能力,有望构建具备自主思考、决策和执行能力的智能体,广泛应用于多个行业和领域。当前 AI 前沿技术点包括大模型(如 GPT、PaLM 等)、多模态 AI、自监督学习、小样本学习、可解释 AI、机器人学、量子 AI 以及 AI 芯片和硬件加速等。
2024-11-05
详细描述AI大模型历史
AI 大模型的发展具有丰富的历史。 早期阶段,人工智能经历了从图灵测试、早期的图灵机器人和 ELISA,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统等的发展。 随着技术的进步,大模型逐渐兴起。其由数据、算法、算力构成,算法有技术架构的迭代,如英伟达的显卡辅助模型训练,而数据质量对生成理想的大模型至关重要。 近年来,从 2022 年开始掀起了生成式 AI 的革命。生成式 AI 是深度学习中的一个细分流派,相较之前的所有 AI 实现方法,在结果质量和效果上有了根本性、跨时代的进步。在某些细分场景应用中,甚至让人感觉通过了图灵测试。 随着大模型技术愈发成熟、规模增大,为 AI Agent 提供了强大能力,有望构建具备自主思考、决策和执行能力的智能体,广泛应用于多个行业和领域。如今,大模型和多模态模型呈现出百花齐放的态势。
2024-11-05
AI大模型历程
AI 大模型的发展历程如下: 1. 早期阶段(1950s 1960s):包括专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):出现专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等得到发展。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等技术兴起。 自 2022 年 11 月 30 日 ChatGPT 发布以来,国内大模型大致经历了三个阶段:准备期(ChatGPT 发布后国内产学研迅速形成大模型共识)、成长期(国内大模型数量和质量开始逐渐增长)、爆发期(各行各业开源闭源大模型层出不穷,形成百模大战的竞争态势)。 当前,随着大模型技术的愈发成熟和规模增大,为 AI Agent 提供了强大能力,有望构建具备自主思考、决策和执行能力的智能体,并广泛应用于多个行业和领域。当前 AI 的前沿技术点包括:大模型(如 GPT、PaLM 等)、多模态 AI(视觉 语言模型如 CLIP、Stable Diffusion 以及多模态融合)、自监督学习(自监督预训练、对比学习、掩码语言模型等)、小样本学习(元学习、一次学习、提示学习等)、可解释 AI(模型可解释性、因果推理、符号推理等)、机器人学(强化学习、运动规划、人机交互等)、量子 AI(量子机器学习、量子神经网络等)、AI 芯片和硬件加速。
2024-11-05
能接收并阅读PDF文件,并将其导出PNG格式思维导图的AI软件
目前暂时没有能够直接接收并阅读 PDF 文件,并将其导出为 PNG 格式思维导图的 AI 软件。但您可以通过以下步骤来实现类似的效果:首先,使用专门的 PDF 阅读软件打开 PDF 文件,然后通过手动整理关键内容,再利用支持生成 PNG 格式思维导图的工具(如百度脑图、XMind 等)来创建思维导图,最后导出为 PNG 格式。
2024-08-09
suno可以导出音频吗
可以导出。Suno 是一款基于人工智能技术的音乐创作工具,它可以帮助用户创作各种风格的音乐作品。Suno 的主要特点如下: 1. 无需专业音乐知识,任何人都可以使用 Suno 轻松创作音乐。 2. 通过自然语言描述,Suno 可以生成符合要求的旋律、和声、鼓点等音乐元素。 3. 支持多种流行音乐风格,如流行、嘻哈、电子等。 4. 提供有用的建议和指导,帮助用户完成整个创作过程。 5. 可将生成的音乐导出为常见音频格式。 Suno 利用人工智能技术降低了音乐创作的门槛,让普通用户也能尝试音乐创作,为音乐创作带来了新的可能性。它代表了人工智能在音乐创作领域的一种创新应用。 Suno 操作指北如下: 1. 注册官方地址加入 discord。 2. 在消息栏输入/chirp。 3. 按下 Enter,将出现一个弹出窗口。 4. 输入你歌曲风格以及歌词到对应框中,或者在 Chirp 提供的 ChatGPT 框中输入关键词让 AI 帮你生成。 5. 点击提交。 Chirp 操作如下: 1. Chirp v1 更新了类型描述窗口。 2. 提交完成后,等待 23 分钟,即可生成两个示例音频,目前 Chirp 最多可生成 40 秒的音频。 3. 生成的两个示例音频,比如你喜欢第一个,就点击⏩Continue 1,Chirp 就会弹出 Continue 窗口,你可以继续填入你想要的歌曲风格和歌词,点击提交,Chirp 会根据你的提示生成新的两个示例音频。 4. 如果你觉得生成的两个音频不满意,可以点击🔁,Chirp 会弹出窗口提供修改,点击提交即可生成新的两个示例音频。 5. 当你延续生成足够多的音频,想要将它们连接起来生成一个完整的音频,可以点击最后想要的音频所对应的❤️,Chirp 会自动帮你剪接之前所选的音频并生成完整音频,这个过程不需要消耗次数。 6. 延续音频流程:/Chirp 输入→⏩Continue→⏩Continue→❤️。 官方计划提供每天免费 5 次生成机会,不得累积,Chirp v1 是 Suno 在今年九月份推出的版本,目前推出网页版功能,可最多生成 1 分 20 秒的音频
2024-05-10
文字转视频软件
以下是一些文字转视频的软件和相关信息: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文字转视频的网站可以查看:https://www.waytoagi.com/category/38 。 通过 ChatGPT 生成文案,将这些文案复制到支持 AI 文字转视频的工具内,可实现短视频的自动生成。市面上一些手机剪辑软件也支持文字转视频,如腾讯智影的数字人播报功能、手机版剪映的图文成片功能。这类工具操作相对简单,让大众生产视频更轻松。 Morphstudio 的使用方法: 1. MorphVideoBot 的 Text to Video 命令:/video ,示例:/video Hello World!ar 16:9 motion 5 camera zoom in fps 30 s 5 。 2. MorphBot 的 Image to Video 命令:/animateA cat is walking ar 16:9 motion 5 camera pan up fps 30 。 参数说明: ar(MorphVideoBot 专用):设置视频的宽高比,如 16:9、4:3、1:1、3:4、9:16 等。 motion:调整视频中运动的强度,值越低运动越轻微,值越高运动越夸张。 camera:控制相机运动,如 Zoom(缩放):camera zoom in/out;Pan(平移):camera pan up/down/left/right;Rotate(旋转):camera rotate clockwise/counterclockwise 或 camera rotate cw/ccw;Static(静止):camera static 。 fps:设置视频的帧率,默认是每秒 24 帧。 s(MorphVideoBot 专用):设置视频的时长(秒)。 提示:更详细和描述性的提示可能会在生成的视频中产生更好的结果。可以随意尝试不同的设置以达到期望的效果。 内容由 AI 大模型生成,请仔细甄别。
2024-11-05
AI如何生成视频
AI 生成视频主要有以下几种方式和流程: 方式: 1. 文本生成视频:通过输入文本提示生成视频。在 Adobe 的相关工具中,在 Advanced 部分可使用 Seed 选项添加种子编号来控制生成内容的随机性,相同的种子、提示和控制设置能重新生成类似的视频剪辑。 2. 图片生成视频:先生成角色和场景的视觉描述,再使用 AI 图像生成工具创建图像,最后将其组合成视频。 3. 视频生成视频:对已有视频进行处理和生成新的视频。 流程: 1. 小说内容分析:使用如 ChatGPT 等 AI 工具分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:利用如 Stable Diffusion 或 Midjourney 等工具生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:借助如 Adobe Firefly 等 AI 配音工具将小说文本转换为语音,并添加背景音乐和音效。 6. 视频编辑与合成:使用如 Clipfly 或 VEED.IO 等视频编辑软件将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2024-11-05
有没有把视频中的中文替换成英文的免费软件
以下为一些可以将视频中的中文替换成英文的免费软件或方法: 1. DeepL(网站): ,点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件): ,安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML / TXT 文件」、「翻译本地字幕文件」 。 3. calibre(电子书管理应用): ,下载并安装 calibre,并安装翻译插件「Ebook Translator」 。 4. 谷歌翻译(网页): ,使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页): ,点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、PDF、Word、Excel、PPT、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 8. 浏览器自带的翻译功能:如果一些 PDF 太大,翻译工具不支持,除了将 PDF 压缩或者切分外,还可以转成 HTML 格式,然后使用浏览器自带的网页翻译功能。
2024-11-05
如何根据文字生成视频
文字生成视频可以通过以下方式和使用以下产品实现: 一些提供文字生成视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:可在 Stable Diffusion 基础上安装使用,能在图片基础上生成视频。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多产品可查看: 在 Adobe Firefly 中生成带有文本提示和图像的视频: 在 Adobe Firefly 网站(https://firefly.adobe.com/)上选择“生成视频”。 在 Generate video 页面的 Prompt 字段输入文本提示,还可在 Image 部分的 Upload 选项中使用图像作为第一帧并为视频生成提供视觉提示。 在 General settings 部分确定 Aspect ratio 和 Frames per second。 在 Advanced 部分,可使用 Seed 选项添加种子编号来控制 AI 创建内容的随机性。 最后选择 Generate 生成。 以上工具适用于不同的使用场景和需求,您可以根据自身情况进行选择。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-05
提取视频中的语音转文字
要提取 B 站视频中的字幕文字内容,可按以下步骤操作: 1. 打开 B 站视频,如果在视频栏下面有字幕按钮,说明该视频作者已上传字幕或后台适配了 AI 字幕。 2. 安装油猴脚本: 。 3. 安装后刷新浏览器,点击字幕,会看到多出一个“下载”按钮。 4. 点击下载按钮,弹出窗口,可选择多种字幕格式,如带时间的或者不带时间的。 5. 最后将下载的字文字内容全选复制发送给 GPTs 即可。 需要注意的是,对于有字幕的视频,目前大部分用 AI 总结视频的工具/插件/应用都是通过获取字幕来实现的。直接用语音转文字的方式效率较低。
2024-11-04
利用ai工具对视频进行解说,需要什么工具
利用 AI 工具对视频进行解说,您可以考虑以下工具和流程: 1. 分析视频内容:使用 AI 工具(如 ChatGPT)对视频内容进行分析,提取关键信息。 2. 生成角色与场景描述:借助工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将解说文本转换为语音,并添加背景音乐和音效。 4. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将生成的音频与视频进行合成。 5. 拆解视频:可以使用 Gemini 1.5 Pro 对视频进行分析和拆解。 6. 制作 AI 短片:如使用 Pika、Pixverse、Runway、SVD 等工具来生成视频内容。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2024-11-02
动作姿态生成的网站
以下为一些关于动作姿态生成的网站相关信息: 在 Stable Diffusion 中,ControlNet 是一个强大的控制插件。对于姿态约束,您可以通过以下方式操作: 1. 国风 3 模型点击生成姿势,但 AI 识别可能不准确,需耐心刷图和调整参数。 2. 若要细化图片,可使用扩展图片的方法,将图发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再用 ControlNet 中的 tile 模型细化,最后使用 SD 放大插件。 3. 当找不到满足需求的动作图片时,可以自定义动作骨架。在【扩展】【加载扩展列表】中搜索【posex】安装插件(若安装不了,可将分享的插件文件夹拷贝至...\\sdwebuiakiv4\\extensions 目录,确保软件为最新版本后重启)。重启后来到首页,点击“将图片发送至 ControlNet”,可通过鼠标操作调整视角。如调一个玛丽琳梦露的经典动作,右边可调整出图尺寸,启用 ControlNet 时,若骨架图来自 posex 链接,无需添加图片和预处理器,直接加载 openpose 模型即可。 另外,公众号【白马与少年】有不同 pose 的骨架图可供参考,回复【SD】获取。该公众号还分享 Stable Diffusion、Blender 等学习心得,有 139 篇原创内容持续更新。
2024-11-01
动作姿态生成
以下是关于动作姿态生成的相关内容: 在使用 Stable Diffusion 进行动作姿态生成时,可采用以下方法: 1. 利用 ControlNet 中的姿态约束功能,如国风 3 模型,点击生成姿态,但可能存在骨骼错位等问题,需要耐心刷图和调整参数。同时,还收集了不同 pose 的骨架图,可通过添加公众号【白马与少年】回复【SD】获取参考。 2. 对于人物绘制,先确定人物动作,可在草图基础上用 Clip Studio Pro 中的 3D 人物模型进行姿态调整,或使用其他 3D Pose 类软件生成人物姿态,然后使用 ControlNet 的 Openpose 功能生成人物姿态。为控制人物色彩,可采用合适图片放入 img2img 中调整 Denoising strength,或使用 ControlNet Color 等插件,过程中需进行 img2img 反复迭代,并适时加入背景元素,人物大致确定后用 photoshop 融合,再继续生成和调整。 3. 对于特殊物品如天狗面具,若 Stable Diffusion 没有合适模型和 Lora,可自行训练专用 Lora,使用时用 inpainting sketch 重绘或在 Photoshop 处理后进入 img2img 重绘,注意重绘区域要小。 4. 对图片进行细化时,可使用扩展图片方法,将图发送到图生图,用 ControlNet 中 tile 模型细化,再使用 SD 放大插件。若找不到满足需求的动作图片,可在【扩展】【加载扩展列表】中搜索【posex】插件,安装或拷贝至指定目录,重启软件后在首页点击“将图片发送至 ControlNet”进行操作,可通过鼠标操作调整视角,调动作时启用 ControlNet,若骨架图来自 posex 链接,无需添加图片和预处理器,直接加载 openpose 模型。
2024-11-01
会自动作美女跳舞视频的AI
以下是为您提供的关于能自动制作美女跳舞视频的 AI 相关信息: XLabsAI 发布了 6 个不同的 Lora,分别是: 1. mjv6_lora Midjourney 风格,示例为:A fullprofile portrait of a Chinese dancer poised on a moonlit stone bridge, surrounded by the delicate blooms of a cherry orchard. Her silk garments ripple with her movement, her eyes are focused and intense, with skin details on her face. She's part of a scene inspired by classical poetry, her fluid motions a dance of elegance. The luminance is delicate and dreamlike, bestowing a soft ambience. 2. realism_lora 写实风格,示例为:In a conference room setting, a beauty women dressed in business attire are attending a meeting,random expressions, postures, and physical characteristics. A RAW ultrarealistic photo, UHD, 8k. 3. anime_lora 动漫风格,示例为:1girl. 4. disney_lora 迪斯尼风格,示例为:1cat, cartoon, disney. 5. scenery_lora 风景风格,示例为:A breathtaking view of the Himalayas mountain range, showcasing its majestic and serene beauty. The mountains are covered in snow, with their peaks reaching towards the sky, creating a stunning contrast with the blue horizon. The range is vast and imposing, with numerous towering peaks, including Mount Everest, the highest point on Earth. The scene captures the grandeur and tranquility of the Himalayas, with sunlight casting a soft glow on the snowcovered slopes. The foreground shows the rugged terrain and lush greenery of the lower elevations, adding to the diverse and spectacular landscape. 6. art_lora 艺术风格,示例为:Cat, European street, exploration, cozy, mysterious, colorful buildings, sunlight through leaves, cobblestone path, high definition, watercolor painting, warm tones, bright lighting effects, paper texture. Lora 下载地址:https://hfmirror.com/Kijai/fluxlorascomfyui/tree/main/xlabs
2024-09-21
我做了一个视频,背景是实拍的城市照片,角色是一个卡通角色,通过即梦让照片上的卡通角色动起来后,发现卡通角色的脸跟手臂动作都糊了。 我现在有什么办法优化,对卡通角色五官重绘更清晰的情况下,还保留现实的照片背景。(用sd重绘的话是不是就丢失了)
以下是一些可能有助于您优化视频的建议: 1. 对于您提到的卡通角色动作模糊的问题,可以尝试使用 Dreamina 工具,并将运动速度设为慢速,同时在 Prompt 里写轻微的动作描述,可能会有不错的效果。 2. 由于 Dreamina 工具存在只有 8 帧和 720P 的限制,您可以使用 Topaz Video AI 将其增强到 24 帧和 4K。在 B 站搜索“Topaz Video AI 4.2.1”关键词能找到相关教程。增强完成后,再放到剪映里裁成 21:9 的比例。 3. 对于卡通角色五官不清晰的情况,如果 AI 工具无法处理,可能需要使用传统的 AE 软件自己制作,比如普通的下沉位移动画。 需要注意的是,在某些情况下,如人物在水中下沉时,AI 视频可能会出现脸糊的情况,这种情况可能需要传统手段来解决。
2024-08-25
我创作了一个AI视频,背景是实拍的城市照片,角色是一个卡通角色,通过即梦让照片上的卡通角色动起来后,发现卡通角色的脸跟手臂动作糊了,我期望通过comfy对其重绘,能解决保留现实背景,卡通角色五官重绘更清晰吗?
在处理您提到的这种情况时,有以下一些建议和方法: 1. Dreamina 对 Prompt 的语义理解较好,您可以将运动速度设为慢速,并在 Prompt 里写轻微的相关描述,可能会有不错的效果。但需要注意的是,Dreamina 存在只有 8 帧和 720P 的限制,对比 Runway 的 24 帧和 4K 有差距。所以需要使用 Topaz Video AI 去增强到 24 帧和 4K,您可以在 B 站通过“Topaz Video AI 4.2.1”这个关键词搜索教程进行学习。增强完以后,再扔到剪映里裁成 21:9。 2. 对于人物在水中下沉等情况导致的脸糊问题,很多时候 AI 搞不定,可能需要使用传统 AE 自己制作普通的下沉位移动画。 不过,需要说明的是,在一些复杂的场景和动作中,AI 可能仍然存在一定的局限性,需要综合多种工具和方法来达到理想的效果。
2024-08-25
如何生成卡通动作
以下是关于生成卡通动作的一些方法: 1. 使用 Panels 命令:可以生成连续的动作和表情设计,若希望设计一个角色并拥有连续动作和表情,此命令会很方便。比如:a Super cute sports anime girl,style by Miyazaki Hayao,6 panels with different poses 8K。如果想画动漫角色,可将模型设置先改为 niji mode,效果会更好。但需注意,约束太多可能导致命令失效,存在权重问题。 2. 利用 continuous running:能更稳定地生成连续动作,甚至可以做成 gif 动画。例如:a Super cute sports anime girl,style by Miyazaki Hayao,6 panels with continuous running。 3. 使用 character sheet 命令:创建一个角色的多角度以及特写细节。比如:a Super cute sports anime girl,style by Miyazaki Hayao,character sheet,full body,8k。同时,实测发现 v5 模型在画手方面比 niji 模型更好。 在游戏创作中,生成出色动画的方式包括: 1. 运动捕捉技术:让演员或舞者穿上运动捕捉服,在特殊设置的运动捕捉舞台上记录他们的动作。 2. 利用生成性 AI 模型直接从视频中捕捉动画,这样效率更高,一是消除了对昂贵运动捕捉设备的需求,二是可以从现有视频中捕捉动画,还能给现有动画应用滤镜。涉足这一领域的公司包括 Kinetix、DeepMotion、RADiCAL、Move Ai 和 Plask。 如果给自己做一个卡通头像,操作如下: 1. 简单提示词:在聊天窗口输入/imainge 找到/imagine prompt,然后把链接放进去,空格后加英文逗号分隔的提示词,最后加上设置参数。 2. 设置参数: iw 1.5:设置参考图片的权重,数值越高与参考图片越接近,默认是 0.5,最大是 2,可选择中间值调整。 s 500:设置风格强度,个性化,艺术性,数字越大,更有创造力和想象力,可设置为 0 1000 间任意整数。 v 5:指用 midjourney 的第 5 代版本,这一代最真实,目前 v5 需要订阅付费,不想付费可以使用v 4。 no glasses:指不戴眼镜,若不喜欢戴眼镜的图片,可使用此设置。 如果对生成结果不满意,可以选择调整s 和iw 的值来多次尝试。
2024-08-13