Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

2024年视频换脸技术

Answer

2024 年视频换脸技术面临一些挑战和发展趋势:

  • 挑战方面:
    • 可控性和一致性存在挑战,如人脸转动中保持观感不变形、多个生成片段保持人物一致性、遵循生成指令等,目前视频生成的体感仍需改进,需要底层模型的进步。
    • 成本较高,生成一段 5 秒视频的成本最低约为 1 元人民币,限制了 C 端玩法和大规模应用。
  • 发展趋势:
    • 原生多模态成为 AI 架构的主流选择,从 OpenAI 的 GPT-4V 到 Anthropic 的 Claude-3V 和 xAI 的 Grok-1.5V 等,行业正从简单的模态叠加向真正的多模态融合迈进。原生多模态模型采用统一的编码器-解码器架构,在预训练阶段完成多模态信息的深度融合,提升了模型的理解能力,实现了模态间的无缝转换和互补增强,能够处理更复杂的任务。
    • 自 2023 年末开始,Runway、Pika、Meta、Google 等不断推出视频生成/编辑工具,2024 年是 AI 视频技术逐渐成熟并开始商用的一年,下半年或 2025 年可能会看到 AI-3D 技术的突破。抖音的成功证明音频、视频加入泛社交/娱乐产品会带来质的飞跃,AI 陪聊赛道中视频、音频技术的加入也将带来内容生产和社交方式的质变。
Content generated by AI large model, please carefully verify (powered by aily)

References

码观 | 共识与非共识:从模型到应用,2024 AI 趋势回首与展望

其次是可控性和一致性挑战。要将视频生成真正转化为生产力工具,需要做到production-ready,需要解决诸多问题,比如:如何让人脸在转动中仍然保持观感是同一个人没有变形?如何多个生成片段让人感觉还是同一个人物?如何让视频生成遵循指令?在实际操作中,视频生成的体感还和图片生成的早期类似,需要不断开盲盒,才能选出一个合适的视频。真正解决这个问题,还需要底层模型的进步。最后是成本问题。目前生成一段5秒视频的成本最低约为1元人民币,意味着能够基于视频生成的C端玩法依然受限,这个价位仍然制约着大规模应用的可能性。OpenAI 10月份提出sCM(Simplifying Continuous-Time Consistency Models),已经在生成速度和成本方面有学术探究的进步。2025年,视频生成的成本是否能再降低一个甚至两个数量级,将直接决定新一波AI应用的命运。原生多模态模型AI应用的基座已经搭好2023年,似乎没有太多模型在强调原生多模态这件事——除了从一开始就坚信这件事的Google,从第一代大模型就以原生多模态开始训练。2024年,原生多模态成为AI架构的主流选择。从OpenAI的GPT-4V到Anthropic的Claude-3V和xAI的Grok-1.5V,行业正从简单的模态叠加向真正的多模态融合迈进。原生多模态模型突破了传统的模态隔离方案。不同于早期将文本、图像、语音分别处理再组合的方式,新一代模型采用统一的编码器-解码器架构,在预训练阶段就完成了多模态信息的深度融合。这种方案不仅大幅提升了模型的理解能力,更重要的是实现了模态间的无缝转换和互补增强。具备多模态能力的模型能够处理更复杂的任务。

AGI 万字长文(下)| 2024,分叉与洪流

抖音的成功已经证明了:对于泛社交/娱乐向产品,音频、视频的加入会带来质的飞跃。那么对于AI陪聊的赛道,AI视频、音频技术的加入,也一定会带来内容生产和社交方式的质变。这也是为什么近期的视频技术大爆发让人兴奋不已的原因。自2023年末开始,Runway、Pika、Meta、Google等都不断推出视频生成/编辑工具,到了2024年更是有了Sora……对于Sora,和任何新生事物一样,我们会高估短期(认为马上就有成熟产品)而低估长期(不愿相信、难以想象它可能带来的颠覆)。我暂时还没有特别细的关于Sora的信息,按照已知来看:Sora仍然在“GPT-世界模型”的逻辑框架内,在想法上并没有更新的东西,但Sora的进展是迈向AGI的坚实一步。Sora本身不是目的,我们为之惊叹的“生成视频”只是皮毛;而Sora更重要意义的在于通过使用更多模态数据(图像和视频),让大模型的理解能力又有了提升;最终目标一直没变,就是AGI。刚出来的Sora确实还有一系列问题:生成的图像不稳定、速度慢、成本高……不过there is no surprise,这些都很正常。如果我们参考文生图的成熟速度的话,从最开始有可用的产品(Dall-E1&2在2022年上半年面世)出来之后,到可以商用、产生行业变革大约经历了一年半的时间;类似的,2024年将会是AI视频技术逐渐成熟并开始商用的一年。当模型开始具有比较好的多模态理解能力的时候,稍晚一点到2024下半年或2025年,也会看到AI-3D技术的突破。

Others are asking
换脸
以下是一些关于换脸的应用和工具: 1. 在线换脸应用: :在线换脸,使用上传的图片。 :在线视频操纵软件。 :在照片上交换面孔,效果出众。 :在自拍上叠加名人的脸。 :实时换脸的视频通话。 :在线媒体中的换脸。 :在线图片换脸。 :改进的实时换脸视频通话。 :视频和图片的换脸解决方案。 2. 星流一站式 AI 设计工具中的换脸: 什么是换脸:自动替换原图的脸部信息。 如何使用:选中图像进入扩展功能界面,自动提取面部信息,上传想要替换到图像的图片。参数方面,提示词框会自动根据图像进行填充,无需手动填写;重绘风格选择与放大图像相对应的风格,会提升换脸效果,其余参数默认即可。 3. PuLID 换脸: Pure and Lightning ID customization 是字节跳动团队开源的一种个性化文本到图像生成技术,通过对比学习和快速采样,实现无需微调模型就可以高效生成定制化的 ID(身份)图像,轻松实现换脸。字节团队又推出了 PuLIDFLUX 模型,支持 FLUX 模型的 ID 定制。 安装:pulid 的安装比较麻烦,需要环境依赖。插件地址:https://github.com/balazik/ComfyUIPuLIDFlux,跟着说明自己安装。放到 ComfyUI/models/pulid/中,EVA CLIP 是 EVA02CLIPL14336,应该会自动下载(将位于 huggingface 目录下)。如果由于某种原因自动下载失败,请手动下载此 EVACLIP 模型,将文件放入 ComfyUI/models/clip 并重新启动 ComfyUI。两个文件都我都放网盘里了。难点 facexlib 和 insightface 的安装,如果之前有用过 sdxl 的 pulid 换脸的,应该安装过。没装过的需要自己多摸索摸索了。如果装不了,也不要着急,可以去 https://huggingface.co/spaces/yanze/PuLIDFLUX 体验一下。
2025-01-13
视频换脸
以下是关于视频换脸的相关信息: 视频换脸能够自动识别视频中的人脸,并将其替换为选择的脸部,实现在视频中快速、精确地替换人物的脸部。 操作指引: 1. 上传原始视频。 2. 上传换脸图片。 3. 点击生成。 相关工具及链接: 1. 【TecCreative】: 图片大小上限 5M,支持 JPG、PNG 格式。 2. Swapface(有免费额度): https://swapface.org//home 需要下载电脑客户端使用,没有在线版,可以通过邀请好友、点评软件获取积分。 视频换脸是可以上传视频或者 gif 图,换脸可以识别图片、视频里的多张脸进行替换。 效果预览:左边原视频,右边换脸后效果。 在“AI 摊主速成脑暴会”中,视频换脸属于视频处理类别,换脸需要 60 积分。
2025-01-13
视频换脸有哪些免费好用的工具
以下为一些免费好用的视频换脸工具: 1. viggle: 网址:http://viggle.ai 有免费额度。 功能包括图片+动作视频转视频、图片+文字动作描述转视频、文字转视频,可完成视频换脸。 操作方式: /mix:将角色图像混合到动态视频中,上传一张字符清晰的图片和一段清晰运动的视频。 /animate:使用文本运动提示为静态角色设置动画,上传一张字符清晰的图片并描述想让角色做的动作(也可从https://viggle.ai/prompt 中复制动作提示词)。 /ideate:纯粹从文本创建角色视频,描述想要创造的角色和希望角色执行的动作(或从https://viggle.ai/prompt 中复制动作提示词)。 /character:通过文本提示创建角色并将其动画化,描述想要创造的角色,从四个结果中选择一个图像,描述希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /stylize:使用文本提示符重新设计角色的样式并将其动画化,上传一张字符清晰的图片,描述想改变角色的任何地方来重新塑造它,从四个结果中选择一个图像,描述想要角色做的动作(或者从 https://viggle.ai/prompt 中复制动作提示词)。 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt 2. Swapface: 网址:https://swapface.org//home 有免费额度,需要下载电脑客户端使用,没有在线版,可以通过邀请好友、点评软件获取积分。 支持图片换脸、视频换脸,直播实时换脸,能识别图片、视频里的多张脸进行替换。 视频换脸可上传视频或者 gif 图。 3. 插件 ADetailer: 一般用于修复脸,换脸效果也不错。 原理是识别面部对面部进行扩散,里面可以增加 controlnet 去控制。 操作方式: 打开 Adetailer,选择模型是关于脸部修复的,选择最常用的模型,在对应的正向提示词中添加一些面部的修饰词,也可以加 lora。 在检测一栏基本上维持默认不变,效果不好适当拉高阈值。 在蒙版处理维持默认不变。 在重绘选项卡中,关注重绘使用的模型、VAE、采样方式,局部重绘制强度(推荐 0.5 左右),以及 controlnet 等参数。
2025-01-12
换脸软件有哪些
以下是一些常见的换脸软件: 1. :在线换脸,可使用上传的图片。 2. :在线视频操纵软件。 3. :在照片上交换面孔,效果出众。 4. :在自拍上叠加名人的脸。 5. :实时换脸的视频通话。 6. :在线媒体中的换脸。 7. :在线图片换脸。 8. :改进的实时换脸视频通话。 9. :视频和图片的换脸解决方案。 此外,还有开源软件 FaceFusion,它是一款面部交换和面部增强的软件,可以在本地运行,不仅能交换面部,还提供多种处理器改进或定制面部特征,且有多种选项和参数供用户定制,并内置检查机制防止用于不道德或非法用途。GitHub 地址:
2025-01-08
视频换脸有什么工具推荐?
以下为您推荐一些视频换脸工具: 1. TecCreative: 操作指引:上传原始视频——上传换脸图片——点击生成。 2. Viggle(有免费额度): 网址:http://viggle.ai discord 免费体验:https://discord.com/invite/viggle 功能: /mix:将角色图像混合到动态视频中。操作步骤:上传一张字符清晰的图片,上传一段清晰运动的视频。 /animate:使用文本运动提示为静态角色设置动画。操作步骤:上传一张字符清晰的图片,描述您想让角色做的动作(也可以从 https://viggle.ai/prompt 中复制动作提示词)。 /ideate:纯粹从文本创建角色视频。操作步骤:描述您想要创造的角色,描述您希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /character:通过文本提示创建角色并将其动画化。操作步骤:描述您想要创造的角色,从四个结果中选择一个图像,描述您希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /stylize:使用文本提示符重新设计角色的样式并将其动画化。操作步骤:上传一张字符清晰的图片,描述您想改变角色的任何地方来重新塑造它,从四个结果中选择一个图像,描述您想要角色做的动作(或者从 https://viggle.ai/prompt 中复制动作提示词)。 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt 3. 插件 ADetailer: 首先要明白插件原理是识别面部对面部进行扩散,里面可以增加 controlnet 去控制。 操作步骤: 打开 Adetailer,选择模型是关于脸部修复的,选择最常用的模型,在对应的正向提示词中添加一些面部的修饰词,也可以加 lora。 在检测一栏基本上维持默认不变,效果不好适当拉高阈值。 在蒙版处理维持默认不变。 在重绘选项卡中,关注以下参数: 重绘使用的模型、重绘使用的 VAE 以及重绘制使用的采样方式。 局部重绘制强度,推荐 0.5 左右,可自行尝试。 Controlnet,和外面用的一样也是增加控制的,选择最适合的,若用 tile 模型要适当调整权重或者调整引导于结束的步数。
2025-01-07
SD如何人物换脸
以下是关于 SD 人物换脸的详细步骤: 1. 安装 Roop 插件:安装时间较长,需耐心等待。安装好后打开 SD 文件目录下的特定文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 2. 后续操作:安装完成后重新打开启动器,后台会继续下载模型,全程要保证科学上网。Roop 插件主要适用于真实人脸替换,对二次元人物作用不大。选用真实系模型“realisticVisionV20”,关键词描述人物。启用 Roop 插件,选择要替换的人物照片,面部修复选“GFPGAN”,右边参数数值越低人物越像但图像模糊,数值越高人物越不像但图像清晰,可根据需求设置,如 0.5。设置好后点击生成,若人脸像素偏低模糊,可将图发送到“图生图”,开较小重绘幅度,使用 controlnet 中的 tile 模型重绘。 3. 多人物脸部替换:先正常生成图片,如两个古风人物形象。发送到图生图中调整重绘幅度。在 roop 插件中,从左往右编号,载入相应人物照片形象进行脸部替换。 4. 获取插件:想要 Roop 插件,可添加公众号【白马与少年】,回复【SD】。 另外,还有关于 SD 中更精确蒙版的操作,如使用 GroundingDINO 模型分割:启用 GroundingDINO 时 AI 会自动下载模型,也可在云盘下载放到特定文件目录。在检测提示词中输入如“eye”,可自动检测出相应部分并设置蒙版,还能通过预览箱体得到编号选择调整单一部分。选择要修改的蒙版上传到重绘蒙版,添加提示词生成。给人物换背景时,加载生成的背景蒙版,选择大模型和正向提示词,蒙版模式选“重绘非蒙版内容”,生成后可再次放入图生图中细化,还可在 PS 中修复。 特别提醒,使用相关插件需谨慎,切勿触犯法律。
2024-12-31
2024大模型典型应用案例集
以下是 2024 大模型的一些典型应用案例及相关信息: 《2024 大模型典型示范应用案例集》汇集了 97 个优秀案例,展示了大模型技术在教育、医疗、金融、政务等多个行业和领域的应用。案例由阿里云、百度、华为等领先企业实施,上海成为应用落地的热点地区,大中型企业是主要试验场。AI 智能体和知识库成为提升大模型落地实效的关键手段。 在智能终端行业,中国超半数手机厂商都在使用文心大模型,包括三星、荣耀、vivo、OPPO、小米等主流手机品牌;上汽大众、吉利汽车、蔚来汽车、长安汽车等十余家车企已接入百度文心大模型。 整体来看,在主流大模型厂商中,百度表现突出,拿下最关键的中标项目数量、中标金额两项第一。截至 11 月,其文心大模型日均调用量超过 15 亿次,千帆平台帮助客户精调了 3.3 万个模型、开发了 77 万个企业应用。今年三季度财报披露,百度智能云营收达 49 亿元,同比增长 11%,其增长主要由互联网、教育、金融等行业对模型训练和推理的高需求带动。 企业想要真正将大模型在自身场景落地,需要具备构建算力、数据治理、模型训练、场景落实、应用搭建、持续运营、安全合规等整套能力。 相关报告: 《信达证券:AI 行业设计领域专题报告:Adobe AI 功能覆盖全面,Canva、美图等力争上游》 《中国信通院:大模型基准测试体系研究报告(2024 年)》 《埃森哲:人工智能行业:2024 在生成式人工智能时代重塑工作、劳动力和员工》 此外,还有一些相关活动,如: 2024 年是国内大模型技术加速落地的关键年份,各大厂商如百度、阿里、字节等在 AI 大模型领域展开激烈竞争。百度凭借 40 个中标项目和 2.74 亿元中标金额在行业中处于领先地位。尤其在金融、智能终端等行业,百度文心大模型的应用广泛,表现亮眼。 🏮「非遗贺春」魔多蛇年春节 AI 模型创作大赛,大赛时间 2024 年 12 月 24 日2025 年 1 月 15 日。大赛奖池【¥12000】现金奖励+官方高含金量荣誉证书+会员与算力激励+流量激励。双赛道同时开启,赛道一【春节】+赛道二【爱非遗 AI 传承】。本次活动由浙江省非遗保护中心(浙江省非遗馆)指导×浙江省非遗保护基金会主办×魔多 AI 联合承办,由提供社区传播支持。
2025-01-16
2024年人工智能指数报告 下载
以下是为您提供的 2024 年人工智能指数报告的相关下载信息: 1. 《》由微软和领英联合发布,揭示了人工智能(AI)在工作场所的快速增长和深远影响。 2. 可在知识星球下载的报告: 《》深入分析了 AI Agent 的市场定义、发展阶段、核心组件及其在企业用户场景中的应用。 《》企业实施 AI Agent 的主要目标是降低运营成本,尤其是在知识库管理、数据分析、营销与客户服务等领域。 3. 《》数据处理应从模型为中心转向数据为中心,并强调向量数据库在提升模型服务能力中的核心作用。 4. 斯坦福大学发布的基础模型透明度指数相关报告:在上一届 SOAI 发布后不久,斯坦福大学发布了其首个基础模型透明度指数,模型开发者的平均得分为 37 分。在团队的中期更新中,这一分数攀升至 58 分。2024 年 5 月,该指数的最新一期基于 100 项指标,评估了 14 家领先的基础模型开发者的透明度,这些指标涵盖“上游”因素数据、劳动力、计算、围绕能力和风险的“模型级”因素、围绕分布的“下游”标准以及社会影响。计算和使用政策的评分出现了最强劲的改善,而“上游”评分仍然疲弱。 5. 《2024 年人工智能现状:辉煌、戏谑和“牛市”》报告链接:
2025-01-11
2024年人工智能指数报告
以下是关于 2024 年人工智能指数报告的相关内容: 斯坦福大学发布的基础模型透明度指数显示,模型开发者的平均得分从最初的 37 分攀升至中期更新的 58 分。2024 年 5 月的最新一期基于 100 项指标评估了 14 家领先的基础模型开发者的透明度,其中计算和使用政策的评分改善强劲,“上游”评分仍疲弱。 2024 年 AI 年度报告的十大预测包括:好莱坞级别的制作公司开始使用生成式人工智能制作视觉特效;美国联邦贸易委员会或英国竞争与市场管理局基于竞争理由调查微软/OpenAI 的交易;在全球人工智能治理方面进展有限;一首由人工智能创作的歌曲进入公告牌 Hot 100 前 10 名或 Spotify 2024 年热门榜单;随着推理工作负载和成本的显著增长,一家大型人工智能公司收购或建立专注于推理的人工智能芯片公司。同时也有错误预测,如生成式人工智能媒体公司在 2024 年美国选举期间的滥用行为未受到调查,自我改进的人工智能智能体在复杂环境中未超越现有技术最高水平。 预测还覆盖了人工智能领域的多个方面,如主权国家向美国大型人工智能实验室投资超 100 亿美元引发国家安全审查;完全无编码能力的人创建的应用或网站走红;前沿实验室在案件审判后对数据收集实践方式发生重大转变;早期欧盟人工智能法案实施结果比预期宽松;开源的 OpenAI o1 替代品在推理基准测试中超越;挑战者未能突破英伟达市场地位;对人形机器人投资水平下降;苹果在设备上的研究成果加速个人设备上人工智能的发展;人工智能科学家生成的研究论文被主要机器学习会议或研讨会接受;以“生成式人工智能”为元素互动的视频游戏取得突破性地位。
2025-01-11
2024ai 大事记
以下是 2024 年 AI 大事纪的相关内容: 1 月: 斯坦福大学 Mobile Aloha。 1 月 10 号 LumaAl Genie 文生 3D。 1 月 11 号 GPT store 上线。 MagnificAl 高清放大爆火。 1 月最后一天苹果 Vision Pro 宣布发售。 3 月: 潞晨科技发布 OpenSora。 Suno 发布 V3 版本爆火。 4 月:英伟达发布硬件股价飙升。 5 月: 苹果发布 AI 芯片。 张吕敏发布 IC light。 7 月:快手开源 LivePortrait 模型,表情迁移。 8 月:StabilityAI 老板成立新公司发布 flux 大模型。 9 月: 阿里云发布模型,海螺 AI 参战。 Google 发布 GameGen 实时生成游戏。 通义千问 2.5 系列全家桶开源。 华为发布 cloud matrix 云计算基础设施。 GPT 高级语音模式上线。 Meta 发布 AI 眼镜 Orion。 AI 代码编辑器 cursor 爆火。 10 月: Pika 发布 1.5 模型。 诺奖颁发给 AI 奠基人。 特斯拉发布机器人。 Adobe 发布 Illustrator+Al 生成矢量图。 智谱 AI 发布 autoGLM。 腾讯混元开源 3D 模型。 云深处发布机器人山猫机器狗。 Apple 发布 Mac mini。 12 月: 李飞飞发布空间智能成果。 腾讯开源混元视频模型。 Open AI 开 12 天发布会。 微软发布 Trellis 最强开源图生 3D。 Gemini2.0 视觉交互智能体。 智元机器人开始量产。 谷歌发布 Veo2 能生成 4K 视频。 需要注意的是,本大事记经过一定筛选,带有一定倾向性,但不包含任何广告或其他商业考量,仅以新闻热度与大众反响为依据。仅代表个人看法,如有遗漏请谅解。
2025-01-10
2024AI 大事记
以下是 2024 年 AI 大事纪: 1 月: 斯坦福大学 Mobile Aloha 1 月 10 号 LumaAl Genie 文生 3D 1 月 11 号 GPT store 上线 MagnificAl 高清放大爆火 1 月最后一天苹果 Vision Pro 宣布发售 3 月: 潞晨科技发布 OpenSora Suno 发布 V3 版本爆火 4 月:英伟达发布硬件股价飙升 5 月: 苹果发布 AI 芯片 张吕敏发布 IC light AI 竞争白热化 伊莉雅离开 OpenAI,伊利亚成立新公司,估值超五亿美金 7 月:快手开源 LivePortrait 模型,表情迁移 8 月:StabilityAI 老板成立新公司发布 flux 大模型 9 月: 阿里云发布模型,海螺 AI 参战 Google 发布 GameGen 实时生成游戏 通义千问 2.5 系列全家桶开源 华为发布 cloud matrix 云计算基础设施 GPT 高级语音模式上线 Meta 发布 AI 眼镜 Orion AI 代码编辑器 cursor 爆火 10 月: Pika 发布 1.5 模型 诺奖颁发给 AI 奠基人 特斯拉发布机器人 Adobe 发布 Illustrator+Al 生成矢量图 智谱 AI 发布 autoGLM 腾讯混元开源 3D 模型 云深处发布机器人山猫机器狗 Apple 发布 Mac mini 12 月: 李飞飞发布空间智能成果 腾讯开源混元视频模型 Open AI 开 12 天发布会 微软发布 Trellis 最强开源图生 3D Gemini2.0 视觉交互智能体 智元机器人开始量产 谷歌发布 Veo2 能生成 4K 视频 宇树科技机器狗爆火,似奔着打架去 SORA 兑现引关注,被测试出奇怪问题 需要说明的是,本大事记经过一定筛选,带有一定倾向性,但不包含任何广告或其他商业考量,仅以新闻热度与大众反响为依据。仅代表个人看法,如有遗漏请谅解。
2025-01-10
2024ai大事件
以下是 2024 年 AI 领域的大事纪: 1 月: 斯坦福大学 Mobile Aloha 1 月 10 号 LumaAl Genie 文生 3D 1 月 11 号 GPT store 上线 MagnificAl 高清放大爆火 1 月最后一天苹果 Vision Pro 宣布发售 3 月: 潞晨科技发布 OpenSora Suno 发布 V3 版本爆火 4 月:英伟达发布硬件股价飙升 5 月: 苹果发布 AI 芯片 张吕敏发布 IC light AI 竞争白热化,伊莉雅离开 OpenAI 并成立新公司,估值超五亿美金 7 月:快手开源 LivePortrait 模型,表情迁移 8 月:StabilityAI 老板成立新公司发布 flux 大模型 9 月: 阿里云发布模型,海螺 AI 参战 Google 发布 GameGen 实时生成游戏 通义千问 2.5 系列全家桶开源 华为发布 cloud matrix 云计算基础设施 GPT 高级语音模式上线 Meta 发布 AI 眼镜 Orion AI 代码编辑器 cursor 爆火 10 月: Pika 发布 1.5 模型 诺奖颁发给 AI 奠基人 特斯拉发布机器人 Adobe 发布 Illustrator+Al 生成矢量图 智谱 AI 发布 autoGLM 腾讯混元开源 3D 模型 云深处发布机器人山猫机器狗 Apple 发布 Mac mini 12 月: 李飞飞发布空间智能成果 腾讯开源混元视频模型 Open AI 开 12 天发布会 微软发布 Trellis 最强开源图生 3D Gemini2.0 视觉交互智能体 智元机器人开始量产 谷歌发布 Veo2 能生成 4K 视频 需要注意的是,本大事记经过一定筛选,带有一定倾向性,但不包含任何广告或其他商业考量,仅以新闻热度与大众反响为依据。仅代表个人看法,如有遗漏请谅解。
2025-01-09
音频驱动视频
以下是关于音频驱动视频的相关信息: INFP:字节二元交互的新型音频驱动头部动画生成技术 用户输入一段对话音频,可以自动驱动两个数字人头像自然对话,不需要手动区分对话。AI 可以动态地在说话和聆听状态之间交替,实现自然的口型同步和头部与面部表情动作。它适应多种画风图像,支持歌唱、采访、对话(可以实现多 Agent 实时对话)等场景环境。 地址:https://grisoon.github.io/INFP/ LTX Studio:Face Expression 控制角色表情 LTX Studio 的新功能 Face Expression 可轻松完全控制角色的面部表情。可以从预设情绪中快速选择,在几秒钟内调整角色的表情,也可以使用自定义控件微调眼睛、嘴巴或眉毛等特定特征,打造所需的确切情感。 【TecCreative】帮助手册中的相关内容 音频驱动多场景数字人:支持音频和场景数字人一键合成,快速生成数字人口播视频。操作指引:上传音频链接——选择数字人角色和场景——选择输出类型——点击开始生成。音频文件支持 MP3 和 WAV 格式,文件大小上限 5M。 谷歌 Generating audio for video 为了生成更高质量的音频,并增加引导模型生成特定声音的能力,在训练过程中添加了更多信息,包括人工智能生成的注释,其中包含声音的详细描述和口语对话誊本。通过对视频、音频和附加注释进行训练,技术可以学会将特定音频事件与各种视觉场景联系起来,同时对注释或文本中提供的信息做出响应。
2025-01-24
图生视频
图生视频是指将一张图片通过输入相应的提示词或利用特定模型转变为视频画面的过程。以下是一些关于图生视频的知识和技巧: 工具方面:清影大模型可以实现图生视频。输入一张图片和提示词,模型会将图片转变为视频画面,也可以只输入图片,让模型自行发挥想象力生成有故事的视频。 技巧要点: 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。如果原图不够清晰,可使用分辨率提升工具。 提示词要简单清晰。可以选择不写 prompt,直接让模型自己操控图片动起来;或者明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。若不明确大模型如何理解图片,可将照片发送到清言对话框进行识图,明确主体的描述。 案例展示: 桂大羊的案例中,先确立剧本中的人物形象和场景,生成静态图片,然后使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,设置运镜类型和生成速度。 离谱村的案例中,使用了多种工具如 pika、runway、Pixverse 进行图生视频的尝试,还找了技术指导用 SVD1.1 生成精美的视频。
2025-01-24
图生视频时,不按照指令行动
在图生视频过程中出现不按照指令行动的情况,可能有多种原因。以下为您提供一些可能的分析和解决建议: 提示词不够准确清晰:确保提示词详细、具体、明确地描述了您想要的图像和动作,避免模糊或歧义。 模型理解偏差:AI 模型可能对某些复杂或特殊的指令理解存在困难,您可以尝试调整提示词的表述方式。 数据和训练限制:模型的训练数据和能力可能存在一定的局限性,导致无法完全按照指令生成视频。 您可以参考以下的案例来进一步理解和改进: 公子在宣武门前站着说话,气场强大,头发和衣衫随风飘动,气体流动,手指向远方。 小孩子向画面右侧奔跑,后面腾起一路尘土。 公子扔出手中球体法器,法器升空爆出万丈金光,公子惊奇的看着。 同时,您还可以利用一些工具和技巧,例如清影工具中的帮写视频提示词的智能体,来优化提示词。另外,注意提示词的主体、描述细节等方面,如“戴眼镜”的提示词因无主体导致唐僧未能遵从指令戴上墨镜,而“唐僧伸出手,戴上墨镜”这样有主体的提示词则效果更好。
2025-01-24
2025年AI新年春晚在哪儿直播?几点直播?从哪个平台上可以看得到?微信视频号?抖音?B站还是什么渠道可以看得到?
2025 年 AI 春晚的相关信息如下: 直播视频名称:共创贺新春,AI 中国年,第二届 AI 春晚! 60 字内容简介:30 多个共创 AI 节目,来自 1000 多位共创者 3 个月的辛勤筹备。2025 年 1 月 29 日(大年初一)晚上 6:00 准点开播。 正式开放配置时间:1 月 29 日晚上 5:45 正式直播时间:1 月 29 日晚上 6:00 关于转播: 有转播经验的:能直接接受 https,rtmp 信号源的可以直接用拉流地址。 第一次转播的小伙伴:如果直播平台不能直接接入信号源,请先下载一个 OBS:https://obsproject.com/zhcn/download 。配置教程已置顶主流直播平台推流地址获取方式可以参考这篇文章后半段:https://zhuanlan.zhihu.com/p/653204958?utm_id=0 。 直播技术问题咨询: AI 春晚是由 WaytoAGI 社区组织的一场由 AI 技术驱动的晚会,首届 AI 春晚的完整视频可在 B 站上观看。首届 AI 春晚于 24 年大年初一当晚直播,18 万人在线观看,后续视频播放量超过 200 万,媒体曝光量超过 500 万,被誉为 AI 视频寺庙时代的一部现象级作品。 更多详细信息可参考 WaytoAGI 的官方网站。 完整版:https://www.bilibili.com/video/BV15v421k7PY/?spm_id_from=333.999.0.0 。 相关进度:
2025-01-24
我想学习AI视频创作流程
以下是 AI 视频创作的一般流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 需要注意的是,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 另外,在一些具体的创作案例中,比如“AI 离谱社黄师傅”的工作流程中,有以下要点: 创作思路基于深度文化挖掘、自然风光和历史遗迹展示、故事性和情感连接等关键概念和创新方法,旨在通过人工智能技术全面展示中国各省份的文化和旅游魅力。 任务划分方面,制片人搭建整体框架,图像创意者提供有冲击力的图像画面,视频制作者熟悉并运用视频工具,编剧构思故事和创作台词文本,还有配音和配乐等工作。 在 AI 春晚采访问题中提到,脚本创作由 GPT 完成但需要大量人工干预,图像生成由 MJ 完成也需要人工调词,人工比例在 70%以上。
2025-01-23
那些AI可以免费进行视频创作
以下是一些可以免费进行视频创作的 AI 工具: 1. Pika:是一个 AI 视频平台,能让任何人将创意愿景变为现实,通过先进的视频基础模型和易用的创作产品重新定义视频制作和编辑方式。 2. Chat.DID:是首个允许人们以人类方式与 AI 进行视频聊天的 APP,处于测试阶段。 3. Bard(免费):由谷歌推出,是谷歌的对话应用语言模型(LaMDA)提供支持。 此外,还有一些在视频创作方面表现出色的工具: 1. Dora AI:可以通过一个 prompt,借助 AI 3D 动画生成强大网站,支持文字转网站、生成式 3D 互动、高级 AI 动画。 2. Runway v2:用于从文本创建视频,创建了 4 秒的短剪辑,是对未来发展的展示。 在营销领域,以下 AI 工具常用于视频创作或相关方面: 1. Synthesia:允许用户创建由 AI 生成的高质量视频,包括数字人视频,提供多种定价计划,有免费选项。 2. HeyGen:基于云的 AI 视频制作平台,用户可从 100 多个 AI 头像库中选择,并通过输入文本生成数字人视频。 更多的营销产品可以查看 WaytoAGI 网站:https://www.waytoagi.com/sites?tag=8 。需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-23
我想组织一个团队,完成属于自己的一套数字人制作技术
以下是组织一个团队完成属于自己的一套数字人制作技术的相关内容: 方案一:剪映数字人“个性化“—无限免费私模数字人 1. 准备谷歌账号(可在淘宝或“”购买)。 2. 第一步:打开谷歌浏览器,点击链接https://github.com/facefusion/facefusioncolab 并点击 open colab 进入程序主要运行界面,在右上角点击“代码执行程序”选择“全部运行”,无需安装和付费。点击红框对应的 URL 打开操作界面。 3. 第二步:点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”生成。 4. 第三步:等待专属数字人视频出炉。 方案二:借助开源社区力量构建高质量的 AI 数字人 1. 推荐借助开源社区的像 dify、fastgpt 等成熟的高质量 AI 编排框架,它们有大量开源工作者维护,集成各种主流模型供应商、工具及算法实现等。 2. 可通过这些框架快速编排出自己的 AI Agent,赋予数字人灵魂。 在开源项目中,使用 dify 框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,实现相对复杂功能,如知识库搭建、工具使用等,无需编码和重新部署工作。 Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于此可将数字人的语音识别和语音生成都交由 Dify 控制,低门槛做出高度定制化的数字人。具体部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。 若有更高度定制的模型,也可在 Dify 中接入 XInference 等模型管理平台部署自己的模型。 数字人 GUI 工程中保留了 LLM、ASR、TTS、Agent 等多个模块,能保持更好的扩展。 注意事项: 1. 使用 Dify 接口时,必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。 2. 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,可自行选择方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可根据个人喜好添加。 制作数字人的工具: 1. HeyGen:AI 驱动的平台,可创建逼真的数字人脸和角色,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后合成逼真的会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会变化,使用时请遵守相关使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。
2025-01-21
有哪个大模型工具可以提供“word技术规范书转功能清单”功能
目前尚未有确切的大模型工具专门提供“word 技术规范书转功能清单”的功能。但一些通用的自然语言处理工具和办公软件的插件可能会对您有所帮助,例如一些基于云服务的办公自动化工具,不过其效果可能因具体的文档内容和格式而有所差异。
2025-01-21
我是一名公安技术人员,对于打击博彩打击涉网犯罪有没有什么ai可以帮助到我们,请提供一些ai工具并且告诉我应该如何使用
以下是一些 AI 在打击博彩和涉网犯罪方面的应用及工具: 利用强大的数据处理能力,如在儿童图像滥用数据库中,通过 AI 识别受害者和犯罪者。 公司提供的网络安全服务中,使用 AI 分析大量有关恶意软件的数据,并以超人类的速度应对网络安全漏洞,增强网络安全能力。 在使用这些 AI 工具时,需要注意以下几点: 确保数据的合法性、准确性和完整性,以保证分析结果的可靠性。 对 AI 系统进行持续的监测和评估,及时发现并解决可能出现的问题。 培训相关人员,使其能够熟练操作和理解 AI 工具提供的结果。
2025-01-16
我是一名公安技术人员,对于打击博彩打击涉网犯罪有没有什么ai可以帮助到我们
以下是一些 AI 在打击博彩和涉网犯罪方面的应用和帮助: 1. 利用强大的数据处理能力,如在儿童图像滥用数据库中,通过 AI 识别受害者和犯罪者,快速有效地在数字滥用图像中确定相关人员。 2. 增强网络安全能力,提供网络安全服务的公司越来越多地使用 AI 来分析大量有关恶意软件的数据,并以超人类的速度应对网络安全漏洞。随着网络威胁形势的不断变化,AI 的模式识别和递归学习能力在主动网络防御恶意行为方面可能发挥越来越重要的作用。 3. 拜登签署的行政命令中,建立了先进的网络安全计划,开发 AI 工具以查找和修复关键软件中的漏洞。同时,还下令制定国家安全备忘录,指导在 AI 和安全方面的进一步行动,以确保美国军事和情报机构在任务中安全、道德和有效地使用 AI,并采取行动对抗对手的军事 AI 应用。
2025-01-16
列举常用的剪辑软件、硬件设备、技术支持和3d动画软件
常用的剪辑软件有 Adobe Premiere Pro、Final Cut Pro、DaVinci Resolve 等。 常用的硬件设备包括高性能的计算机主机,具备强大处理能力的 CPU(如英特尔酷睿 i7 或 i9 系列)、大容量高速内存(16GB 及以上)、专业图形显卡(如 NVIDIA GeForce 系列)、大容量高速存储硬盘(如 SSD 固态硬盘),以及高分辨率和色彩准确的显示器。 常见的技术支持包括视频编码和解码技术(如 H.264、H.265 等)、特效插件(如 After Effects 插件)、色彩校正工具等。 常用的 3D 动画软件有 Maya、3ds Max、Blender 等。
2025-01-16
列举常用的剪辑软件、硬件设备以及技术支持,3d动画和ai视频生成
以下是关于剪辑软件、硬件设备、技术支持、3D 动画和 AI 视频生成的相关信息: AI 视频生成工具: Runway: 主要能力:文生视频(Text 2 Video)、Prompt+图像生成视频(Text+Image to Video)、无 Prompt 直接图片转视频(Image to Video)。 使用建议:Text to Video 时,优先使用右下角的“Free Preview”免费生成多组图片,然后从中选择一张进行视频生成以节约 credits。 近期更新:支持将 4s 的视频延长,每次延长需消耗 20 credits;9 月更新中,支持 110 级的 motion slider 调节,默认幅度为 5,同时支持水平、垂直、空间和旋转的运镜,并支持调节运动速度。 其他功能:提供 30 多项图片、视频处理能力,如 Inpainting 视频修复、Motion Tracking 视频主体跟随运动、Remove Any Background 删除视频元素/背景、3D Texture 生成 3D 纹理等。控制台上线了 Watch 模块,可查看官方精选的创意案例。推荐教程:ai 繪圖教學|Ai 动画:https://www.youtube.com/watch?v=Yj73NRmeSZM 由于您未明确提及剪辑软件、硬件设备和技术支持的具体需求,暂时无法为您详细列举。如果您能提供更具体的要求,我将为您提供更有针对性的信息。
2025-01-16