Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI图生视频前沿

Answer

以下是关于 AI 图生视频前沿的相关信息:

在近半年闭源产品趋势方面:

  1. 服务头部创作者方面,产品将逐渐增强编辑器能力,强化视频细节可控性,并智能化后期制作任务。
  2. 影视后期方向,可将动捕演员表演转化为虚拟角色,提高特效制作效率。
  3. 专业领域,创作者能通过草图分镜快速验证效果,但目前效果不够成熟。
  4. 随着实时生成能力提升和成本下降,AI 实验性艺术在博物馆、展览等互动应用将增多。
  5. 在 C 端大众消费侧,AI 视频在小说、网文阅读、短情景剧等内容消费方向有潜力,人物识别和替换可衍生电商平台虚拟试衣间能力。
  6. 模板套用能力若以低成本开放在短视频产品中,可能带来新的爆发周期。

其他动态包括:

  1. Krea 用开放的 API 做了自己的 AI 视频功能,支持对任何视频输入提示词进行延长。
  2. Runway 发布 Act-One 功能,支持将现实视频的人物表情和动作迁移到生成的视频上,且已全量开放。
  3. Ideogram 发布 Ideogram Canvas,可在无限画布上对生成的图片进行编辑。
  4. Meta 的图像分割模型 SAM 更新了 2.1,大幅加强了相似物体和小物体的分割和识别效果。

在 2024 年国内外 AI 企业竞争方面:

  1. 中国开源项目赢得全球粉丝,成为积极开源贡献者。DeepSeek 在编码任务中表现出色,阿里巴巴的 Qwen-2 系列视觉能力令人印象深刻,清华大学的 OpenBMB 项目催生了 MiniCPM 项目。
  2. 国外 Stability AI 发布的 Stable Video Diffusion 能从文本提示生成高质量、真实视频,并在定制化方面进步显著。今年 3 月推出的 Stable Video 3D 可预测三维轨道。
  3. OpenAI 的 Sora 能生成长达一分钟的视频,保持三维一致性等,还使用原始大小和纵横比的视觉数据训练。
  4. Google DeepMind 的 Veo 将文本和可选图像提示与嘈杂压缩视频输入结合,创建并解码独特的压缩视频表示。
Content generated by AI large model, please carefully verify (powered by aily)

References

AI视频爆发式更新- 近半年闭源产品趋势

这半年来,除传统的文生视频、图生视频能力迭代外,当前的主要技术发展还围绕着通过转绘改变画风、视频内人物识别和替换方向。1.在服务头部创作者方面,各家产品未来会逐渐转向编辑器能力增强,强化视频细节可控性,并逐渐将剪辑、音效生成匹配等后期制作任务智能化,逐步转变当前AI创作者跨N个产品完成创作的现状。2.影视后期方向,未来可以将动捕演员的表演直接转化为虚拟角色,大大提高特效制作效率。3.专业领域,创作者未来可以快速通过草图分镜验证效果。例如动画制作产品Fable在今年4月试水了Prism Beta功能。用户可以制作简单的几何图形串联的动画逐帧渲染实现更丰富的动画效果。但目前效果还不够成熟。4.随着实时生成能力的进一步提升,生成成本的下降,AI实验性艺术在博物馆、展览等互动应用将会增多。5.在C端大众消费侧,看好AI视频在小说、网文阅读、短情景剧等内容消费方向发挥潜力;另外人物识别和替换也可以衍生电商平台虚拟试衣间能力。6.Viggle、DomoAI的产品中的模板套用能力若以更低成本开放在短视频产品中,可能会带来短视频平台效果模板新的爆发周期。

AIGC Weekly #94

[Krea用那些开放的API做了自己的AI视频功能](https://x.com/krea_ai/status/1849393245887062082)。支持对任何视频输入提示词进行延长。应该是用视频最后一帧做的图生视频,不过也省事很多了,他接入的几家都没做。千问周畅、面壁智能核心成员秦禹嘉、零一万物核心成员黄文灏都加入了字节,有钱真好啊,经得起折腾,无限投入。[Runway发布Act-One功能](https://x.com/runwayml/status/1848785907723473001),支持将现实视频的人物表情和动作迁移到生成的视频上,效果非常好,目前已经全量开放。[Ideogram发布Ideogram Canvas](https://x.com/ideogram_ai/status/1848757699606983143)。可以在无限画布上对生成的图片进行编辑,比如扩图、局部重绘,以及最基本的生成功能。[Meta的图像分割模型SAM更新了2.1](https://github.com/facebookresearch/sam2/blob/main/demo/README.md)。大幅加强了相似的物体和小物体的分割和识别效果。

2024人工智能报告|一文迅速了解今年的AI界都发生了什么?

**中国开源项目在今年赢得全球粉丝,并且已经成为积极开源贡献者。**其中几个模型在个别子领域中脱颖而出,成为强有力的竞争者。DeepSeek在编码任务中已成为社区的最爱,其组合了速度、轻便性和准确性而推出的deepseek-coder-v2。阿里巴巴最近发布了Qwen-2系列,社区对其视觉能力印象深刻,从具有挑战性的OCR任务到分析复杂的艺术作品,都完成的非常好。在较小的一端,清华大学的自然语言处理实验室资助了OpenBMB项目,该项目催生了MiniCPM项目。这些是可以在设备上运行的小型<2.5B参数模型。它们的2.8B视觉模型在某些指标上仅略低于GPT-4V。2024年是AI图像视频迅速发展的一年,这个赛道竞争异常激烈国外Stability AI发布的Stable Video Diffusion,是第一个能够从文本提示生成高质量、真实视频的模型之一,并且在定制化方面取得了显著的进步。并且在今年3月,他们推出了Stable Video 3D,该模型经过第三个对象数据集的微调,可以预测三维轨道。OpenAI的Sora能够生成长达一分钟的视频,同时保持三维一致性、物体持久性和高分辨率。它使用时空补丁,类似于在变压器模型中使用的令牌,但用于视觉内容,以高效地从大量视频数据集中学习。除此之外,Sora还使用了其原始大小和纵横比的视觉数据进行训练,从而消除了通常会降低质量的裁剪和缩放。Google DeepMind的Veo将文本和可选图像提示与嘈杂压缩视频输入相结合,通过编码器和潜在扩散模型处理它们,以创建独特的压缩视频表示。然后系统将此表示解码为最终的高分辨率视频。

Others are asking
流程图生成
生成流程图主要有以下两种方式: 1. 可视化拖拽: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形,代表语法:。 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中,比如在用 tyora、markdown 写文档时。 多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 个人比较倾向于语法转图形的方式,只要解决语法抽象写起来麻烦的问题就行。使用 ChatGPT 生成图形语法的生成流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑,用自然语言描述出来生成 Mermaid 图形语法。 3. 在线校验测试是否成功,最后测试发现非常完美。 此外,Recraft 也能生成带有长文本图像的流程图解。在其开发过程中包含了很多不同的模型和工作,比如帮助处理数据的模型,由非专业设计师的标注人员和专业设计师参与的标注工作,训练 OCR 模型,新构建的数据集等等。但创建自己的模型存在困难,既需要超强的团队,组建这样的团队很难,而且训练自己的模型也很贵。
2025-03-13
图生视频
以下是关于图生视频的相关信息: 什么是图生视频: 输入一张图片+相应的提示词,清影大模型将根据提示将图片转变为视频画面。您也可以只输入一张图片,清影大模型将自行发挥想象力,把图片扩展为一段有故事的视频。 图生视频的两个小技巧: 1. 选用尽可能清晰的图片,上传图片比例最好为 3:2(横版),清影支持上传 png 和 jpeg 图像。如果原图不够清晰,会影响模型对图片的识别,可以采用分辨率提升工具将图片变清晰。 2. 提示词要【简单清晰】: 可以选择不写 prompt,直接让模型自己操控图片动起来。 明确您想动起来的【主体】并以「主体」+「主题运动」+「背景」+「背景运动」的方式撰写提示词(一定要有主体,不然可能会出现 AI 狂乱景象)。如果不明确大模型如何理解您的图片,推荐将照片发送到清言对话框进行识图,明确您的【主体】该如何描述。 常见的图生视频模型及特点(从高到低排序): 1. pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 2. luma 1.6:画面质量挺好,但是太贵了。 3. 可灵 1.6 高品质:YYDS! 4. 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 5. runway:画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 6. 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 7. vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds! 就是太贵了!!!!! 8. seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 9. pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 10. sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 PixVerse V2 使用教程: 1. 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 2. 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 3. 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。
2025-03-13
我想知道现在中国网络环境内可以用的最好图片AI,以图生图稳定
目前在中国网络环境内可用的较好的以图生图且较为稳定的 AI 产品有: 1. Artguru AI Art Generator:在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格可选,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 此外,关于 Stable Diffusion 还有一些相关的使用技巧和处理步骤: 用 GFPGAN 算法将人脸变清晰,可参考文章。 将图片发送到图生图中,打开 stableSR 脚本放大两倍,该放大插件是所有插件中对原图还原最精准、重绘效果最好的,可参考文章。 使用 Stable Diffusion 中的【X/Y/Z plot】脚本做参数对比,如设置 X 轴为提示词相关性,Y 轴为重绘幅度等。绘图时可通过增加提示词、使用画笔工具等进行局部修改和重绘。
2025-03-12
图生文怎么制作
以下是关于图生文制作的详细步骤: 一、Tusiart 简易上手教程 1. 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 2. 选择基础模型 Checkpoint:根据主题,选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 3. 选择 lora:基于生成内容,寻找重叠的 lora 以控制图片效果和质量,可参考广场上好看帖子中使用的 lora。 4. ControlNet:用于控制图片中的特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开,无需管语法和长句。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开,无需语法。 9. 采样算法:一般选 DPM++2M Karras 较多,也可留意 checkpoint 详情页上模型作者推荐的采样器。 10. 采样次数:选 DPM++2M Karras 后,采样次数在 30 40 之间,过多意义不大且慢,过少出图效果差。 11. 尺寸:根据个人喜好和需求选择。 二、Liblibai 简易上手教程 1. 定主题:确定要生成的图片的主题、风格和表达信息。 2. 选择 Checkpoint:依照主题找贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora 来控制图片效果和质量,参考广场上的优秀帖子。 4. 设置 VAE:无脑选 840000 那一串。 5. CLIP 跳过层:设成 2 。 6. Prompt 提示词:用英文写想要 AI 生成的内容,单词和短语组合,用英文半角逗号隔开,不管语法和长句。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开,不管语法。 8. 采样方法:一般选 DPM++2M Karras 较多,留意 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 后,在 30 40 之间,过多意义不大且慢,过少出图效果差。 10. 尺寸:根据个人喜好和需求选择。 11. 生成批次:默认 1 批。 三、SD 新手入门图文教程 1. CFG Scale(提示词相关性):决定图像与提示的匹配程度,增加该值会使图像更接近提示,但可能降低图像质量,可用更多采样步骤抵消,一般开到 7 11 ,过高会有粗犷线条和过锐化图像。 2. 生成批次:每次生成图像的组数,一次运行生成图像的数量为“批次×批次数量”。 3. 每批数量:同时生成的图像个数,增加会提高性能但需更多显存,若显存未超 12G ,保持为 1 。 4. 尺寸:指定图像长宽,出图尺寸太宽可能出现多个主体,1024 以上尺寸可能效果不理想,推荐小尺寸分辨率+高清修复(Hires fix) 。 5. 种子:决定模型生成图片时的随机性,初始化 Diffusion 算法起点的初始值,相同参数下应生成相同图片。 6. 高清修复:通过勾选“Highres.fix”启用,默认高分辨率下会生成混沌图像,使用后先按指定尺寸生成再放大,实现高清大图效果,最终尺寸为(原分辨率×缩放系数 Upscale by) 。
2025-03-11
我想大规模进行文生图,然后图生视频,用什么方案比较好
以下是一些大规模进行文生图然后图生视频的方案: 1. 可以选择大语言模型 chatgpt、kimi 进行剧本分镜设定,文生图使用 midjourney 生成视觉画面,图生视频选择即梦 dreamina 制作动态画面,suno 音乐编曲,ondoku 主角台词配音,视频剪辑使用剪映。同时,视频中的小部分音效可在网上无版权下载,剪映中也有大量音效可用。 2. 对于视频的大部分片段,可以用 runway(https://app.runwayml.com/)制作,少数片段用即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。登录 runway 账户后,在首页左侧点击“Text/Imagine to Video”,上传图片,更改模型版本、输入提示词、修改生成的视频时长等。 3. 以下是一些图生视频模型的特点(从高到低排序): pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型理解能力更强,更适合连续运镜,适合做一些二次元动漫特效。 luma 1.6:画面质量挺好,但价格昂贵。 可灵 1.6 高品质:表现出色。 海螺01live:文生视频比图生视频更有创意,图生也还可以,但大幅度动作下手部会出现模糊,整体素质不错,价格较贵。 runway:画面质量不算差,适合做一些超现实主义的特效、特殊镜头。 智谱 2.0:画面特效出众,价格便宜,量大,但整体镜头素质稍差。 vidu1.5:适合二维平面动画特效,大范围运镜首尾帧出色,但价格贵。 seaweed 2.0 pro:适合动态相对小、环绕旋转运镜动作小的情况。 pixverse v3 高品质:首尾帧表现好,画面美学风格有待提升。 sora:不好用,文生视频较强,但图生视频抽象镜头多,不建议使用。
2025-03-06
图生图
图生图是一种在 AI 绘画领域常见的功能: 概念与功能:上传图片后,AI 会根据图片、选择的模型、输入的 prompt 等信息进行重绘。重绘幅度越大,输出的图与输入的图差别越大。 相关参数: 尺寸:影响生成图片的大小,太小或太大都可能影响生成效果,如需高清图,可设置中等尺寸并用高分辨率修复。 采样算法:决定让 AI 用何种算法生图。 采样次数:AI 调整图片内容的次数,越多调整越精密,理论上出图效果更好,但耗时越长,且效果提升并非线性。 提示词相关性:指图像与 prompt 的匹配程度,数字增大图像更接近提示,但过高会使图像质量下降。 随机种子 seed:每张生成的图都有随机种子,固定种子后可进行“控制变量”操作,首次生成图时无种子。 Clip Skip:一般设为 2,早期无需过多关注。 ENSD:eta 噪声种子增量,默认设为 0。 使用方法: 在星流一站式 AI 设计工具中,prompt 输入框下点击“图生图”可上传本地文件,在无限画布中图片功能区也可进行选择。调整“图生图”功能区参数时,参考程度可选择更像原图(小幅度修改基底图像,有限增加元素)、更创意(大幅度修改基底图像,可搭配增强模型加入更多元素)、自定义(自定义修改重绘幅度),还可增加参考纬度、替换图像、转换提示词、同步生图尺寸。 在 FLUX 之 PULID 换脸中,如果没办法科学上网,可注册 bizyair 拿到 key,在 comfyui 中安装最新节点,没有独立显卡的笔记本也可体验。目前 FLUXPULID 只有文生图,图生图可准备两张图,用 joy 反推,将文字贴到 pulid 工作流里,也可合在一个工作流里。
2025-03-05
AI数字人是什么,市面上目前有哪些生成数字人的AI工具,介绍一下这些工具的网址以及优缺点
AI 数字人是通过人工智能技术创建的虚拟人物形象。 目前市面上常见的生成数字人的 AI 工具及相关信息如下: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 网址: 使用方法: 点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片。 上传后效果如图所示,My Avatar 处显示上传的照片。 点开大图后,点击 Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击 Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 网址: 使用方法: 点击上面的网址,点击右上角的 Create vedio。 选择人物形象,可以点击 ADD 添加自己的照片,或者使用 DID 给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击 Generate vedio 就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很 AI。 网址: 使用方法: 点击上面的网址,注册后获得 120 免费 k 币,这里选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。 此外,还有开源且适合小白用户的数字人工具,如: 特点:一键安装包,无需配置环境,简单易用。 功能:生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。 系统兼容:支持 Windows、Linux、macOS。 模型支持:MuseTalk(文本到语音)、CosyVoice(语音克隆)。 网址: GitHub: 官网: 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会随着时间和技术的发展而变化。在使用这些工具时,请确保遵守相关的使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。
2025-03-14
你好,我想训练一个自己的专属模型,比如说基于网页里面的问卷调查,我有答题的逻辑,网页的问卷调查项目每天都有非常多的不同的地方,但是又有相通的地方,我想让AI在我的逻辑之上能自我迭代自动答题,我该怎么办
如果您想基于网页问卷调查训练一个能在您的逻辑之上自我迭代自动答题的专属模型,有以下两种常见的技术方案: 1. 训练专有大模型: 优点:效果最好。 缺点:成本高,训练和维护需要大量计算资源和专业知识;更新模型知识难度大,需要重新训练或微调,过程复杂耗时。 2. 利用 RAG(检索增强生成)技术: 例如选择 Baichuan27BChat 模型作为底模,配置模型本地路径和提示模板。在 Train 页面里选择 sft 训练方式,加载定义好的数据集,根据数据集大小和收敛情况设置学习率和训练轮次。使用 FlashAttention2 可减少显存需求、加速训练速度;显存小的朋友可减少 batch size 并开启量化训练,内置的 QLora 训练方式好用。但需要用到 xformers 的依赖。根据聊天记录规模大小,训练时间少则几小时,多则几天。 此外,还有学生训练专属植物分类 AI 模型的案例供您参考。在北京市新英才学校的跨学科选修课“生化 E 家”中,老师和学生共同收集校园内不同树叶的照片,在 OpenInnoLab里找到图像分类训练工具,建立植物分类模型,加入大量数据集进行训练,再用图像化编程将其套在程序里,形成简单的识别工具。在这个过程中,老师通过生活体验与学生讨论图像分类原理,学生从体验到实践操作,在不进行大量代码编程的情况下能够训练 AI 模型,并了解模型训练准确度与数据的关系。
2025-03-14
Java相关的AI
以下是关于 Java 相关的 AI 的一些信息: 1. 利用固定格式文档结合 AI 进行代码开发的可行性分析:建议优化方面,要强调组员主观能动性,让他们自主设计,组长负责引导和经验分享。文档并非唯一最佳方式,可尝试用简短描述或 Prompt 辅助代码生成。经验分享方面,在 AI 编程中,设计非常重要,模块化低耦合设计和清晰的上下文对代码生成效果尤为关键。参考链接: 2. 后端 Java 程序员转向 LLM 方向的行动建议:借助 AI 编程(如 Cursor),熟悉 LLM 原理,探索复杂 Prompt 和定制化规则。开展 LLM 相关的 Side Project(如翻译工具、AI 对话应用等),通过实践快速掌握技能。将 AI 当老师,边做边学,获取即时反馈,持续提升。核心建议是行动起来,找到正反馈,坚持使用 AI 辅助编程。参考链接:
2025-03-14
直接分析excel的数据,有哪些AI推荐,免费的
以下是一些可用于直接分析 Excel 数据的免费 AI 工具推荐: 1. 让 AI 帮您写 Excel 宏函数,适用于几乎所有主流 AI。 2. Claude 网页版或 ChatGPT,可上传 CSV 进行可视化分析。 3. Excel Labs:Excel 插件,新增生成式 AI 功能,基于 OpenAI 技术,可在 Excel 中利用 AI 进行数据分析和决策支持。 4. Microsoft 365 Copilot:微软推出的 AI 工具,整合了多种办公软件,通过聊天形式完成数据分析或格式创建等任务。 5. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,可通过自然语言交互式地进行数据分析和生成 Excel 公式。 6. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,能执行公式生成、文本内容生成、情感分析、语言翻译等任务。 随着技术发展,未来可能会有更多 AI 功能集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-14
直接分析excel的数据,有哪些AI推荐
以下是一些可用于直接分析 Excel 数据的 AI 工具和方法: 1. Excel Labs:这是一个 Excel 插件,基于 OpenAI 技术新增了生成式 AI 功能,可用于数据分析和决策支持。 2. Microsoft 365 Copilot:微软推出的整合了 Word、Excel、PowerPoint、Outlook、Teams 等办公软件的 AI 工具,能通过聊天形式完成数据分析或格式创建等任务。 3. Formula Bot:提供数据分析聊天机器人和公式生成器两大功能,支持自然语言交互式地进行数据分析和生成 Excel 公式。 4. Numerous AI:支持 Excel 和 Google Sheets 的 AI 插件,能进行公式生成、根据提示生成相关文本内容、执行情感分析、语言翻译等任务。 此外,还可以通过让 AI 帮您写 Excel 宏函数来处理数据,对于数据分析,推荐使用 Claude 网页版或 ChatGPT,并可上传 CSV 进行可视化分析。随着技术发展,未来可能会有更多 AI 功能集成到 Excel 中,进一步提高工作效率和数据处理的智能化水平。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-14
AI制作视频的工具
以下是一些可用于将小说制作成视频的 AI 工具及制作流程: AI 工具: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可基于文本描述生成图像。网址:https://github.com/StabilityAI 2. Midjourney(MJ):适用于创建小说中的场景和角色图像。网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,能生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/ 制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 另外,以“AI 特效挑战 001 杯子里的鲸鱼”为例,选用视频制作工具时,如使用可灵 AI,可参考以下步骤: 1. 打开可灵 AI,网址:https://klingai.kuaishou.com/ ,点击图生视频,上传第一张图片。输入提示词时一定需要加“固定镜头”。 2. 按照上述做法制作第二张图片的动态效果,得到两段视频。 视频剪辑方面(以 PC 端为例): 1. 右上方点击抠像按钮。 2. 鼠标选中要处理的素材。 3. 把带绿幕的素材先放入下面主视频轨道。 4. 打开剪映,导入需要的三段素材。 5. 把带绿幕的素材和下方黑色咖啡的素材合成一个片段。 6. 点击新建的复合片段,调整对应的参数,最后完成。
2025-03-14
快速帮我补充下大模型的发展时间线和关键节点,以及当前最前沿的新闻
大模型的发展时间线和关键节点如下: 2017 年:发布《Attention Is All You Need》论文。 2018 年: Google 提出 BERT,创新性地采用双向预训练并行获取上下文语义信息及掩码语言建模。 OpenAI 提出 GPT,开创仅使用自回归语言建模作为预训练目标的方式。 2021 年:Meta 提出 Large LAnguage Model Approach(LLAMA),成为首个开源模型。 2022 年 11 月 30 日:ChatGPT 发布,在全球范围内掀起人工智能浪潮。 2022 年 12 月:字节云雀大模型等出现。 2023 年: 国内大模型发展大致分为准备期(国内产学研迅速形成大模型共识)、成长期(数量和质量逐渐增长)、爆发期(开源闭源大模型层出不穷,形成百模大战态势)。 关键进展包括:Meta 开源 Llama2、OpenAI 发布多模态 GPT4V 及 GPT4 Turbo、百川智能开源 Baichuan7B 及 Baichuan2、百度升级文心一言 4.0、清华&智谱 AI 开源 ChatGLM2 及清华开源 ChatGLM3、腾讯发布混元助手等。 当前最前沿的新闻包括:过去半年,国内领军大模型企业实现了大模型代际追赶的奇迹,从 7 月份与 GPT3.5 的 20 分差距,到 11 月份测评时已在总分上超越 GPT3.5。
2025-03-14
现在ai最前沿的发展趋势是什么
AI 技术的发展历程和前沿趋势如下: 发展历程: 1. 早期阶段(1950s 1960s):包括专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):有专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):出现机器学习算法如决策树、支持向量机、贝叶斯方法等。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等得到广泛应用。 当前前沿技术点: 1. 大模型(Large Language Models):如 GPT、PaLM 等。 2. 多模态 AI:包括视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 3. 自监督学习:如自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习:例如元学习、一次学习、提示学习等。 5. 可解释 AI:涉及模型可解释性、因果推理、符号推理等。 6. 机器人学:涵盖强化学习、运动规划、人机交互等。 7. 量子 AI:包含量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 在学习路径方面: 偏向技术研究方向: 1. 具备数学基础,如线性代数、概率论、优化理论等。 2. 掌握机器学习基础,包括监督学习、无监督学习、强化学习等。 3. 深入学习深度学习,如神经网络、卷积网络、递归网络、注意力机制等。 4. 熟悉自然语言处理,如语言模型、文本分类、机器翻译等。 5. 了解计算机视觉,如图像分类、目标检测、语义分割等。 6. 跟进前沿领域,如大模型、多模态 AI、自监督学习、小样本学习等。 7. 进行科研实践,包括论文阅读、模型实现、实验设计等。 偏向应用方向: 1. 掌握编程基础,如 Python、C++等。 2. 熟悉机器学习基础,如监督学习、无监督学习等。 3. 熟练使用深度学习框架,如 TensorFlow、PyTorch 等。 4. 应用于自然语言处理、计算机视觉、推荐系统等领域。 5. 做好数据处理,包括数据采集、清洗、特征工程等。 6. 进行模型部署,如模型优化、模型服务等。 7. 参与行业实践,如项目实战、案例分析等。 无论是技术研究还是应用实践,数学和编程基础都是必不可少的。同时需要紧跟前沿技术发展动态,并结合实际问题进行实践锻炼。 此外,去年生成式 AI 从不引人注意走到了 AI 50 强榜单的前列。今年,随着企业用户和消费者的 AI 生产力大幅提高,其成为前沿和中心。尽管 2023 年美国的大部分 AI 风投流向了基础设施领域,应用公司仍在 AI 50 强榜单中占据主导地位。如今,许多公司正将 AI 融入其工作流程,以此来快速达成 KPI。不远的将来,我们有望看到 UX 和 UI 围绕 AI 的功能进行重新设计。
2025-03-08
前沿ai学习网站
以下是一些前沿的 AI 学习网站: 1. WaytoAGI:这是一个致力于人工智能(AI)学习的中文知识库和社区平台。为学习者提供系统全面的 AI 学习路径,覆盖从基础概念到实际应用的各个方面。它汇集了上千个人工智能网站和工具,提供最新的 AI 工具、AI 应用、AI 智能体和行业资讯。平台提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。此外,社区还定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 2. 在没有任何推广的情况下,WaytoAGI 一年时间已有超过 100 万用户和超千万次的访问量。其目标是让每个人的学习过程少走弯路,让更多的人因 AI 而强大。目前合作过的公司/产品包括阿里云,通义千问,淘宝,智谱,支付宝,豆包,火山引擎,marscode,coze,堆友,即梦,可灵,MiniMax 海螺 AI,阶跃星辰,百度,Kimi,吐司,liblib,华硕,美团,美的,360,伊利,魔搭,央视频,Civitai,Openart,Tripo3D,青椒云等。 3. 「通往 AGI 之路」的品牌 VI 融合了独特的设计元素,以彩虹色彰显多元性和创新,以鹿的形象象征智慧与优雅,通过非衬线字体展现现代感和清晰性,共同构建了一个充满活力和前瞻性的品牌形象。
2025-01-23
目前最前沿的ai服装模特app
目前较为前沿的 AI 服装模特相关的应用有: Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 InterAlia 可以帮助搭配服装。 在小红书上,有通过 AI 制作服装如 AI 小绿裙实现变现的案例,新手可用 mewxai 或幻火来制作,熟练者可用 sd 或 mj 制作。 此外,还有用 AI 定制萌娃头像等相关应用。
2025-01-06
AL最新前沿
以下是 AI 领域的一些最新前沿信息: 2024 年 2 月第一周: Maimo:能从任何内容中提取要点。 Jellypod:可将订阅内容变成播客。 ARTU:能汇总和总结内容。 Lepton Search:用 500 行代码构建的 AI 搜索工具。 VectorShift:AI 自动化应用构建平台。 Findr:AI 搜索您所有软件中的内容。 Recraft:AI 帮助创建平面内容和矢量标志。相关链接:,日期:2024/02/01。 2024 年 1 月第四周: 扎克伯格宣布 Meta 致力于实现 AGI,将两大 AI 研究团队 FAIR 和 GenAI 合并,并投入超 90 亿美元向英伟达采购超 34000 张 H100 显卡,预计 24 年底 Meta 的 GPU 算力达 60 万个 H100。 今年英伟达总的 H100 出货量将有 15 万张,Meta 采购量占 1/5。 Meta 正在开发名为 Llama 3 的大语言模型,以提升代码生成和逻辑推理能力。 扎克伯格推动开源的通用人工智能开发方式,这也是大家关注其进展和 Llama3 的原因。相关链接:,日期:2024/01/23。
2025-01-01
前沿AI硬件
以下是关于前沿 AI 硬件的相关信息: 由郎瀚威 Will 发起的 GenAI 硬件榜单: 定义:利用 GenAI 技术(主要是 LLM),与音频生成、翻译、视觉采集并解读相结合,以可穿戴为主逐步渗透的新品类硬件,以 Meta 雷朋眼镜为代表。 本期情况:未收录较大的 GenAI 硬件如 AI PC、AI 手机,以可穿戴、AI 助理相关硬件为起点。 榜单受众:GenAI 硬件创始人、投资人、从业者等。 榜单标的:以北美市场的视角,销量、影响力为主。 榜单初心:随着 Meta 眼镜的成功,GenAI 硬件爆发在即,每月从多角度围观这一现象,旨在给创业者提供参考。 本次更新(9.19): 更新亚马逊销量、独立站流量、新品发布、融资信息,排序标准从媒体综合指数改为 Tiktok 热度。 完善挂件、戒指、眼镜等分类榜数据。 榜单目录:包括 GenAI 硬件北美公开销量榜、GenAI 硬件亚马逊销量榜等共 15 个重要榜单。更多榜单可文末点击“阅读原文”免费访问或直接访问飞书:https://zw73xyquvv.feishu.cn/wiki/IqcqwTDiYiKttNktBg3cg8HgnLh 。数据来源:google、tiktok、twitter、亚马逊。对于榜单内容有疑问想交流的 GenAI 硬件创始人,或者想合作转载内容的公众号博主,请加微信,或者在本文末留言。 今年很火的几款 AI native 硬件: Rewind Pendant:可穿戴设备,能捕捉现实中所说和听到的内容,进行录音转录、数据加密和本地存储,保障安全性和隐私保护。https://www.rewind.ai/pendant Rabbit R1:新型人工智能驱动的移动设备,通过高级语音命令简化应用程序使用,售价 199 美元,配备 360 度摄像头、触摸屏和 4G 连接。Rabbit OS 基于 Large Action Model(LAM 大动作模型),能处理自然语言并转化为可执行任务,与常见应用交互,支持语音命令执行复杂任务,未来用户可教会其执行特定任务。https://www.rabbit.tech/
2024-12-27
免费的文字生视频软件
以下是一些免费的文字生成视频软件: 1. Pika:是一款出色的文本生成视频AI工具,擅长动画制作,支持视频编辑,目前内测免费。生成服务托管在discord中,加入Pika Labs的Discord频道,在“generate”子区可进行操作,输入/create并在弹出的prompt文本框内输入描述即可生成视频,还能上传本地图片生成对应指令动态效果。 2. SVD:如果熟悉Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,由Stability AI开源。 3. Kaiber:这是一款视频转视频AI,能够将原视频转换成各种风格的视频。 4. Sora:由OpenAI开发,可以生成长达1分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 Pika labs的特点及使用方法: 目前推出了Beta版本,支持免费、不限次数地文生视频、图生视频,生成的视频会带上官方水印。 官方Twitter:https://twitter.com/pika_labs 使用方法: 在Discord试用Beta版本:http://discord.gg/pika 选择generatex开头的频道或者建立pika labs私信 “/create”输入prompt即可完成文生视频,输入prompt后,点击“增加1”可添加image进行文+图生视频。 若仅输入图片,不输入Prompt来生成视频,可以使用/animate命令。 9月,pika更新了新能力加密信息。使用命令/encrypt_text,可以将最多20个字符的文本“加密”到给定的视频输出中。使用/encrypt_image,则可以实现输入logo image,生成图像动画中含有logo的效果。 请注意,以上内容由AI大模型生成,请仔细甄别。
2025-03-14
自动剪辑视频
以下是关于自动剪辑视频的相关信息: HeyGen 的自动剪辑视频工具 Instant Highlights 1.0 具有自动剪辑视频的功能,支持多种语言配音。 火山引擎上线的“大模型应用实验室”平台有一个开源的企业级模板,输入故事主题即可全自动生成故事、分镜、人物图片、视频、音频等,并能自动剪辑生成完整视频,还可与故事进行 AI 对话。但该项目是企业级模版,可能需要企业认证才能使用某些服务。 Meta 发布了一个可以利用 AI 自动剪辑视频的 Agents LAVE,与 Sora 这样的视频生成模型结合,一些简单的短视频及广告视频可能无需人工介入。
2025-03-14
免费的文生视频的软件
以下是一些免费的文生视频软件: 1. Pika:擅长动画制作,支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion ,可安装此插件,在图片基础上生成视频,由 Stability AI 开源。 3. Haiper:有免费额度,能生成 HD 超高清的视频,文生视频支持选择风格、秒数、种子值等。 4. DynamiCrafter:免费,可生成 2 秒图生视频,还能做短视频拼长视频。 此外,还有通义万相,可免费使用,地址为:https://tongyi.aliyun.com/wanxiang/wanxvideo 。它全新发布自研 AI 视频生成大模型,具备多种优势。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。 内容由 AI 大模型生成,请仔细甄别。
2025-03-13
批量视频转文字
以下是关于批量视频转文字的相关信息: 通义听悟是阿里云推出的一款基于大模型的工作学习 AI 助手,能对音视频内容进行转写、检索、摘要和整理等。它可以实时记录交流内容并同步翻译,批量转写音视频文件并区分发言人,智能提炼全文概要、章节速览和发言总结,提取视频中的 PPT 并总结摘要,自动提取关键词和待办事项,编辑整理笔记并导出分享。通义听悟于 2023 年 6 月 1 日开始公测,并在 2023 年 11 月的云栖大会上正式上线。 舆情管理大师汽车 bot 小队具有视频直转文字的功能,能简化人工筛选过程,提炼关键内容用于复审。 在视频转绘制作视频过程中,对于批量跑图脚本设置,当对关键帧的图片试验完毕得到满意画面时,可来到图生图界面点击最下面的脚本按钮,选择 Ebsynth Utility 脚本。需填写对应的工程文件路径,注意 Mask option 选项控制是否使用蒙版。ControlNet 配置一般保持默认参数,还可配置脸部裁切,包括面部裁切选择、面部裁切分辨率、最大裁切尺寸、人脸去噪程度、面部放大倍数等参数,开启后可改善面部崩坏情况。设置完成点击生成按钮,最后会在工程文件夹中生成一个 img2img_key 的文件夹。
2025-03-13