Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

AI文生视频免费

Answer

以下是一些免费的 AI 文生视频工具:

  • 混元:腾讯的视频模型,目前只支持文生视频,图生视频即将上线,已完成 v1 版本并开源免费。
  • Hidreamai(国内,有免费额度):https://hidreamai.com/#/AiVideo ,支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持多种控制和多尺寸,可生成 5s 和 15s 的视频。
  • ETNA(国内):https://etna.7volcanoes.com/ ,由七火山科技开发,能根据简短文本描述生成 8 - 15 秒、4K 画质、60fps 的视频,支持中文和时空理解。
  • Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/ai-tool/video/generate ,支持文生视频、图生视频、视频生视频,提示词使用中文、英文都可以,支持多种控制和多种尺寸,默认生成 3s 视频。
  • 可灵(免费):https://klingai.kuaishou.com/ ,支持文生视频、图生视频,提示词可使用中文,文生视频支持多种控制和多种尺寸,默认生成 5s 视频。
Content generated by AI large model, please carefully verify (powered by aily)

References

混元:腾讯视频模型

AI视频这个行业,我一直觉得对于创业者或者小公司来说,不是特别友好。不友好的点在于,获取高质量数据的难度,相比于文本、图像啥的,太高了。大厂啊,护城河还是太高、太深了。最关键的是,腾讯用这个自己深厚的家底,先把这个模型的v1版本做完了,然后,直接开源,免费送。这尼玛,谁顶得住。目前混元AI视频模型,只支持文生视频,不过他们说图生视频也很快就会上线了,马上就做完了。文本大模型、AI绘图大模型、3D生成大模型,再加上这次的AI视频大模型。如果再来一个AI声音模型,腾讯就是,真正的全系开源了。只能说,腾讯对于自己的市场定位和核心竞争优势,也有着极度明确的认知。腾讯的城堡,还在向天空挺进。以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。>/作者:卡兹克>/投稿或爆料,请联系邮箱:wzglyay@gmail.com

小歪:AI视频工具合集

https://hidreamai.com/#/AiVideo支持文生视频、图生视频提示词使用中文、英文都可以文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成5s和15s的视频相关界面截图:[heading3]ETNA(国内)[content]https://etna.7volcanoes.com/Etna是一款由七火山科技开发的文生视频AI模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在8~15秒,画质可达到4K,最高3840*2160,画面细腻逼真,帧率60fps。文生视频,支持中文,时空理解

小歪:AI视频工具合集

https://jimeng.jianying.com/ai-tool/video/generate知识库详细教程:[工具教程:Dreamina](https://waytoagi.feishu.cn/wiki/AxZuwUQmEipTUEkonVScdWxKnWd)简单介绍:支持文生视频、图生视频,视频生视频支持图生视频首尾帧功能提示词使用中文、英文都可以文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持16:9、9:16、1:1、3:4、4:3尺寸,图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同默认生成3s的视频相关界面截图:[heading3]可灵(免费)[content]https://klingai.kuaishou.com/知识库详细教程:[视频模型:可灵](https://waytoagi.feishu.cn/wiki/GevKwyEt1i4SUVk0q2JcqQFtnRd)简单介绍:支持文生视频、图生视频支持图生视频首尾帧功能提示词可使用中文文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持16:9、9:16、1:1尺寸,图生视频除了不可运镜控制以外,其他跟文生视频基本相同默认生成5s的视频相关界面截图:

Others are asking
能够文生1分钟以上长视频的工具有哪些
以下是一些能够生成 1 分钟以上长视频的工具: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。内容由 AI 大模型生成,请仔细甄别。 Sora 是 OpenAI 发布的首款文生视频模型,能够根据文字指令创造出既逼真又充满想象力的场景,生成长达 1 分钟的超长视频,还是一镜到底那种。相比其他工具如 Runway Gen 2、Pika 等在几秒内的连贯性,Sora 达到了史诗级的纪录,60 秒的一镜到底,视频中的人物和背景等都有惊人的一致性和稳定性。 自 2021 年以来,AI 领域的多模态模型成为重要焦点,如 CLIP 和 Stable Diffusion 等。2023 年出现了商业文本到图像产品,如 Stable Diffusion、Midjourney、DALLE 3。但从文本到图像过渡到文本到视频具有挑战性,大多数现有视频生成工具如 Pika 和 Gen2 仅限于生成几秒钟的短视频片段,Sora 在此背景下代表了重大突破。
2024-12-23
中国大陆能用的文生视频免费ai
以下是一些在中国大陆可用的文生视频免费 AI 工具: 1. Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以。文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 2. ETNA(国内):https://etna.7volcanoes.com/ 。Etna 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,文生视频支持中文,时空理解。 3. Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频、视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以。文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持多种尺寸,默认生成 3s 的视频。 4. 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文。文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸,默认生成 5s 的视频。 此外,还有一些国内外提供文生视频功能的产品推荐: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-20
中国大陆能用的文生视频免费ai工具
以下是一些在中国大陆可用的文生视频免费 AI 工具: Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 ETNA(国内):https://etna.7volcanoes.com/ 。Etna 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,文生视频支持中文,时空理解。 Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频,视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以,文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持多种尺寸,默认生成 3s 的视频。 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文,文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸,默认生成 5s 的视频。 此外,还有一些国内外提供文生视频功能的产品,如: Pika:擅长动画制作,并支持视频编辑。 SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-20
文生视频,谁比较强?
目前在文生视频方面,PIKA1.0 表现较为出色。它启用全新模型,文生视频质量大幅提升,3D 和 2D 动画效果吊炸天,稳定性强,神情表现出色,在处理各种场景和提示词时都有惊艳的效果。例如,输入“Cinematic,happy laughing girl in office,Pixar style”瞬间就能匹配出皮克斯水平的镜头,而且在处理不规则构图的汽车行驶等场景时,光影表现极好。同时,可灵在文生视频方面也有一定特点,在多对象场景中能保持较好的形体轮廓,在处理偏真实场景的视频,如吃东西、老人神情和皮肤细节等方面表现出色,地面光影变化处理恰当,但在处理远距离和密集人群时有局限,在动画方面不是强项,处理稍长动作时会遇到挑战。
2024-12-19
文生图
以下是关于文生图的相关知识: 简明操作流程: 定主题:明确生成图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 ControlNet:可控制图片中特定的图像,如人物姿态、特定文字等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写要避免产生的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据喜好和需求选择,注意尺寸并非越大越好。 提示词: 分为内容型提示词和标准化提示词,用于描述想要的画面。例如选择 anythingV5 大模型,输入“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”等描述。 采样迭代步数通常控制在 20 40 之间,步数越高绘画越清晰,但速度越慢。 采样方法常用的有 Euler a、DPM++2S a Karras、DPM++2M Karras、DPM++SDE Karras、DDIM 等,有的模型有指定算法,搭配更好用。 比例设置为 800:400,模型练图基本按 512x512 框架,太大数值可能导致奇怪构图,可通过高清修复放大图像倍率。 文生图工具: DALL·E:OpenAI 推出,可根据文本描述生成逼真图片。 StableDiffusion:开源,能生成高质量图片,支持多种模型和算法。 MidJourney:图像生成效果好,界面设计用户友好,在创意设计人群中流行。 更多工具可在 WaytoAGI 网站(https://www.waytoagi.com/category/104 )查看。
2024-12-19
目前我已经有了一个可以文生视频或者图生视频的模型但是只能6秒,我要如何利用agent自动流实现这个模型可以生成更长,更可靠质量的视频呢
要利用 agent 自动流实现生成更长、更可靠质量的视频,您可以参考以下几种模型和方法: 1. PixVerse V2 模型: 8 秒的视频生成需要花费 30 Credits,5 秒的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。 目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. Meta Movie Gen 模型: Movie Gen 由视频生成和音频生成两个模型组成。 Movie Gen Video:30B 参数 Transformer 模型,可以从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens。对于精确视频编辑,它可以执行添加、删除或替换元素,或背景替换、样式更改等全局修改。对于个性化视频,它在保持角色身份一致性和运动自然性方面取得 SOTA 性能。 Movie Gen Audio:13B 参数 Transformer 模型,可以接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。 Movie Gen Video 通过预训练微调范式完成,在骨干网络架构上,它沿用了 Transformer,特别是 Llama3 的许多设计。预训练阶段在海量的视频文本和图像文本数据集上进行联合训练,学习对视觉世界的理解。微调阶段研究人员精心挑选了一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。为了进一步提高效果,模型还引入了流匹配(Flow Matching)作为训练目标,这使得视频生成的效果在精度和细节表现上优于扩散模型。 3. Sora 模型: 文生视频,图生视频,视频生视频,支持多种视频定制选项,如分辨率(从 480p 到 1080p)、视频长度(从 5 秒到更长时间)和视频风格。用户可以浏览社区共享的视频,获取灵感和学习技巧(直接抄别人 prompt)。 故事板:允许用户通过时间线指导视频中的多个动作,创建更加复杂的视频序列。 混音和编辑:提供视频混音功能,允许用户将视频转换成新的风格。支持视频的延伸和剪辑,以及创建循环视频。 高级功能:包括混合功能,可以将两个视频场景合并成一个新的场景。 对于已经拥有 OpenAI Plus 或 Pro 账户的用户,Sora 的使用是包含在现有订阅中的,无需额外支付费用。OpenAI Plus 订阅每月 50 次视频生成次数;OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可以根据需要选择更高分辨率的视频生成,但这可能会减少每月的使用次数。Sora 的发布初期,对于某些地区(如欧洲和英国)可能会有延迟。
2024-12-19
有关AI的学习路径
以下是为您提供的 AI 学习路径: 新手学习路径: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 AI 与宠物结合的学习路径: 1. 掌握基础的机器学习、计算机视觉、自然语言处理等 AI 技术。 2. 了解宠物行为学、宠物医疗等相关领域知识。 3. 关注业内先进的 AI+宠物应用案例,学习其技术实现。 4. 尝试开发简单的 AI 宠物应用原型,并不断迭代优化。 偏向技术研究方向的学习路径: 1. 数学基础:线性代数、概率论、优化理论等。 2. 机器学习基础:监督学习、无监督学习、强化学习等。 3. 深度学习:神经网络、卷积网络、递归网络、注意力机制等。 4. 自然语言处理:语言模型、文本分类、机器翻译等。 5. 计算机视觉:图像分类、目标检测、语义分割等。 6. 前沿领域:大模型、多模态 AI、自监督学习、小样本学习等。 7. 科研实践:论文阅读、模型实现、实验设计等。 偏向应用方向的学习路径: 1. 编程基础:Python、C++等。 2. 机器学习基础:监督学习、无监督学习等。 3. 深度学习框架:TensorFlow、PyTorch 等。 4. 应用领域:自然语言处理、计算机视觉、推荐系统等。 5. 数据处理:数据采集、清洗、特征工程等。 6. 模型部署:模型优化、模型服务等。 7. 行业实践:项目实战、案例分析等。 无论是技术研究还是应用实践,数学和编程基础都是必不可少的。同时需要紧跟前沿技术发展动态,并结合实际问题进行实践锻炼。
2024-12-24
如何让AI协助我思考观点是否正确
要让 AI 协助您思考观点是否正确,可以参考以下内容: 1. 认识到 AI 可能存在的问题: AI 可能会“产生幻觉”,生成看似合理但错误的内容,甚至连续且良好地撒谎,所以对其输出的内容需要全面检查。 AI 不会真正解释自己,给出的关于思考过程的回答可能是编造的,理解系统中的偏见也很困难。 利用 AI 工具时要对输出负责,避免不道德地使用来操纵或作弊。 2. 利用 AI 辅助写作课题的步骤和建议: 确定课题主题:明确研究兴趣和目标,选择有价值和创新性的主题。 收集背景资料:使用学术搜索引擎和文献管理软件等 AI 工具搜集相关文献和资料。 分析和总结信息:利用文本分析工具提取关键信息和主要观点。 生成大纲:使用写作助手生成包括引言、文献综述等部分的大纲。 撰写文献综述:借助 AI 工具确保内容准确完整。 构建方法论:根据需求利用 AI 建议的方法和技术设计研究方法。 数据分析:若涉及数据处理,使用相关 AI 工具。 撰写和编辑:利用写作工具并检查语法和风格。 生成参考文献:使用文献管理工具生成正确格式。 审阅和修改:用审阅工具检查逻辑性和一致性,根据反馈修改。 提交前的检查:确保课题原创性并调整格式。 但要记住,AI 只是辅助,不能替代研究者的专业判断和创造性思维,应保持批判性思维,保证研究质量和学术诚信。 3. 提升自身认知能力以更好判断 AI 协助的结果: 像给大脑升级系统一样不断学习和训练,提升认知能力。 认清常见的“思维陷阱”,如确认偏误(倾向于寻找支持已有观点的信息)、锚定效应(易受第一印象影响)等。 锻炼逻辑思维,学习逻辑推理,识别错误论证。 掌握数据分析能力,对接触到的数字和统计数据保持警惕,不盲目相信。
2024-12-24
如何让AI协助我做sop
以下是关于如何让 AI 协助您做 SOP 的相关内容: SOP 是一种文档化的流程,规定了完成特定任务的标准步骤。其存在确保了工作的一致性和可重复性,降低出错率。 SOP 的好处包括: 1. 提升工作效率,大大减少工作中的失误。 2. 节省时间,无需再花时间思考下一步,直接按流程操作。 3. 提升团队协作,让团队成员了解整个流程,便于分工合作。 制定一份有效的 SOP 关键步骤如下: 1. 识别重复任务,如回复邮件、准备报告等。 2. 分析流程,详细列出每个任务的执行步骤,考虑是否必要。 3. 制定标准,为每个步骤设定明确的标准和时间限制。 4. 文档化,将 SOP 流程写成文档,方便随时查阅和执行。 5. 测试与优化,在实际工作中测试并根据反馈调整。 借助 AI 助手建立和优化 SOP 可以帮助您在快节奏的职场中提升工作效率。例如在写作大纲方面,有一套列写作大纲的 SOP: 1. 头脑风暴,先把所有想到的点都记下来,重在数量,不自我审查。 2. 整理分类,将相关想法归类。 3. 细化每个部分,思考要说什么及用什么例子支撑。 4. 检查逻辑,确保各部分联系紧密,无重复或矛盾,调整顺序。 5. 预留互动,增加文章趣味性。 6. 检查,确保涵盖所学写作技巧。
2024-12-24
我想系统性的,由浅入深的学习AI知识,请给出我一个规划
以下是为您制定的由浅入深系统性学习 AI 知识的规划: 一、基础阶段 1. 编程语言学习 选择 Python 或 JavaScript 等编程语言,学习编程语法、数据结构和算法等基础知识,为后续的 AI 学习打下坚实基础。 2. 了解 AI 基本概念 阅读相关入门文章,熟悉 AI 的术语、基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 二、入门阶段 1. 学习路径引导 参考「」中的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并争取获得证书。 2. 体验 AI 工具和平台 尝试使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 三、深入学习阶段 1. 选择感兴趣的模块 AI 领域广泛,包括图像、音乐、视频等。根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且实用。 2. 学习 AI 基础知识 了解 AI 的发展历程、主要技术(如机器学习、深度学习等)。 学习 AI 在教育、医疗、金融等领域的应用案例。 四、实践阶段 1. 参与实践项目 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 2. 分享与交流 在知识库分享自己实践后的作品和经验,与他人交流学习。 五、前沿关注阶段 1. 关注动态 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,按照以上规划,从编程基础、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能,您将逐步深入 AI 领域,为未来的发展做好准备。
2024-12-24
如何能够让ai帮我优质解读一本书
以下是让 AI 帮您优质解读一本书的一些方法和经验: 1. 小说创作是人机协作的过程,不能指望 AI 直接生成精彩作品,也不应只让 AI 打杂。要有多轮对话、和 AI 进行探讨的意识,在对话中明晰点子。 2. AI 具有广博的知识面、丰富的脑洞和对细节的关注,能为创作提供优质素材,但鉴赏能力不行,选择判断还得靠人。 3. Know How 非常重要。比如,开工前可参考相关写作课程,将任务拆解成确定主题、构思情节、丰富细化、串联成文再修改等步骤,写出来的作品会更丰满充实。 4. 让 AI 修改自己写的内容时,起初效果可能不好,可尝试不同框架和 skill set 以获得更好结果。 5. 表格是一种有效的手段,能打破 AI 的叙事习惯,有利于精准控制,生成不那么“AI 腔”的文字。 6. 丰富细化时,可先让 AI 写故事概要和角色背景介绍并做修改,然后以表格形式输出细节描述,这样能避免陈词滥调、便于局部调整和确保内容具体。 7. 串联成文时,把生成的表格依次复制粘贴让 AI 写文章。 8. 注意一些修改的限制和可能出现的问题,如字数限制和不同模型修改时可能出现的失误。
2024-12-24
如何能让ai协助我创作更好的短视频文案
以下是一些利用 AI 协助创作更好短视频文案的方法: 1. 以电商带货本地生活为例: 用 ChatGPT 生成短视频选题文案:表明身份、描述需求和回答要求,可参考美妆行业的例子。 用 ChatGPT 生产短视频文案:将需求与框架结合,让其为您生成文案。 生成虚拟数字人短视频: 第一步:打开网站(需科学上网)https://studio.did.com/editor 。 第二步:在右侧文字框输入从 ChatGPT 生成的内容,选择想要的头像、不同的国家和声音,点击右上角的 Create Video 等待生成。生成后结合产品讲解即可发布带货。 2. 陈财猫的经验: 在图文内容生产方面,为企业提供包括选题生成、文案创作、智能配图和智能发布等定制化服务,有效解决企业获客难题。 参与喜马拉雅公司短故事和短剧写作课程开发,设计提示词工具,与研发老师、教研老师打造创作标准操作流程(SOP),跟着流程走能写出成功的故事。 捣鼓出小财鼠程序版 agent,其特点是“Garbage in Diamond out”,输入随机内容也能产出好东西。 3. 白马的经验: 制作类似《舌尖上的中国》旁白朗诵风格的片子时,直接让 GPT 写文案结果较平淡,需更具体地提出需求。 利用 360 浏览器字幕提取功能捕捉《爱我中华》的视频文案,让 kimi 和 ChatGPT 进行分析和学习,同时对比两者结果,在中文理解和写作能力上,kimi 更突出。 整合两段文案并调整,让语句更顺口,还可让 AI 输出简单的画面分镜。
2024-12-24
如何能让ai协助我创作更好的短视频文案
以下是一些让 AI 协助您创作更好的短视频文案的方法: 1. 用 ChatGPT 生成短视频选题文案:表明身份、描述需求和回答要求,例如以美妆行业为例展开。 2. 用 ChatGPT 生产短视频文案:将需求与框架结合,让其为您生成文案。 3. 生成虚拟数字人短视频: 第一步:打开网站(需科学上网),如 https://studio.did.com/editor 。 第二步:在右侧文字框输入从 ChatGPT 生成的内容,选择想要的头像、不同的国家和声音,然后点击右上角的“Create Video”等待生成。 4. 对于文案创作,若打算用旁白朗诵方式,需把需求提得更具体。例如,可利用 360 浏览器字幕提取功能捕捉相关视频文案,让 Kimi 和 ChatGPT 进行分析和学习,对比它们的结果,在中文理解和写作能力上,Kimi 表现更突出。完成文案分析后让 AI 按此风格写作,调整阶段让文案更顺口,整理完文案后可让 AI 输出简单的画面分镜。
2024-12-24
在WayToAGI的直播中分享插件大全的“罗文老师”有哪些分享的文章或者视频吗
以下是 5 月 10 日罗文分享《认识插件》的相关文章或视频内容: 罗文分享如何使用插件一键生成标题 罗文分享使用插件武装智能体的方法与挑战 罗文分享 AI 插件使用方法及相关名词解释 罗文讲解单函数版本、方法论及插件配置 如何使用插件提升工作效率 如何快速了解插件的用途及使用场景 如何理解和运用插件 罗文讲解 API 使用技巧及相关提示词的作用 如何稳定调用 API 获取想要的信息 罗文分享使用插件的八步法及挑战 关于如何使用 flow 插件创建机器人的步骤讲解 关于如何在飞书上进行 API 内容报名的步骤讲解 关于国内版本使用的相关问题解答与分享 170 人同时编辑多维表格,字节同学帮忙做压测 关于多维表格插件使用的讨论 关于 AI 工具使用的分享与讨论 介绍智能体插件的使用方法 关于如何设置文档权限及使用插件的操作教程 关于如何使用代码执行器及流程化模板的讨论 关于智能体插件使用的讨论及实操演示 关于多维表格插件使用说明挑战的工作流程介绍 关于插件 API 使用的讨论 罗文分享工作流的设计与应用 罗文分享工作流程及机器人使用心得
2024-12-24
视频生成
以下是关于视频生成的相关内容: 使用 Adobe Firefly 生成带有文本提示和图像的视频: 1. 在 Advanced 部分,您可以使用 Seed 选项添加种子编号,帮助启动流程并控制 AI 创建内容的随机性。如果使用相同的种子、提示和控制设置,可以重新生成类似的视频剪辑。 2. Adobe Firefly 中的“生成视频”(测试版)能将您的书面描述转换为视频剪辑。使用文本提示定义内容、情感和设置(包括摄像机角度),以指导摄像机移动并创建传达所需情绪和信息的视频。您还可以合并图像,为视频生成提供视觉提示。 在 Adobe Firefly 网站上,选择“生成视频”。 在 Generate video 页面上,在 Prompt 字段中输入文本提示。您还可以使用 Upload 部分中的 Image 选项,将图像用于第一帧,并为视频剪辑提供方向参考。添加图像以提供清晰的视觉引导,使生成的视频更紧密地与您的愿景对齐。 在 General settings 部分,您可以确定 Aspect ratio 和 Frames per second。 Stable Video Diffusion 模型的视频生成: 1. 手动下载相关内容并分别放到指定路径。 2. 做好准备工作后再次运行,复制 url 到浏览器中打开。 3. 点击下拉箭头选择不同模型版本,勾选 load Model。 4. 目前 SVD 本地部署仅支持图生视频,图片来源可以选择 AI 绘画工具如 Midjourney、Stable Diffusion 等生成图片,然后上传到 SVD 进行视频生成。同时,可以调左侧的一些参数控制视频的生成效果。视频生成的保存路径在 outputs 下。
2024-12-24
AI视频美化
以下是关于 AI 视频美化的相关内容: 去除视频水印: 使用剪映工具,创建一个黑屏贴纸遮住水印,缺点是会损失一部分视频画面。导出后视频时再把黑边部分裁掉,一般 19801080 的画面,遮完水印之后差不多是 1980920。还有一些去视频水印的工具,欢迎补充。 审视视频片段: AI 视频难以一步到位达到想要的效果,需要用“发现美”的眼睛去审视每个视频片段。可以带着以下思路:对视频加速、慢放、倒放、镜像等操作后是否能用;有没有一小段可以切出来用;能否通过转场等后期剪辑手法把两个废片变废为宝;若实在出不来某个效果,就改剧本。 使用 Topaz Video AI 插件: 这是一个用于消除视频抖动和运动模糊的插件。解压对应文件,推荐使用绿色版。右键管理员运行 VideoAIportable.exe 文件,导入处理好的视频。主界面左边是原视频,右边是待处理视频,下面是对应的视频轨道。右边部分是主要对视频处理的方式,预设部分主要有放大视频、提升画质、提升帧率等。稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 左右,抖动开启,次数选择 2 保持默认不变。 使用 AI 视频工具做动态: 可以使用即梦、runway 等工具(如果要字不动,可以先去在剪映里添加文字 logo 素材)。先什么关键词都不写,如果效果不满意,再添加关键词。 在剪映里操作: 把视频放进剪映,放上 PNG 透明底图,然后导出。
2024-12-24
航拍视频处理AI
以下是关于航拍视频处理 AI 的相关内容: 在 AI 拍电影方面,例如影片《赛博山海》,ChatGPT 可生成视频脚本。主角形象设计为 18 岁左右,其视觉风格要确保赛博朋克的视觉元素与《山海经》中神兽的古典形象相协调,使用先进特效技术创造神兽逼真神秘外观。音效与配乐应融合传统东方乐器和现代电子音乐。叙事节奏需紧凑流畅,角色设计要与环境和神兽的神秘感相协调,文化元素要巧妙融合,可加入悬念或互动元素鼓励观众讨论猜测,后期制作要精心调整色彩、光影和特效。 对于创意视频制作,可将需求整理输入提示词智能体(如云中江树,需魔法),如“我需要制作一个创意大师 gpts,效果适用于不同场景内,为我分析和总结内容,并提供具有创意的想法。该角色拥有强大的需求分析能力,可以一步一步的进行思考,采用苏格拉底的产婆术来启发用户,具有奥斯卡影视导演的创意想法,同时拥有世界级别的文旅知识,善于调用网络知识进行回复”,然后输入到智谱清言或其他喜好的大模型里提问获取输出结果。 在具体的视频脚本中,以《赛博山海》为例,约 100 秒的长度,包含主角与白泽相遇、探索与遇见貔貅、进入神秘空间等场景,每个场景都有详细的镜头内容和旁白描述。
2024-12-24
生成式人工智能或者专门的书籍教程是什么意思?这种人工智能有什么用?现在市面上有免费的吗?要是没有免费的我去翻外网也可以
生成式人工智能是一种能够创建新内容的人工智能技术。以下是关于生成式人工智能的一些详细信息: 课程方面: 台湾大学李宏毅教授的生成式 AI 课程,主要介绍了其基本概念、发展历程、技术架构和应用场景等内容。课程共 12 讲,每讲约 2 小时。通过学习该课程,可掌握基本概念和常见技术,能使用相关框架搭建简单模型,了解发展现状和未来趋势。学习内容包括: 1. 什么是生成式 AI:定义和分类,与判别式 AI 的区别,应用领域。 2. 生成式模型:基本结构和训练方法,评估指标,常见模型及其优缺点。 3. 生成式对话:基本概念和应用场景,系统架构和关键技术,基于模型的对话生成方法。 4. 预训练语言模型:发展历程和关键技术,优缺点,在生成式 AI 中的应用。 5. 生成式 AI 的挑战与展望:面临的挑战和解决方法,未来发展趋势和研究方向。 改变创意工作方面: 生成式人工智能在创意工作中发挥着重要作用。例如,生成模型经过训练后,可针对特定内容领域进行“微调”,催生了用于生物医学、法律、法语等的专用模型,以及适用于不同目的的 GPT3 等。NVIDIA 的 BioNeMo 是用于在超级计算规模上训练、构建和部署大型语言模型的框架,适用于生成化学、蛋白质组学和 DNA/RNA 等内容。但使用生成式人工智能仍需人工参与,人类要输入提示让其创建内容,创造性的提示会产生创造性的输出,“即时工程师”可能成为新职业。该领域已出现 DALLE 2 图像提示书和提示市场。 学习资源: 1. 教材:《生成式 AI 导论 2024》,李宏毅。 2. 参考书籍:《深度学习》,伊恩·古德费洛等。 3. 在线课程:李宏毅的生成式 AI 课程。 4. 开源项目:OpenAI GPT3、字节跳动的云雀等。 学习方法:根据课程内容和资源,制定适合自己的学习计划,多实践、多思考。 目前市面上有部分免费的生成式人工智能资源,但也有收费的。需要注意的是,未经许可翻外网可能存在法律风险,请您谨慎选择。
2024-12-24
免费的ai虚拟人物
以下为您介绍一些免费的 AI 虚拟人物相关内容: 1. Vocs AI:这是一个免费的人工智能语音生成器和转换器。您可以按照以下步骤操作: 上传一段清晰的无伴奏人声录音,推荐 wav 或 mp3 格式,更推荐 wav。 从超过 20 名才华横溢的 AI 歌手、说唱歌手、叙述者、角色和配音艺术家中选择,将原始无伴奏声音转换成 AI 虚拟艺术家的声音。 点击“转换”,Vocs AI 的语音技术将把您上传的音频转换成 AI 版本的原声。 下载转换后的音频。需要注意的是,输入音频的质量将直接影响 AI 人声转换的输出质量。链接:https://www.vocs.ai/ 2. 剪映数字人“私有化”: 准备谷歌账号(可在淘宝或者在账号解决平台“”购买)。 第一步,打开谷歌浏览器,点击链接 https://github.com/facefusion/facefusioncolab 并点击 open colab 进到程序主要运行界面,在右上角点击“代码执行程序”选择“全部运行”。 第二步,点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”生成。 第三步,等待专属的数字人视频出炉。 3. 关于数字人的一些算法开源代码仓库: ASR 语音识别:openai 的 whisper:https://github.com/openai/whisper ;wenet:https://github.com/wenete2e/wenet ;speech_recognition:https://github.com/Uberi/speech_recognition 。 AI Agent:大模型部分包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等等。Agent 部分可以使用 LangChain 的模块去做自定义,里面基本包含了 Agent 实现的几个组件 。 TTS:微软的 edgetts:https://github.com/rany2/edgetts,只能使用里面预设的人物声音,目前接口免费;VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本;sovitssvc:https://github.com/svcdevelopteam/sovitssvc,专注到唱歌上面。 简单构建数字人还存在一些问题,例如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作、数字人如何使用知识库做出某个领域的专业性回答等。
2024-12-24
免费AI作图软件
以下是一些免费的 AI 作图软件: 1. draw.io(现在称为 diagrams.net):免费的在线图表软件,支持创建逻辑视图和部署视图等。 2. Archi:免费的开源工具,用于创建逻辑视图。 以下是一些与思维导图相关的 AI 工具: 1. GitMind:免费的跨平台 AI 思维导图软件,支持多种模式,如提问、回答、自动生成等。 2. ProcessOn:国内思维导图+AIGC 的工具,可利用 AI 生成思维导图。 3. AmyMind:轻量级的在线 AI 思维导图工具,无需注册登录即可使用,支持自动生成节点。 Imagen 3 是一款 AI 绘图工具,具有以下功能点和优势: 功能点: 1. 图像生成:根据用户输入的 Prompt 生成图像。 2. Prompt 智能拆解:自动拆解用户输入的 Prompt,并提供下拉框选项。 3. 自动联想:提供自动联想功能,帮助用户选择更合适的词汇。 优势: 1. 无需排队:用户可直接使用。 2. 免费使用。 3. 交互人性化:提供人性化的交互设计,如自动联想和下拉框选项。 4. 语义理解:能根据 Prompt 生成符合描述的图像。 5. 灵活性:用户可根据自动联想功能灵活调整 Prompt 以生成不同图像。
2024-12-23
有没有免费是数字人工具
以下是一些免费的数字人工具: 1. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法: 点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片。 上传后效果如图所示,My Avatar处显示上传的照片。 点开大图后,点击Create with AI Studio,进入数字人制作。 写上视频文案并选择配音音色,也可以自行上传音频。 最后点击Submit,就可以得到一段数字人视频。 2. DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法: 点击上面的网址,点击右上角的Create vedio。 选择人物形象,可以点击ADD添加照片,或者使用DID给出的人物形象。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 最后,点击Generate vedio就可以生成一段视频。 打开自己生成的视频,可以下载或者直接分享给朋友。 3. KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很AI。 使用方法: 点击上面的网址,注册后获得120免费k币,选择“照片数字人口播”的功能。 点击开始创作,选择自定义照片。 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 打开绿幕按钮,点击背景,可以添加背景图。 最后,点击生成视频。 此外,还有一些常用于营销领域且可制作数字人的工具,如Synthesia、HeyGen等。更多数字人工具请访问相关网站查看。在使用这些工具时,请确保遵守相关的使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。
2024-12-21
免费制作数字人
以下为免费制作数字人的几种方法: 1. 剪映: 打开剪映右侧窗口顶部的“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择后软件会播放数字人的声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中。左下角会提示渲染完成时间,完成后可点击预览查看效果。 为让视频更美观,可删除先前导入的文本内容,通过左上角“媒体”菜单导入本地背景图片,添加到视频轨道上,并将其轨道右侧竖线向右拖拽至与视频对齐,选中轨道后可调整背景图大小和数字人位置。 2. HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文人声选择较少。 使用方法:点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片,上传后效果在My Avatar处显示,点开大图后点击Create with AI Studio进行制作,写上视频文案并选择配音音色,也可自行上传音频,最后点击Submit得到数字人视频。 3. DID: 优点:制作简单,人物灵活。 缺点:免费版下载后有水印。 使用方法:点击网址,点击右上角Create vedio,选择人物形象,可添加自己的照片或使用给出的形象,配音时可选择提供文字选择音色或上传音频,最后点击Generate vedio生成视频,打开视频可下载或分享。 4. KreadoAI: 优点:免费,功能齐全。 缺点:音色很AI。 使用方法:点击网址注册后获得120免费k币,选择“照片数字人口播”功能,点击开始创作,选择自定义照片,配音时可选择提供文字选择音色或上传音频,打开绿幕按钮,点击背景添加背景图,最后点击生成视频。 此外,剪映作为字节跳动旗下产品,具有诸多优势,其下载地址为: 。制作流程为:首先打开剪映,添加文本到文字轨道并修改朗读文字,然后点击朗读进行声音克隆,完成后选择喜欢的数字人形象并换上克隆音色,最后一键智能生成字幕,自行调整文字样式并校准即可。
2024-12-20
在国内可以免费用的图生视频的ai工具
以下是在国内可以免费用的图生视频的 AI 工具: 1. Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 2. ETNA(国内):https://etna.7volcanoes.com/ 。Etna 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,文生视频,支持中文,时空理解。 3. Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频,视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以,文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持 16:9、9:16、1:1、3:4、4:3 尺寸,图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同,默认生成 3s 的视频。 4. 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文,文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸,图生视频除了不可运镜控制以外,其他跟文生视频基本相同,默认生成 5s 的视频。 此外,还有一些国内外提供文生视频功能的产品推荐: 1. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-20