Navigate to WaytoAGI Wiki →
Home
Events
Websites
Agents
Prompts
Chat with Wiki
Blog
🇺🇸 English
Login
Home
/
Question List
/
Question Detail
video-ocean制作的视频没有声音怎么解决
Answer
很抱歉,目前知识库中没有关于“video-ocean 制作的视频没有声音的解决办法”的相关内容。但一般来说,视频没有声音可能有以下几种原因和解决方法:
检查视频播放器的音量设置,确保音量未被静音或调至过低。
查看视频文件本身的音频轨道是否存在问题,您可以尝试使用其他播放器打开该视频。
检查您的设备音频输出设置,例如扬声器或耳机是否正常工作,以及其音量设置是否恰当。
确认视频在制作过程中是否正确添加了音频,如果没有添加音频,可能需要重新制作并添加音频。
Content generated by AI large model, please carefully verify (powered by aily)
Ask Again
Others are asking
1. laptop 2. artificial intelligence 3. generative 4. log in 5. AI-driven 6. bluetooth headset 7. video call 8. platform Write some interesting sentences with these words
以下是为您生成的包含这些关键词的有趣句子: 当我使用配备强大 GPU 的 AI 笔记本电脑,如戴尔 Precision 移动工作站,通过蓝牙耳机关闭了周围的噪音,登录到专门的 AI 驱动平台,与远方的朋友进行视频通话,探讨生成式人工智能的奇妙之处,感觉真是太棒了! 在微星 Creator/Workstation 系列的 AI 笔记本上,我利用预装的深度学习框架,如 NVIDIA CUDA 和 cuDNN,进行着生成式模型的训练,同时通过蓝牙连接着蓝牙耳机,享受着不受干扰的创作过程,然后登录到特定的平台分享我的成果,这一切都由 AI 驱动,借助高速的网络实现了如同面对面的视频通话交流。 联想 ThinkPad P 系列的 AI 笔记本,拥有出色的散热和续航,让我能长时间专注于生成式项目的开发。我戴上蓝牙耳机,登录 AI 平台,与团队进行视频通话,共同推动项目前进,这一切都离不开 AI 驱动的强大力量。
2025-01-20
Video-LLaVA与多模态图像视频识别
以下是对 26 个多模态大模型的全面比较总结: 1. Flamingo:是一系列视觉语言(VL)模型,能处理交错的视觉数据和文本,并生成自由格式的文本作为输出。 2. BLIP2:引入资源效率更高的框架,包括用于弥补模态差距的轻量级 QFormer,能利用冻结的 LLM 进行零样本图像到文本的生成。 3. LLaVA:率先将 IT 技术应用到多模态(MM)领域,为解决数据稀缺问题,引入使用 ChatGPT/GPT4 创建的新型开源 MM 指令跟踪数据集及基准 LLaVABench。 4. MiniGPT4:提出简化方法,仅训练一个线性层即可将预训练的视觉编码器与 LLM 对齐,能复制 GPT4 展示的功能。 5. mPLUGOwl:提出新颖的 MMLLMs 模块化训练框架,结合视觉上下文,包含用于评估的 OwlEval 教学评估数据集。 6. XLLM:陈等人将其扩展到包括音频在内的各种模式,具有强大的可扩展性,利用 QFormer 的语言可迁移性成功应用于汉藏语境。 7. VideoChat:开创高效的以聊天为中心的 MMLLM 用于视频理解对话,为该领域未来研究制定标准,并为学术界和工业界提供协议。
2025-01-07
what are the free video generation ai
以下是一些免费的视频生成 AI 工具: 1. Hidreamai(国内,有免费额度):支持文生视频、图生视频。提示词使用中文、英文都可以。文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。网址:https://hidreamai.com//AiVideo 2. ETNA(国内):由七火山科技开发的文生视频 AI 模型,可根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。网址:https://etna.7volcanoes.com/ 3. Pika Labs:被网友评价为目前全球最好用的文本生成视频 AI。功能包括直接发送指令或上传图片生成 3 秒动态视频,目前内测免费。生成服务托管在 discord 中,加入方式为在浏览器中打开链接 https://discord.gg/dmtmQVKEgt ,在“generate”子区输入指令或上传图片生成视频。 4. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 5. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-26
Topaz Video无法下载模型怎么办
Topaz Video 无法下载模型,您可以参考以下步骤: 1. 解压对应的文件,推荐使用绿色版。(对应的安装包已在网盘里,可直接下载)。 2. 右键,管理员运行 VideoAIportable.exe 文件。 3. 导入处理好的视频。 4. 查看主界面,左边是原视频,右边是待处理视频,下面是对应的视频轨道。 5. 右边部分是主要对视频处理的方式,预设部分主要有放大视频、提升画质、提升帧率等。 6. 稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 为宜,抖动开启,次数一般选择 2 。 7. 帧插值:Apollo 模型处理一般情况,Chronos 模型处理运动幅度较大的情况,其他一般维持默认不变。 8. 增强部分建议直接开启使用默认。 9. 所有参数设计完毕后,点击浏览按钮查看效果。拉动时间轴,选择需要处理的位置,点击左边的 preview 即可执行浏览操作,可选择处理时长,一般在复杂场景如肢体快速运动时进行浏览。 请注意,以上操作依据电脑性能而定。若仍无法下载模型,建议检查网络连接或咨询相关技术支持。
2024-08-21
做 video lip sync 的高质量项目有哪些?
以下为一些关于 video lip sync(视频唇形同步)的高质量项目介绍: 谷歌的“Generating audio for video”项目正在开展进一步研究。该项目具有以下特点: 1. 与现有视频音频解决方案相比,它能够理解原始像素,并且添加文字提示是可选的。 2. 系统无需手动调整生成的声音和视频,避免了对声音、视觉效果和时间等不同元素进行繁琐的调整。 3. 但仍存在一些限制因素需要解决,比如音频输出质量依赖于视频输入质量,视频中的假象或失真超出模型训练分布范围会导致音频质量明显下降。 4. 正在改进涉及语音的视频唇形同步。V2A 尝试从输入的文稿生成语音并与角色的唇形动作同步,但配对的视频生成模型可能不受文稿条件的限制,这会造成不匹配,导致唇形同步不自然。 需要注意的是,这一项目仍在不断完善和改进中。
2024-07-24
在国内,制作AI视频,可用什么工具
在国内制作 AI 视频,可用以下工具: 1. 魔音工坊:可以使用情绪调节控件。 2. 剪映:适用于 1 3 分钟的短片,具有很多人性化设计及简单音效库、小特效,但无法协同工作和导出工程文件。 3. 以下是一些其他的相关工具及网站: SVD:https://stablevideo.com/ ,对于景观更好用。 Morph Studio:https://app.morphstudio.com/ ,还在内测。 Heygen:https://www.heygen.com/ ,数字人/对口型。 Kaiber:https://kaiber.ai/ Moonvalley:https://moonvalley.ai/ Mootion:https://discord.gg/AapmuVJqxx ,3d 人物动作转视频。 美图旗下:https://www.miraclevision.com/ Neverends:https://neverends.life/create ,操作傻瓜。 SD:Animatediff SVD deforum ,需自己部署。 Leiapix:https://www.leiapix.com/ ,可以把一张照片转动态。 Krea:https://www.krea.ai/ Opusclip:https://www.opus.pro/ ,利用长视频剪成短视频。 Raskai:https://zh.rask.ai/ ,短视频素材直接翻译至多语种。 invideoAI:https://invideo.io/make/aivideogenerator/ ,输入想法>自动生成脚本和分镜描述>生成视频>人工二编>合成长视频。 descript:https://www.descript.com/?ref=feizhuke.com veed.io:https://www.veed.io/ ,自动翻译自动字幕。 clipchamp:https://app.clipchamp.com/ typeframes:https://www.revid.ai/?ref=aibot.cn Runway:https://runwayml.com ,有网页有 app 方便。 即梦:https://dreamina.jianying.com/ ,剪映旗下,生成 3 秒,动作幅度有很大升级,最新 S 模型,P 模型。 Minimax 海螺 AI:https://hailuoai.video/ ,非常听话,语义理解能力非常强。 Kling:kling.kuaishou.com ,支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。 Vidu:https://www.vidu.studio/ haiper:https://app.haiper.ai/ Pika:https://pika.art/ ,可控性强,可以对嘴型,可配音。 智谱清影:https://chatglm.cn/video ,开源了,可以自己部署 cogvideo。 PixVerse:https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。 通义万相:https://tongyi.aliyun.com/wanxiang/ ,大幅度运动很强。 luma:https://lumalabs.ai/
2025-03-11
如何制作AI视频
将小说制作成 AI 视频通常包括以下步骤,并可使用以下工具: 工具与网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可基于文本描述生成图像。 网址:https://github.com/StabilityAI 2. Midjourney(MJ):适用于创建小说中的场景和角色图像。 网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,可生成图像和设计模板。 网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。 网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。 网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。 网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。 网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。 网址:https://www.aihub.cn/tools/video/gushiai/ 制作流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 另外,以冷湖《俄博梁纪元》AI 视频为例,其片头框架基本逻辑是:需要视线聚焦到中心的圆形细胞,并保持固定,方便后续画面的转场。由于单张 AI 图生视频的动效太简单,可分几个图层进行处理,还可叠加几个画面来丰富画面。
2025-03-11
写短视频的提示词有哪些比较好用?
以下是一些写短视频提示词的好用方法和示例: Pikadditions 功能: 1. 上传基础视频:点击页面下方的【Pikaddition】按钮,拖拽或点击上传本地视频。若自己没有视频,可在“templates”板块使用官方示例视频做测试。 2. 添加主角图片:点击【Upload Image】上传角色图片文件。 3. 编写视频提示词:若需要参考角色在视频里的相关互动,需在输入框用英文描述期望效果(支持 Emoji 辅助),然后点击生成按钮。 提示词公式参考: 事件驱动句式:As... 空间锁定技巧:使用场景物体作坐标轴,如 on the.../behind the.../from the... 动态呼应原则:角色动作与视频元素联动,如 swaying with.../reacting to.../matching... 美女转绘: 使用麦🍊的写实模型和墨幽人造人模型,不推荐使用质量词。提示词先使用反推,Deepbooru,借助提示词插件删除无用提示词,保留和画面主体相关的提示词,如人物主体描述、皮肤质感增强、整体细节增强的 Loar。 正向提示词示例:1girl,solo,black_hair,midriff,autolinklora:林鹤皮肤质感调整器差异炼丹功能性 lora 模型_林鹤 v1:0.6autolink 负向提示词示例:NSFW,logo,text,blurry,low quality,bad anatomy SD 新手入门: 根据想画的内容写提示词,多个提示词之间使用英文半角符号。一般概念性、大范围、风格化的关键词写在前面,叙述画面内容的其次,最后是描述细节的。提示词顺序很重要,越靠后权重越低。关键词要具有特异性,措辞越具体越好,可使用括号人工修改提示词的权重。
2025-03-11
写短视频的提示词
以下是关于写短视频提示词的相关内容: Pikadditions 功能: 1. 上传基础视频:点击页面下方的【Pikaddition】按钮,拖拽或点击上传本地视频。若自己没有视频,可在“templates”板块使用官方示例视频做测试。 2. 添加主角图片:点击【Upload Image】上传角色图片文件。 3. 编写视频提示词:若需要参考角色在视频里有相关互动,需在输入框用英文描述期望效果(支持 Emoji 辅助),然后点击生成按钮。 提示词编写技巧: Pika 会提供一段默认 prompt,若无特殊想法,可直接使用。 建议在自己的提示词尾部加入官方提供的默认提示词,效果会更好。 核心功能是用户上传实拍视频和角色图片,AI 将角色动态融入视频中。因此,提示词需要具体描述角色在视频中的动作、互动和场景匹配。 提示词公式参考: 事件驱动句式:As... 空间锁定技巧:使用场景物体作坐标轴:on the.../behind the.../from the... 动态呼应原则:角色动作与视频元素联动:swaying with.../reacting to.../matching... SD 新手入门: 根据自己想画的内容写出提示词,多个提示词之间使用英文半角符号。一般而言,概念性的、大范围的、风格化的关键词写在前面,叙述画面内容的关键词其次,最后是描述细节的关键词。大致顺序如:。不过在模型中,每个词语本身自带的权重可能有所不同,如果模型训练集中较多地出现某种关键词,在提示词中只输入一个词就能极大地影响画面,反之如果模型训练集中较少地出现某种关键词,输入很多个相关词汇都对画面的影响效果有限。提示词的顺序很重要,越靠后的权重越低。关键词最好具有特异性,措辞越不抽象越好,尽可能避免留下解释空间的措辞。可以使用括号人工修改提示词的权重。 清影工具: 1. 提示词优化原则: 强调关键信息:在提示的不同部分重复或强化关键词有助于提高输出的一致性。 聚焦出现内容:尽量让提示集中在场景中应该出现的内容上。 规避负面效果:在提示词中写明不需要的效果。 2. 编写提示词的步骤: 首先,明确场景中的人物和冲突,这是推动整个场景发展的关键因素。 其次,对场景进行详细的描述,包括地点、人物形象、任务动作等细节。使用生动的动词来营造动态和戏剧化的氛围。 第三,加强镜头语言,常用的镜头运动包括推、拉、摇、移、升、降等。每种镜头运动都有其特定的作用和效果。提示词要具体明确且符合物理规律,使用简单且清晰的语言。
2025-03-11
中文的视频Ai工具
以下是一些中文的视频 AI 工具: 1. 根据视频脚本生成短视频的工具: ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频要素并生成素材和文本框架,实现从文字到画面的快速转化。 PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频。 Pictory:AI 视频生成器,用户提供文本描述即可生成相应视频内容。 VEED.IO:提供 AI 图像和脚本生成器,帮助从图像制作视频并规划内容。 Runway:AI 视频创作工具,能将文本转化为风格化视频内容。 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务。 2. 给视频配音效的工具: Vidnoz AI:支持 23 多种语言的配音,支持文本转语音和语音克隆功能,提供语音参数自定义和背景音乐添加工具,有经济实惠的定价方案。 Wavel Studio:支持 30 多种语言的配音,音质自然流畅,能自动去除背景噪音和杂音,提供添加字幕和文本叠加层的工具,界面友好且有多种自定义选项。 Elai.io:支持 65 多种语言的配音,音色和语调真实,能自动将唇形与语音同步,生成字幕提高视频可访问性,支持多位配音者。 Rask AI:支持 130 多种语言的配音,包括稀有和濒危语言,采用先进语音合成技术,音质高保真,提供语音参数自定义和音效添加工具,与多种视频编辑平台和工作流程整合。 Notta:提供快速实惠的多语言配音解决方案,保留原声说话风格和细微差别,提供调整语音速度和音调的工具,支持批量处理。 Dubverse:支持 60 多种语言的配音,音质接近真人,提供文本转语音和语音克隆功能,提供语音参数自定义和情感添加工具,与多种视频平台和社交媒体渠道整合。 Speechify:(未提及具体功能特点) 请注意,以上内容由 AI 大模型生成,请仔细甄别。这些工具各有特点,适用于不同的应用场景和需求。在选择时,请考虑支持的语言数量、语音质量、自定义选项和价格等因素。
2025-03-11
视频号数字人
以下是关于视频号数字人的相关内容: 制作方法: 1. 准备内容:先准备一段视频中播放的文字内容,如产品介绍、课程讲解、游戏攻略等,也可利用 AI 生成。 2. 创建视频内容:使用剪映 App 进行简单处理。电脑端打开剪映 App,点击“开始创作”,选择顶部工具栏中的“文本”,点击默认文本右下角的“+”号添加文字内容轨道,将准备好的文字内容替换默认文本内容,为数字人提供语音播放内容及生成相应口型。 3. 生成数字人:在显示区域,拖动背景图的一个角将图片放大到适合尺寸,覆盖视频窗口,并将数字人拖动到合适位置。增加字幕,点击文本 智能字幕 识别字幕,点击开始识别,软件会自动将文字智能分段并形成字幕。完成后点击右上角的“导出”按钮,导出视频以作备用。若希望数字人换成自己希望的面孔,需用另一个工具来进行换脸。 类型和应用场景: 1. 二维/三维虚拟人:用于游戏、IP 品牌(柳夜熙)、内容创作()等。 2. 真人形象数字人:用于直播卖货,营销/投流广告视频录制(Heygen)、语言学习(CallAnnie)等。 价值: 1. 代替人说话,提升表达效率和营销效率,如真人无法 24 小时直播,数字人可以。 2. 创造真实世界无法完成的对话或交流,例如 AI talk 的实验探索,复活故去的亲人等。 面临的问题: 1. 平台限制:目前数字人水平参差不齐,平台担心直播观感,有一定打压限制。如抖音出台一些标准,微信视频号容忍度更低,人工检查封号。 2. 技术限制:形象只是皮囊,智能水平和未来想象空间依赖大模型技术提升。 3. 需求限制:直播带货是落地场景,但不刚需。“懂得都懂”的刚需场景,国内搞不了,目前更多是体验新鲜感。 4. 伦理/法律限制:声音、影像版权等,比如换脸、数字永生等。
2025-03-11
图生文怎么制作
以下是关于图生文制作的详细步骤: 一、Tusiart 简易上手教程 1. 定主题:明确您需要生成的图片的主题、风格和要表达的信息。 2. 选择基础模型 Checkpoint:根据主题,选择内容贴近的 checkpoint,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 3. 选择 lora:基于生成内容,寻找重叠的 lora 以控制图片效果和质量,可参考广场上好看帖子中使用的 lora。 4. ControlNet:用于控制图片中的特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能,可后续学习。 5. 局部重绘:下篇再教。 6. 设置 VAE:无脑选择 840000 这个即可。 7. Prompt 提示词:用英文写想要 AI 生成的内容,使用单词和短语组合,用英文半角逗号隔开,无需管语法和长句。 8. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开,无需语法。 9. 采样算法:一般选 DPM++2M Karras 较多,也可留意 checkpoint 详情页上模型作者推荐的采样器。 10. 采样次数:选 DPM++2M Karras 后,采样次数在 30 40 之间,过多意义不大且慢,过少出图效果差。 11. 尺寸:根据个人喜好和需求选择。 二、Liblibai 简易上手教程 1. 定主题:确定要生成的图片的主题、风格和表达信息。 2. 选择 Checkpoint:依照主题找贴近的 checkpoint,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora 来控制图片效果和质量,参考广场上的优秀帖子。 4. 设置 VAE:无脑选 840000 那一串。 5. CLIP 跳过层:设成 2 。 6. Prompt 提示词:用英文写想要 AI 生成的内容,单词和短语组合,用英文半角逗号隔开,不管语法和长句。 7. 负向提示词 Negative Prompt:用英文写想要 AI 避免产生的内容,单词和短语组合,用英文半角逗号隔开,不管语法。 8. 采样方法:一般选 DPM++2M Karras 较多,留意 checkpoint 详情页上模型作者推荐的采样器。 9. 迭代步数:选 DPM++2M Karras 后,在 30 40 之间,过多意义不大且慢,过少出图效果差。 10. 尺寸:根据个人喜好和需求选择。 11. 生成批次:默认 1 批。 三、SD 新手入门图文教程 1. CFG Scale(提示词相关性):决定图像与提示的匹配程度,增加该值会使图像更接近提示,但可能降低图像质量,可用更多采样步骤抵消,一般开到 7 11 ,过高会有粗犷线条和过锐化图像。 2. 生成批次:每次生成图像的组数,一次运行生成图像的数量为“批次×批次数量”。 3. 每批数量:同时生成的图像个数,增加会提高性能但需更多显存,若显存未超 12G ,保持为 1 。 4. 尺寸:指定图像长宽,出图尺寸太宽可能出现多个主体,1024 以上尺寸可能效果不理想,推荐小尺寸分辨率+高清修复(Hires fix) 。 5. 种子:决定模型生成图片时的随机性,初始化 Diffusion 算法起点的初始值,相同参数下应生成相同图片。 6. 高清修复:通过勾选“Highres.fix”启用,默认高分辨率下会生成混沌图像,使用后先按指定尺寸生成再放大,实现高清大图效果,最终尺寸为(原分辨率×缩放系数 Upscale by) 。
2025-03-11
我想制作AI数字人,如何去寻找相关资料和教程
以下是寻找制作 AI 数字人相关资料和教程的途径: 1. 在线文档和公众号:可以查看。 2. B 站:在 B 站搜索相关视频教程。 3. 具体操作方法: 在剪映中,右侧窗口顶部打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择数字人形象时,软件会播放其声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频。剪映会根据提供的内容生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,可点击预览查看效果。 为让视频更美观,可增加背景图片。删除先前导入的文本内容,点击左上角“媒体”菜单并“导入”按钮选择本地图片上传,将图片添加到视频轨道上,可通过拖拽轨道右侧竖线使其与视频对齐。 此外,还有一些开源的算法代码仓库可供参考: 1. ASR 语音识别: openai 的 whisper:https://github.com/openai/whisper wenet:https://github.com/wenete2e/wenet speech_recognition:https://github.com/Uberi/speech_recognition 2. AI Agent: 大模型包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分可使用 LangChain 的模块去做自定义,包含了 Agent 实现的几个组件 3. TTS: 微软的 edgetts:https://github.com/rany2/edgetts,只能使用里面预设的人物声音,目前接口免费。 VITS:https://github.com/jaywalnut310/vits,还有很多分支版本。 sovitssvc:https://github.com/svcdevelopteam/sovitssvc,专注到唱歌方面。 除了算法,人物建模模型可以通过手动建模实现,但这种简单的构建方式还存在一些问题,如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应动作、数字人如何使用知识库做出某个领域的专业性回答等。
2025-03-11
ai制作幽默表情包系列的工作流,用dify或make实现的全流程
以下是使用 Dify 或 Make 实现 AI 制作幽默表情包系列的全流程: 1. 素材准备 平面设计稿:确定表情包的基本设计和角色形象。 2. 制作流程 转 3D:将平面设计稿转换为 3D 形式,增加立体感和丰富度。 AI 生成场景:利用相关工具生成适合的场景。 AI 图生视频:将生成的图片转换为视频。 剪辑转 gif:对视频进行剪辑,并转换为 gif 格式。 压缩:使用图像压缩工具,如 https://imageresizer.com/zh/%E5%9B%BE%E5%83%8F%E5%8E%8B%E7%BC%A9 ,对 gif 进行压缩,以满足上传要求。 上传微信表情平台审核:完成压缩后,上传至微信表情平台进行审核。 相关工具: 即梦:https://jimeng.jianying.com/aitool/image/generate Recraft: https://www.recraft.ai/
2025-03-11
ai视频制作流程,详解
将小说制作成 AI 视频通常包括以下流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 以下是一些可利用的工具及网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址: 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址: 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址: 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址: 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址: 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址: 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址: 8. 故事 AI 绘图:小说转视频的 AI 工具。网址: 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-11