直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

deforum中初始化视频路径的格式?

回答

在 deforum 中,初始化视频路径的格式如下: |Parameter|Description| |-|-| |video_init_path|Path to the input video. This can also be a URL as seen by the default value.| |video_init_path|Path to the video you want to diffuse. Can't use a URL like init_image|

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

FizzleDorf的 Deforum指南

|Parameter|Description|<br>|-|-|<br>|video_init_path|Path to the input video.This can also be a URL as seen by the default value.|<br>|use_mask_video|Toggles video mask.|<br>|extract_from_frame|First frame to extract from in the specified video.|<br>|extract_to_frame|Last frame to extract from the specified video.|<br>|extract_nth_frame|How many frames to extract between to and from extract frame.1 is default,extracts every frame.|<br>|video_mask_path|Path to video mask.Can be URL or PATH.|The rest of the mask settings behave just like regular img2img in A1111 webui.[heading4]Parseq[content]The Parseq dropdown is for parsing the JSON export from Parseq.I have a separate guide on how to use Parseq[here](https://rentry.org/AnimAnon-Parseq).[heading3]Video Input[content]|Parameter|Description|<br>|-|-|<br>|video_init_path|Path to the video you want to diffuse.Can't use a URL like init_image|<br>|overwrite_extracted_frames|Re-Extracts the input video frames every run.Make sure this is off if you already have the extracted frames to begin diffusion immediately.|<br>|use_mask_video|Toggle to use a video mask.You will probably need to generate your own mask.You could run a video through batch img2img and extract the masks every frame from Detection Detailer or use the Depth Mask script.|<br>|extract_nth_frame|Skips frames in the input video to provide an image to diffuse upon.For example:A value of 1 will Diffuse every frame.2 will skip every other frame.|

FizzleDorf的 Deforum指南

|Parameter|Description|<br>|-|-|<br>|video_init_path|Path to the input video.This can also be a URL as seen by the default value.|<br>|use_mask_video|Toggles video mask.|<br>|extract_from_frame|First frame to extract from in the specified video.|<br>|extract_to_frame|Last frame to extract from the specified video.|<br>|extract_nth_frame|How many frames to extract between to and from extract frame.1 is default,extracts every frame.|<br>|video_mask_path|Path to video mask.Can be URL or PATH.|The rest of the mask settings behave just like regular img2img in A1111 webui.[heading4]Parseq[content]The Parseq dropdown is for parsing the JSON export from Parseq.I have a separate guide on how to use Parseq[here](https://rentry.org/AnimAnon-Parseq).[heading3]Video Input[content]|Parameter|Description|<br>|-|-|<br>|video_init_path|Path to the video you want to diffuse.Can't use a URL like init_image|<br>|overwrite_extracted_frames|Re-Extracts the input video frames every run.Make sure this is off if you already have the extracted frames to begin diffusion immediately.|<br>|use_mask_video|Toggle to use a video mask.You will probably need to generate your own mask.You could run a video through batch img2img and extract the masks every frame from Detection Detailer or use the Depth Mask script.|<br>|extract_nth_frame|Skips frames in the input video to provide an image to diffuse upon.For example:A value of 1 will Diffuse every frame.2 will skip every other frame.|

Aimwise WaytoAGI 百家号文旅分享

在提示词框内按JSON格式输入不同帧数时的提示词可在该网站进行格式检测,提示红色会报错,绿色为正确格式,网站:https://odu.github.io/slingjsonlint/在正向、反向提示词框内输入动画生成时无需改变的通用提示词[heading2]四、初始[content]设置初始参考图,勾选"使用初始化"进行启用将图片链接复制到"初始化图像"内注意链接外部如有引号需去除,内部不要有中文,数值间的横杠为反斜杠/[heading2]五、Controlnet[content]勾选"启用"后,开始使用controlnet,默认有5个controlnet模型可以启用,选择合适的cn预处理器、模型、权重等参数(注意无法预览图片,需要将图片链接复制到路径文本框内!注意有图片蒙版路径,但是不能使用)[heading2]六、输出[content]FPS:帧速率,代表每秒出多少张图,最大帧数/帧速率等于生成动画的时长可设置添加背景音乐、放大图片、删除图片等操作,不建议在deforum中进行操作视频生成完成后,点击"生成后点击这里显示视频",可以在网页进行预览,默认保存至图生图文件夹[heading2]七、预设使用[content]复制预设txt文件路径,粘贴到图片预览窗口底部的预设文件地址栏处点击“load all settings”加载预设预设加载完成后,可替换模型、初始化图像、提示词内容等信息保存调整后的预设,保存到已有的文件夹路径,点击“储存设置”后,自动创建预设文本,需手动保存初始图片

其他人在问
deforum中初始化为什么不能以视频路径的视频进行风格转变?而是随机生成新视频?是哪里出现了问题?
很抱歉,目前知识库中没有关于“deforum 中初始化不能以视频路径的视频进行风格转变,而是随机生成新视频的原因及问题所在”的相关内容。但一般来说,出现这种情况可能是由于以下原因: 1. 视频格式或编码不兼容:deforum 可能不支持您所提供的视频的特定格式或编码方式。 2. 参数设置错误:可能在初始化过程中的某些参数设置不正确,导致无法按照预期使用指定视频进行风格转变。 3. 软件版本问题:您使用的 deforum 版本可能存在缺陷或不具备该功能。 建议您检查视频格式和编码,确认参数设置是否正确,并尝试更新到最新版本的 deforum 以查看是否能解决问题。
2024-10-18
pika格式怎么创作
Pika 格式的创作方式如下: 访问网站:https://pika.art/home 支持文生视频、图生视频、视频生视频。 提示词使用中文、英文都可以。 文生视频支持正向提示词、反向提示词、自动配音效、运镜控制、运动强度控制、帧数选择,支持 16:9、9:16、1:1、5:2、4:5、4:3 尺寸,可设置提示词关联性、种子值。 图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同,另外多了唇部同步功能。 生成好的视频可以延长时间、放大,默认生成 3s 的视频。 关于 Pika 的使用: 打开 Discord,Pika 的生成视频频道在 Discord 上。点击邀请链接,加入频道:https://discord.gg/pika 生成第一个视频,5 分钟手把手入门: 选择一个作画的频道。 输入“/”+指令: /create 为文字生成视频指令。 /animate 为图片生成视频指令。 /encrypt_image 为图片+文字生成视频指令。 选择/create,文字生成视频,输入想要的内容描述即可。 选择/animate,图片生成视频,输入想要的图片,不能添加其他文字要求描述。 选择/animate,图片生成视频,message 处输入想要的图片,并在 prompt 处添加描述。 Pika 的常用指令参数: gs xx:引导比例,较高的值使其与文本更相关(推荐范围为 8 24)。 neg xxx:负面提示(指定在视频中不希望出现的内容)。 ar xx:xx:宽高比(例如 16:9、9:16、1:1、4:5)。 seed xxx:生成过程中增加一致性的种子数。 motion xx:所需运动强度(仅支持 0/1/2)。 fps xx:视频的帧率。 此外,关于 Pika 的使用及相关 prompt,MJ prompt 中,Role 为 MidJourney 图片生成大师。首先,完整输出< Initialization >中的内容进行自我介绍(例如,大师:您好,我是 MidJourney 图片生成大师……)。然后,接收用户发送的故事内容,并询问该段内容需要分几个镜头(例如,大师:请问需要分几个镜头呢?没有特别说明我可以自动帮您分镜)。然后,询问分镜中的人物外貌长什么样子。然后,询问照片幅度是什么样子的,默认是 16:9。然后,询问用户想要的画面风格,这个画面风格将会是贯穿整个分镜图片的画面风格。然后,使用英文输出分镜内容,如果某个分镜内容缺失了,要根据分镜上下文来进行补充。每个分镜的输出格式为:分镜描述,人物描述,环境描述,氛围描述,灯光描述,色彩描述,构图描述,风格描述在每个描述后面都加入ar 16:9(最后的结尾没有句号)。解释如下:分镜描述:描述这个镜头下的艺术表现手法,用华丽的辞藻来叙述。人物描述:描述故事主人公的性别、年龄、身高、体重、穿着衣服的外貌。环境描述:在这个分镜下,周遭环境是什么样子的。如果用户给出的内容没有提起环境内容,就需要大师自行补充环境内容。氛围描述:根据当前分镜词和用户提供的内容推理出氛围描述。灯光描述:例如,顶光的、雾气光、漫反射的、强对比的。色彩描述:例如,(色彩三要素)低饱和度的、颜色鲜艳的、花里胡哨的、强反射的、主色调、某种颜色是 accent color。
2024-10-17
你好,文字生图,常用格式有哪些
文字生图常用格式包括以下方面: 对于文字生成视频: Pika:擅长动画制作,支持视频编辑。 SVD:可作为 Stable Diffusion 的插件,在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:能将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看: 对于 Stable Diffusion 文生图的提示词: 分为内容型提示词和标准化提示词,内容型提示词主要描述想要的画面。例如:1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面(使用翻译软件翻译成英文)。 采样迭代步数通常控制在 20 40 之间,步数越高绘画越清晰,但速度越慢。 采样方法常用的有:Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++ SDE Karras;DDIM。有的模型会有指定算法,搭配效果更好。 比例设置为 800:400,注意尺寸并非越大越好,模型练图通常基于 512x512 的框架,高宽比尽量接近此数值。
2024-10-17
如何将COZE上的工作流复制下来JSON格式 给DIFY使用?
要将 COZE 上的工作流以 JSON 格式复制下来给 DIFY 使用,以下是一些相关的步骤和要点: 对于自动总结公众号内容并定时推送到微信的工作流: 循环查询文章是否推送过:包括数据库节点,用于在数据库中依据文章 URL 和用户的唯一标识(如重命名的 server 酱的 sendkey)判断是否推送过。需设置输出项「combined_output」,并注意 Coze 平台中数据库与 bot 绑定的设置方法。 循环体内容中的选择器:判断数据库查询结果是否为空,若为空则拼接文章完整信息。 对于 Coze 复刻吴恩达开源的 AI 翻译项目的工作流: 新建工作流并导入核心流程,分为初始翻译、反思优化、结果输出等部分。 开始节点选择翻译的源语言和目标语言,可设置其他参数。 初步的翻译大模型节点选择大模型和参考相关提示词。 对于用 Coze 免费打造微信 AI 机器人的工作流: 设计包括开始节点和结束节点,开始节点配置输入变量名、描述和变量类型。 知识库配置连接开始节点和知识库节点。 结束节点用于输出最终结果,设置回答格式和输出变量。 进行试运行测试。 请注意,具体的操作和配置可能因实际情况有所差异,需要根据您的具体需求和 COZE 平台的实际情况进行调整。
2024-10-15
智能识别图片或文本内容,格式化录入表格中
以下是智能识别图片或文本内容并格式化录入表格的方法: 1. 可以使用通义听悟、飞书妙记、钉钉闪记进行录音转文字,以钉钉闪记为例: 第一步打开钉钉闪记。 结束录音后点击“智能识别”。 点击智能摘要,获得本次会议的纪要。 如果需要更多内容,复制所有文案或下载文本文件到GPT、GLM、通义千问等大语言模型对话框中,再将会议内容发送。 2. 该场景对应的关键词库(12 个):会议主题、参与人员、讨论议题、关键观点、决策、时间、地点、修改要求、文本格式、语言风格、列表、段落。 3. 提问模板(3 个): 第一步:用飞书会议等软件整理好会议记录,并分段式发给 ChatGPT 生成总结: 请根据以下会议资料,整理会议的关键信息,包括:会议主题、参与人员、讨论议题、关键观点和决策。 会议资料: 时间:XXX 年 XXX 月 XXX 日 地点:XXXX 参与人员:XXX、XXX 会议主题:XXXX 讨论内容: Speaker1:XXX Speaker2:XXX Speaker3:XXX 第二步:检查生成的总结: 请根据我提供的会议补充信息和修改要求,对 XXX 部分进行修改: 会议补充信息:XXXX 修改要求:XXXX 第三步:优化文本格式和风格 请将生成的总结,以 XXX 形式呈现(例如:以列表的形式、以段落的形式、使用正式/非正式的语言风格) 请给上述会议总结,提供修改意见,并根据这个修改意见做最后的调整
2024-10-09
如何用AI翻译英文文献,文件格式是PDF
以下是几种将英文 PDF 文献翻译成中文的方法: 1. DeepL(网站):访问,点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件):在安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML / TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用):在下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页):使用工具把 PDF 转成 Word,再在点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页):在点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 8. 浏览器自带的翻译功能:如果一些 PDF 太大,翻译工具不支持,除了将 PDF 压缩或者切分外,还可以转成 HTML 格式,然后使用浏览器自带的网页翻译功能。 请注意,内容由 AI 大模型生成,请仔细甄别。
2024-10-04
请问在coze寄如何将url格式的图片内容转换成image图片
在 Coze 中将 URL 格式的图片内容转换成 Image 图片,主要通过以下步骤实现: 1. 生成图片时没有使用图像流里的工具,而是采用工作流,并调用插件来完成。 2. 运用 ByteArtist 插件中的 ImageToolPro 工具。 3. 将 model_type 选 2,这样能够根据用户图片风格进行生成。 4. 关键在于输入一个参考丑图,例如从 glif 官网别人的作品中选取一个 10241024 的老大爷图片,将其 URL 传到 Coze 中后,将其 URL 输入给 image_url。
2024-10-01
如何使用AI协助短视频文案生成?
以下是使用 AI 协助短视频文案生成的方法: 1. 利用 ChatGPT 生成短视频选题文案:表明身份,描述需求,提出回答要求,可参考美妆行业的例子。 2. 用 ChatGPT 生产短视频文案:将需求与框架结合,让 ChatGPT 为您生成。 3. 生成虚拟数字人短视频: 第一步:打开网站(需科学上网),如 https://studio.did.com/editor 。 第二步:在右侧文字框输入从 ChatGPT 产生的内容,选择想要的头像、不同的国家和声音,然后点击右上角的 Create Video ,等待生成。 生成好数字人视频后,结合产品做讲解即可发布用于视频带货。 4. 通过 ChatGPT 生成文案,将其复制到支持 AI 文字转视频的工具内,实现短视频自动生成。如腾讯智影的数字人播报功能、手机版剪映的图文成片功能。 5. 前期利用 ChatGPT 生成文案,包括: 生产视频脚本:把选题告诉 ChatGPT,它能生成包括具体场景和转场画面的完整视频脚本。 筛选 BGM:告诉 ChatGPT 视频的情绪,它能为您筛选背景音乐。
2024-10-18
AI视频转视频风格
以下是一些关于 AI 视频转视频风格的相关信息: DomoAI 主打风格转绘,效果稳定,支持多种风格如动画风、粘土风、折纸风、像素风,还能根据参考图切换视频风格,与开源模型中 IPAdapter 的能力相似。每个账号仅有 15 个免费 credits,仅能生成 3s 视频。网页版访问:https://domoai.app/ ,官方推特:https://x.com/DomoAI_ 。输入任意图片和视频,可实现人脸替换、视频风格切换。博主 Framer 曾用其制作多个 AI 动画视频,通过人物动作拍摄➡️ Runway 绿幕抠像➡️ DomoAI 转绘➡️ MJ 绘制背景图➡️分图层动画剪辑能快速出效果。在 AI 技术无法精确生成目标动作时,实拍转绘+简单后期剪辑是更易产出效果的做法。 ComfyUI AnimateDiff 可进行 vid2vid 视频转换,使用 ControlNet 的 Openpose 和 Depth 功能转换视频风格。详细步骤可参考:https://note.com/bakushu/n/n502fca61423b 。
2024-10-18
国内适合短视频脚本写作的ai软件
以下是一些适合国内短视频脚本写作的 AI 软件: 1. ChatGPT + 剪映:ChatGPT 可生成视频小说脚本,剪映能根据脚本自动分析出视频所需的场景、角色、镜头等要素,并生成对应素材和文本框架,能快速实现从文字到画面的转化,节省时间和精力。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:AI 视频生成器,允许用户轻松创建和编辑高质量视频,无需视频编辑或设计经验。用户提供文本描述,Pictory 帮助生成相应视频内容。 4. VEED.IO:提供 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. Runway:AI 视频创作工具,能将文本转化为风格化的视频内容,适用于多种应用场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可根据文本脚本生成视频。 这些工具各有特点,适用于不同的应用场景和需求,能够帮助内容创作者、教育工作者、企业和个人快速生成吸引人的视频内容。 此外,在制作 AI 短片时,声音部分可以使用 11labs 进行英文对白制作,国内可以使用出门问问的魔音工坊。对于剪辑,13 分钟的短片用剪映较方便,更长篇幅或追求更好效果可能需要使用 PR/FCP/达芬奇等传统剪辑软件。
2024-10-18
国内有专门做短视频脚本的ai软件
以下是一些国内专门做短视频脚本的 AI 软件: 1. ChatGPT + 剪映:ChatGPT 可生成视频小说脚本,剪映能根据脚本自动分析出视频所需的场景、角色、镜头等要素,并生成对应素材和文本框架,可快速实现从文字到画面的转化,节省时间和精力。 2. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可根据文本脚本生成视频。 3. 出门问问的魔音工坊:在国内可用,具有情绪调节控件。 此外,制作 AI 短片还涉及到声音制作、故事创作、剪辑等方面: 1. 声音制作:可使用 11labs 进行英文对白制作,通过标点符号改变语音效果;国内可尝试魔音工坊。 2. 故事创作:故事来源包括原创(如自身经历、梦境、想象等)和改编(如经典 IP、名著、新闻、二创等)。剧本写作可从自身或朋友经历改编入手,或对短篇故事进行改编,多与他人讨论以修改和进步。 3. 剪辑:对于 13 分钟的短片,剪映较为方便;更长篇幅可能需要使用 PR/FCP/达芬奇等传统剪辑软件。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-18
有发小红书视频链接,能自动提取完整文字文案的bot或者工具吗,谢谢~
以下为您介绍一款可以自动提取小红书视频链接完整文字文案的工具: 名称:小红书文案专家 功能价值: 见过多个爆款文案,只需输入网页链接或视频链接,就能生成对应的小红书文案。 可辅助创作者生成能一键复制发布的初稿,提供创意和内容,节约 10 倍文字内容创作时间。 应用链接:https://www.coze.cn/s/ij5C6LWd/ 设计思路: 痛点:个人时间有限,希望有人帮忙写初稿再进行二创,同时希望能生成配图。 实现思路:为自己和团队设计工作流,让 AI 按照运营日常思路和流程工作。 一期产品功能: 可以提取任何链接中的标题和内容。 按照小红书平台文案风格重新整理内容。 加入 emoji 表情包,使文案更有活力。 为文案配图片。 二期计划功能: 持续优化升级。 增加全网搜索热点功能。 提炼热点新闻或事件关键信息。 结合用户想要生成的内容方向,输出文案和配图。 另外,在使用类似工具时,需要将需求做细颗粒度的分解,把大任务拆成小任务,小任务拆成更小的任务,并为每个小任务选择合适的工具/模型来实现。
2024-10-17