Navigate to WaytoAGI Wiki →
Home
Events
Websites
Agents
Prompts
Chat with Wiki
🇺🇸 English
Home
/
Question List
/
Question Detail
video-ocean制作的视频没有声音怎么解决
Answer
很抱歉,目前知识库中没有关于“video-ocean 制作的视频没有声音的解决办法”的相关内容。但一般来说,视频没有声音可能有以下几种原因和解决方法:
检查视频播放器的音量设置,确保音量未被静音或调至过低。
查看视频文件本身的音频轨道是否存在问题,您可以尝试使用其他播放器打开该视频。
检查您的设备音频输出设置,例如扬声器或耳机是否正常工作,以及其音量设置是否恰当。
确认视频在制作过程中是否正确添加了音频,如果没有添加音频,可能需要重新制作并添加音频。
Content generated by AI large model, please carefully verify (powered by aily)
Ask Again
Others are asking
stable video diffusion开发
以下是关于 Stable Video Diffusion 开发的相关信息: SVD 介绍: 简介:Stable Video Diffusion 是 Stability AI 于 2023 年 11 月 21 日发布的视频生成式大模型,用于高分辨率、先进的文本到视频和图像到视频生成的潜在视频扩散模型。它支持多种功能,用户可调整多种参数,但对硬件要求较高,支持的图片尺寸较小,应用场景受限。 模型版本:开源了两种图生视频的模型,一种能生成 14 帧的 SVD,另一种是可以生成 25 帧的 SVDXL,发布时通过外部评估超越了人类偏好研究中领先的封闭模型。 主要贡献:提出系统的数据管理工作流程,将大量未经管理的视频集合转变为高质量数据集;训练出性能优于现有模型的文本到视频和图像到视频模型;通过特定领域实验探索模型中运动和 3D 理解的强先验,预训练的视频扩散模型可转变为强大的多视图生成器,有助于克服 3D 领域数据稀缺问题。 部署实战避坑指南: 直接使用百度网盘里准备好的资源,可规避 90%的坑。 若一直报显存溢出问题,可调低帧数或增加 novram 启动参数。 云部署实战中,基础依赖模型权重有两个 models–laion–CLIPViTH14laion2Bs32Bb79K 和 ViTL14.pt,需放到指定路径下。 总结: Sora 发布后,此前的视频生成模型相形见绌,但 Stable Video Diffusion 作为开源项目可在自己机器上自由创作无需充值。SVD 生成的视频画质清晰,帧与帧过渡自然,能解决背景闪烁和人物一致性问题,虽目前最多生成 4 秒视频,与 Sora 的 60 秒差距大,但在不断迭代。我们会持续关注其技术及前沿视频生成技术,尝试不同部署微调方式,介绍更多技术模型,更多精彩内容后续放出。 同时,您还可以加入「AIGCmagic 社区」群聊交流讨论,涉及 AI 视频、AI 绘画、Sora 技术拆解、数字人、多模态、大模型、传统深度学习、自动驾驶等多个方向,可私信或添加微信号:【m_aigc2022】,备注不同方向邀请入群。
2025-04-15
1. laptop 2. artificial intelligence 3. generative 4. log in 5. AI-driven 6. bluetooth headset 7. video call 8. platform Write some interesting sentences with these words
以下是为您生成的包含这些关键词的有趣句子: 当我使用配备强大 GPU 的 AI 笔记本电脑,如戴尔 Precision 移动工作站,通过蓝牙耳机关闭了周围的噪音,登录到专门的 AI 驱动平台,与远方的朋友进行视频通话,探讨生成式人工智能的奇妙之处,感觉真是太棒了! 在微星 Creator/Workstation 系列的 AI 笔记本上,我利用预装的深度学习框架,如 NVIDIA CUDA 和 cuDNN,进行着生成式模型的训练,同时通过蓝牙连接着蓝牙耳机,享受着不受干扰的创作过程,然后登录到特定的平台分享我的成果,这一切都由 AI 驱动,借助高速的网络实现了如同面对面的视频通话交流。 联想 ThinkPad P 系列的 AI 笔记本,拥有出色的散热和续航,让我能长时间专注于生成式项目的开发。我戴上蓝牙耳机,登录 AI 平台,与团队进行视频通话,共同推动项目前进,这一切都离不开 AI 驱动的强大力量。
2025-01-20
Video-LLaVA与多模态图像视频识别
以下是对 26 个多模态大模型的全面比较总结: 1. Flamingo:是一系列视觉语言(VL)模型,能处理交错的视觉数据和文本,并生成自由格式的文本作为输出。 2. BLIP2:引入资源效率更高的框架,包括用于弥补模态差距的轻量级 QFormer,能利用冻结的 LLM 进行零样本图像到文本的生成。 3. LLaVA:率先将 IT 技术应用到多模态(MM)领域,为解决数据稀缺问题,引入使用 ChatGPT/GPT4 创建的新型开源 MM 指令跟踪数据集及基准 LLaVABench。 4. MiniGPT4:提出简化方法,仅训练一个线性层即可将预训练的视觉编码器与 LLM 对齐,能复制 GPT4 展示的功能。 5. mPLUGOwl:提出新颖的 MMLLMs 模块化训练框架,结合视觉上下文,包含用于评估的 OwlEval 教学评估数据集。 6. XLLM:陈等人将其扩展到包括音频在内的各种模式,具有强大的可扩展性,利用 QFormer 的语言可迁移性成功应用于汉藏语境。 7. VideoChat:开创高效的以聊天为中心的 MMLLM 用于视频理解对话,为该领域未来研究制定标准,并为学术界和工业界提供协议。
2025-01-07
what are the free video generation ai
以下是一些免费的视频生成 AI 工具: 1. Hidreamai(国内,有免费额度):支持文生视频、图生视频。提示词使用中文、英文都可以。文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。网址:https://hidreamai.com//AiVideo 2. ETNA(国内):由七火山科技开发的文生视频 AI 模型,可根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。网址:https://etna.7volcanoes.com/ 3. Pika Labs:被网友评价为目前全球最好用的文本生成视频 AI。功能包括直接发送指令或上传图片生成 3 秒动态视频,目前内测免费。生成服务托管在 discord 中,加入方式为在浏览器中打开链接 https://discord.gg/dmtmQVKEgt ,在“generate”子区输入指令或上传图片生成视频。 4. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 5. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-26
Topaz Video无法下载模型怎么办
Topaz Video 无法下载模型,您可以参考以下步骤: 1. 解压对应的文件,推荐使用绿色版。(对应的安装包已在网盘里,可直接下载)。 2. 右键,管理员运行 VideoAIportable.exe 文件。 3. 导入处理好的视频。 4. 查看主界面,左边是原视频,右边是待处理视频,下面是对应的视频轨道。 5. 右边部分是主要对视频处理的方式,预设部分主要有放大视频、提升画质、提升帧率等。 6. 稳定 AI 模式分为自动裁切和完整帧,做转绘选择完整帧,强度在 60 为宜,抖动开启,次数一般选择 2 。 7. 帧插值:Apollo 模型处理一般情况,Chronos 模型处理运动幅度较大的情况,其他一般维持默认不变。 8. 增强部分建议直接开启使用默认。 9. 所有参数设计完毕后,点击浏览按钮查看效果。拉动时间轴,选择需要处理的位置,点击左边的 preview 即可执行浏览操作,可选择处理时长,一般在复杂场景如肢体快速运动时进行浏览。 请注意,以上操作依据电脑性能而定。若仍无法下载模型,建议检查网络连接或咨询相关技术支持。
2024-08-21
做 video lip sync 的高质量项目有哪些?
以下为一些关于 video lip sync(视频唇形同步)的高质量项目介绍: 谷歌的“Generating audio for video”项目正在开展进一步研究。该项目具有以下特点: 1. 与现有视频音频解决方案相比,它能够理解原始像素,并且添加文字提示是可选的。 2. 系统无需手动调整生成的声音和视频,避免了对声音、视觉效果和时间等不同元素进行繁琐的调整。 3. 但仍存在一些限制因素需要解决,比如音频输出质量依赖于视频输入质量,视频中的假象或失真超出模型训练分布范围会导致音频质量明显下降。 4. 正在改进涉及语音的视频唇形同步。V2A 尝试从输入的文稿生成语音并与角色的唇形动作同步,但配对的视频生成模型可能不受文稿条件的限制,这会造成不匹配,导致唇形同步不自然。 需要注意的是,这一项目仍在不断完善和改进中。
2024-07-24
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
ai视频教学
以下是为您提供的 AI 视频教学相关内容: 1. 第一节回放 AI 编程从入门到精通: 课程安排:19、20、22 和 28 号四天进行 AI 编程教学,周五晚上穿插 AI 视频教学。 视频预告:周五晚上邀请小龙问露露拆解爆火的 AI 视频制作,视频在视频号上有大量转发和播放。 编程工具 tree:整合多种模型,可免费无限量试用,下载需科学上网,Mac 可拖到文件夹安装,推荐注册 GitHub 账号用于代码存储和发布,主界面分为工具区、AI 干活区、右侧功能区等。 网络不稳定处理:网络不稳定时尝试更换节点。 项目克隆与文件夹:每个项目通过在本地新建文件夹来区分,项目运行一轮一轮进行,可新建会话,终端可重开。 GitHub 仓库创建:仓库相当于本地项目,可新建,新建后有地址,可通过多种方式上传。 Python 环境安装:为方便安装提供了安装包,安装时要选特定选项,安装后通过命令确认。 代码生成与修改:在 tree 中输入需求生成代码,可对生成的代码提出修改要求,如添加滑动条、雪花形状、颜色等,修改后审查并接受。 2. AI 视频提示词库: 神秘风 Arcane:Prompt:a robot is walking through a destroyed city,,League of Legends style,game modelling 乐高 Lego:Prompt:a robot is walking through a destroyed city,,lego movie style,bright colours,block building style 模糊背景 Blur Background:Prompt:a robot is walking through a destroyed city,,emphasis on foreground elements,sharp focus,soft background 宫崎骏 Ghibli:Prompt:a robot is walking through a destroyed city,,Spirited Away,Howl's Moving Castle,dreamy colour palette 蒸汽朋克 Steampunk:Prompt:a robot is walking through a destroyed city,,fantasy,gear decoration,brass metal robotics,3d game 印象派 Impressionism:Prompt:a robot is walking through a destroyed city,,big movements
2025-04-20
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
如果制作智能体
制作智能体的方法如下: Logo 设计智能体: 江树提供了提示词模板,使用方法为将品牌、行业、理念等信息替换成自己的,复制到 GPT4o 中,即可瞬间呈现高质量 Logo。 若想进一步提升设计效果,可使用江树设计的 Logo 智能体生成更精准的提示词,访问链接 https://chatgpt.com/g/g67f4bf538f9081918073af13ba5c2cfelogodesigner ,生成的提示词可直接复制到 GPT4o 中,并借助最新的 AI 绘图能力达到专业设计水准。 Coze 智能体(字段捷径)获取笔记+评论信息: 第一步,创建一个智能体,使用单 Agent 对话流模式。 第二步,编排对话流,点击创建新的对话流(记得要和智能体关联)。 第三步,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT。 第四步,使用代码节点进行数据处理,注意代码节点输出的配置格式。 第五步,测试。找到一篇小红书笔记,试运行对话流,直接在对话窗口输入地址,看到数据即为成功。回到智能体的编排页面,同样方式测试,确保对话流执行成功。 第六步,发布。点发布后只选择多维表格,然后点配置。输出类型选文本,输入类型选择字段选择器。完善上架信息,填个表格,选发布范围时可选仅自己可用以加快审核。提交上架信息后,返回配置界面显示已完成即可完成最终提交。 其他智能体: 如创建一个输入人设等信息的智能体,放上已创建的工作流。但注意工作流中若有消耗个人资源的部分,如【所有视频片段拼接】节点使用的插件 api_token 填的是个人 token,不能直接发布。可将 api_token 作为工作流最开始的输入,用户购买后输入 api_token 再发布。
2025-04-14
最好的制作ppt的大模型是哪个
目前在制作 PPT 方面,没有绝对的“最好”的大模型。例如,Claude 3.7 在将 PDF 转换为 HTML 方面效果较好,但国内用户使用不太方便,可改用 DeepSeekR1 实现。某上市公司使用某互联网大厂研发的千亿 AI 大模型产品声称能 3 分钟制作 PPT,但接入公司系统时出现“一连接就死机”的情况。同时需要注意的是,过去几个月内国内的 AI 大模型在某些方面大同小异,且大部分远未达到可商用化程度。
2025-04-13
AI 制作短视频的方法
以下是关于 AI 制作短视频的方法: 1. 确定视频风格和主题:使用 Fanbook 中的 niji6 模型及sref 指令,加上每张图片的提示词来确定视频风格的一致性。比如根据丝绸之路的古风主题确定风格和时长,然后设定故事主线和镜头。 2. 创作故事剧本和分镜头:参考分镜头的基本格式要求,按照场景、地点、镜号、画面描述、台词、音效等维度进行填充。尽可能精简人物对话,提炼重点。当缺乏画面灵感时,可以借助语言大模型,如 Kimi 来获取帮助。 3. 生成角色和场景:根据剧本中的人物性格特征和时代背景,描绘人物的提示词、上传角色参考图cref,并将角色背景扣除以便于进行角色加背景的融合生成时进行垫图操作。场景提示词从剧本中的画面描述进行提取,采用文生图模式,画面风格选择提前准备好的风格图进行垫图,上传角色图、场景背景进行参考生成,提高人物和场景的融合度。 4. 让图片动起来:使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,可生成时长为 3 秒钟的画面。运镜类型可根据剧本中的镜头描绘设置,主要设置以随机运镜为主,生成速度根据视频节奏选择。 此外,根据视频脚本生成短视频的 AI 工具有多种,适用于不同的应用场景和需求,包括: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频中需要的场景、角色、镜头等要素,并生成对应的素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:AI 视频生成器,允许用户提供文本描述来生成相应的视频内容。 4. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. Runway:能够将文本转化为风格化的视频内容,适用于多种应用场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-13
我想通过AI制作H5页面
以下是关于通过 AI 制作 H5 页面的相关信息: AI+高德 MCP 可以帮助您制作 H5 页面。目前,该工具已经有 1000 多人进行制作,还有几十位同学已经发出了自己的产品。 这次更新带来了三个超级实用的功能: 1. 24 种超酷的 H5 风格可供选择,如同选衣服一样简单。 2. 具备一键导航功能,无需复制粘贴地址。 3. 数据更真实,不用担心 AI 瞎编。 使用这些功能,10 分钟就能全部搞定。 在上期文章《》中,详细讲解了获取高德地图的密钥、cursor 如何设置 MCP、询问高德 MCP 生成旅游信息以及美化页面展示等内容。如果您还未阅读,可以点击查看。 另外,使用 Cursor 制作主页的步骤如下: 在搞定一个简单小游戏后,可以做个人介绍网站。假设要做一个《全 AI 自动驾驶的火星登陆飞船》项目,首先要有初步的项目介绍,然后新建一个相关文件夹并打开,在 AI 对话框中输入介绍内容,等待 AI 制作并加入修改意见。 若想让别人看到您的作品预览,可以通过网站 https://www.yourware.so/ 将项目文件夹整体上传,生成临时浏览链接,在不需要域名和服务器的情况下让外部看到作品。如果发现 cursor 卡顿,注意是否需要在终端区或者对话区确认重要操作,可将左下角的 ask every time 修改为 auto run 实现全自动化。
2025-04-13
有没有免费制作数字人的网站?
以下是一些免费制作数字人的网站及使用方法: HEYGEN: 优点:人物灵活,五官自然,视频生成很快。 缺点:中文的人声选择较少。 使用方法:点击网址注册后,进入数字人制作,选择Photo Avatar上传自己的照片。上传后效果如图所示,My Avatar处显示上传的照片。点开大图后,点击Create with AI Studio,进入数字人制作。写上视频文案并选择配音音色,也可以自行上传音频。最后点击Submit,就可以得到一段数字人视频。 DID: 优点:制作简单,人物灵活。 缺点:为了防止侵权,免费版下载后有水印。 使用方法:点击上面的网址,点击右上角的Create vedio。选择人物形象,可以点击ADD添加照片,或者使用DID给出的人物形象。配音时,可以选择提供文字选择音色,或者直接上传一段音频。最后,点击Generate vedio就可以生成一段视频。打开自己生成的视频,可以下载或者直接分享给朋友。 KreadoAI: 优点:免费(对于普通娱乐玩家很重要),功能齐全。 缺点:音色很AI。 使用方法:点击上面的网址,注册后获得120免费k币,这里选择“照片数字人口播”的功能。点击开始创作,选择自定义照片。配音时,可以选择提供文字选择音色,或者直接上传一段音频。打开绿幕按钮,点击背景,可以添加背景图。最后,点击生成视频。 此外,在剪映中也可以生成数字人:在剪映右侧窗口顶部,打开“数字人”选项,选取一位免费的、适合的数字人形象,比如“婉婉青春”。选择数字人形象时,软件会播放声音,可判断是否需要,点击右下角的“添加数字人”,将其添加到当前视频中。软件会根据提供的内容生成对应音视频,并添加到当前视频文件的轨道中。左下角会提示渲染完成,可点击预览按钮查看效果。还可以为视频增加背景图片,删除先前导入的文本内容,点击左上角的“媒体”菜单并点击“导入”按钮,选择本地图片上传,将图片添加到视频轨道上,通过拖拽轨道右侧竖线使其与视频对齐。
2025-04-11
如何使用AI制作真人表情包?
以下是使用 AI 制作真人表情包的方法: 1. 使用 Gemini 2.0 Flash: 场景:表情包在社交媒体中是不可或缺的表达工具,但制作个性化表情包对许多人来说并不容易,有的工具可以生成根据某一个主体生成不同的表情,但是生成出来的图会多多少少改变原主体。 实用性:用户只需上传一张主体图片(例如一个小女孩的照片),通过简单的自然语言指令(如“让她开心大笑”),Gemini 就会自动生成相应的表情图片。 指令:“生成 XXX + XXX 的表情” 2. 使用 ChatGPT 4o: 输入提示词并加上最初的真人图片,例如:创建图片:一个戴着深蓝色蝴蝶结领结的柴犬,表情参考我上传的图片,3D 风格,毛绒绒质感,不要太逼真,比例为 1:1。如果对生成的第一个表情不满意,可以重新输入指令进行调整,如“让它看起来得意一点”。 一次生成九宫格表情包的方法:先收集很多自己喜欢的表情包,将每组拼图为 9 个,然后将先前做好的真人原图和一张九宫格拼图一起上传到 4o 对话框,输入相应指令,如:创建图片:参考图二的动作和道具制作表情包九宫格,每个图案都替换为图一为主角,保持风格为图一的质感,整整齐齐无留白排列,颜色明亮不偏黄,文字内容仔细核对不要出错。 另外,有的地方需要上传封面图,也可以由 4o 生成,先要求它做一个比例约 3:2 的。如果有个很喜欢的表情,使用九宫格出的效果不好,也可以单个一个个去生成,但比较费时间,且可能会受出图限制等待更久。最后将所有图片下载下来,挑选出需要的表情图片。
2025-04-11