Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

生成3d模型可以让模型动起来吗?

Answer

生成 3D 模型后是可以让模型动起来的。例如,通过以下工具和流程可以实现:

  • 工具链:Midjourney(生成等距图像)→Trellis(图像转 3D 模型)→Browser Lab(浏览器内 3D 编辑器)。
    • 步骤:
      • 使用 Midjourney 生成等距 3D 场景,提示词示例:3D isometric bedroom with a bed and desk。(DALL-E 3 也可测试)
      • 用 Trellis 工具将图像转为 3D 模型(支持 Tripo 3D 等其他工具)。工具地址:https://trellis3d.co/online
      • 下载生成的 3D 模型(GLB 文件或高斯分布文件),然后导入 Browser Lab 编辑器中进一步编辑。编辑器地址:https://thebrowserlab.com
    • 结合可灵 AI、Hailuo AI、Runway 等工具可让场景中的人物动起来。
  • 对于文物雕塑上色,可使用 runway 让固有想法的物体变得动态,runway gen3 的 V2V 可以让物体重新建模、重新上色,再把背景上个色,传到剪映,加上 BGM。
    • 先上传图片,运用提示词,只要让物体动起来就行,一次可能不成功,可以多次抽卡(分够的话)。
    • 生成好的视频的左下方,点击“Reuse”,再点击上方出现的“Video to Video”,视频就会跳转到我们的工作台。
    • 再在下方输入提示词“3D modeling with vibrant colors”等待生成。
    • 再重复上面一个步骤,把提示词换成“Changing the background to the universe,the body emits light”。
    • 最后导入剪映,按照自己喜欢的风格,剪成一个小短片。
    • 另外,可以用即梦 S2.0(或其他可以动效的工具)出动态视频,在剪映提前转成 9:16 或 16:9 的大小,否则 runway 会裁剪尺寸。
Content generated by AI large model, please carefully verify (powered by aily)

References

XiaoHu.AI日报

🔔Xiaohu.AI日报「1月11日」✨✨✨✨✨✨✨✨1⃣️🎥Runway Act One视频生成细节角色通过文本生成,然后使用手机录制视频,将表情、声音和口型转移到虚拟角色上。由于Act One不支持肢体动作转移,使用“图生视频”生成了肢体动作。支持的视频时长上限:30秒。🔗[https://x.com/imxiaohu/status/1878372002131841086](https://x.com/imxiaohu/status/1878372002131841086)2⃣️🏡单张图片生成精致3D小屋场景工具链:Midjourney(生成等距图像)→Trellis(图像转3D模型)→Browser Lab(浏览器内3D编辑器)。步骤:1.使用Midjourney生成等距3D场景,提示词示例:3D isometric bedroom with a bed and desk。(DALL-E 3也可测试)2.用Trellis工具将图像转为3D模型(支持Tripo 3D等其他工具)。工具地址:[https://trellis3d.co/online](https://trellis3d.co/online)3.下载生成的3D模型(GLB文件或高斯分布文件),然后导入Browser Lab编辑器中进一步编辑。编辑器地址:[https://thebrowserlab.com](https://thebrowserlab.com)结合可灵AI、Hailuo AI、Runway等工具可让场景中的人物动起来。🔗[https://x.com/imxiaohu/status/1878261002422358344](https://x.com/imxiaohu/status/1878261002422358344)

XiaoHu.AI日报

🔔Xiaohu.AI日报「1月11日」✨✨✨✨✨✨✨✨1⃣️🎥Runway Act One视频生成细节角色通过文本生成,然后使用手机录制视频,将表情、声音和口型转移到虚拟角色上。由于Act One不支持肢体动作转移,使用“图生视频”生成了肢体动作。支持的视频时长上限:30秒。🔗[https://x.com/imxiaohu/status/1878372002131841086](https://x.com/imxiaohu/status/1878372002131841086)2⃣️🏡单张图片生成精致3D小屋场景工具链:Midjourney(生成等距图像)→Trellis(图像转3D模型)→Browser Lab(浏览器内3D编辑器)。步骤:1.使用Midjourney生成等距3D场景,提示词示例:3D isometric bedroom with a bed and desk。(DALL-E 3也可测试)2.用Trellis工具将图像转为3D模型(支持Tripo 3D等其他工具)。工具地址:[https://trellis3d.co/online](https://trellis3d.co/online)3.下载生成的3D模型(GLB文件或高斯分布文件),然后导入Browser Lab编辑器中进一步编辑。编辑器地址:[https://thebrowserlab.com](https://thebrowserlab.com)结合可灵AI、Hailuo AI、Runway等工具可让场景中的人物动起来。🔗[https://x.com/imxiaohu/status/1878261002422358344](https://x.com/imxiaohu/status/1878261002422358344)

创作教程中心

[辽木雕.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/H57AbPCacoVRNtxvqvpc4hk4nUb?allow_redirect=1)创作思路:给文物上色涉及工具:runway,剪映为什么选这个工具:runway可以让固有想法的物体变得动态,runway gen3的V2V,可以让物体重新建模,重新上色,再把背景上个色,传到剪映,加上BGM。先上传图片,运用提示词,只要让物体动起来就行,一次可能不成功,可以多次抽卡(分够的话)生成好的视频的左下方,点击“Reuse”,再点击上方出现的“Video to Video”,视频就会跳转到我们的工作台了。再在下方输入提示词“3D modeling with vibrant colors”等待生成。[Gen-3 Alpha Turbo 2927936932,3D modeling with vib,M 5.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/WozYbDYJUoBNUfx6H1bcSt1Pnag?allow_redirect=1)再重复上面一个步骤,把提示词换成“Changing the background to the universe,the body emits light”就可以了!最后导入剪映,按照自己喜欢的风格,剪成一个小短片吧~另外,可以用即梦S2.0(或其他可以动效的工具)出动态视频,在剪映提前转成9:16或16:9的大小,否则runway会裁剪尺寸。其他重复上面的操作,又一个好玩的视频生成了~[金木雕.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/EDmObOKCQoKueoxmix4cgJbTnJI?allow_redirect=1)

Others are asking
怎样操作来源模型
以下是关于操作来源模型的相关内容: 对于某些模型,如 Llama3.1 8B Instruct,操作方式如下: 1. 选择自定义提示词(也可选择预定义的话题,即黑色按钮,黑色按钮会有新手使用指引)。然后左边会出现熟悉的 chat 界面。 2. 输入对话内容,等待左右两边的内容生成。若右边的分析未刷新,在相关按钮间切换。 3. Activation Mode 可获得整段的推理判断;Attribution Mode 需选中一个 token,它会分析对应的最大关联内容。 对于 ComfyUI 玩 SDXL 的模型,操作要点包括: 1. 添加噪波:disable,运行后操作:fixed,步数:30,开始降噪步数:20,结束降噪步数:30,返回噪波:disable。 2. 若将 refiner 的模型连上提示词导致第一个 base 模型的链接断开,可通过加入新节点(右键点击【新建节点】【实用工具】【Primitive 元节点】),在文本节点上单击右键选择【转换文本为输入】,将元节点与文本节点相连接,复制出正负提示词节点分别给 base 模型和 refiner 模型,再将 base 模型的一套输出给第一个采样器节点,refiner 模型的一套输出给第二个采样器节点,使两个模型同时起作用。 对于 Tusiart 模型: 1. 首页包括模型、帖子、排行榜,可查看大手子炼成的模型、图片,不同模型有 checkpoint 和 lora 等标签,还有 XL 标签属于 SDXL 新模型,点击可看模型详细信息及返图区。 2. 基础模型(checkpoint)是生图必需的,任何生图操作必须选定,lora 是低阶自适应模型,可有可无,但对细节控制有价值。 3. ControlNet 可控制图片中特定图像,VAE 类似于滤镜可调整生图饱和度,选择 840000 即可。 4. Prompt 提示词是想要 AI 生成的内容,负向提示词 Negative Prompt 是想要 AI 避免产生的内容。
2025-02-21
不同ai模型的应用场景
以下是不同 AI 模型的应用场景: 基于开源模型: Civitai、海艺 AI、liblib 等为主流创作社区,提供平台让用户利用 AI 技术进行图像创作和分享,用户无需深入了解技术细节即可创作出较高质量的作品。 基于闭源模型: OpenAI 的 DALLE 系列: 发展历史:2021 年初发布 DALLE,2022 年推出 DALLE 2,2023 年发布 DALLE 3,不断提升图像质量、分辨率、准确性和创造性。 模型特点:基于变换器架构,采用稀疏注意力机制,DALLE 2 引入 CLIP 模型提高文本理解能力,DALLE 3 优化细节处理和创意表现。 落地场景:2C 方面可控性强于 Midjourney,但复杂场景和细节处理能力不如 Midjourney;2B 方面与 Midjourney 场景类似。 商业化现状:通过提供 API 服务,使企业和开发者能集成到应用和服务中,采取分层访问和定价策略。 伦理和合规性:加强对生成内容的审查,确保符合伦理和法律标准。 大模型: 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 编程和代码辅助:用于代码自动补全、bug 修复和代码解释。 翻译和跨语言通信:促进不同语言背景用户之间的沟通和信息共享。 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 教育和学习辅助:创建个性化学习材料、自动回答学生问题和提供语言学习支持。 图像和视频生成:如 DALLE 等模型可根据文本描述生成相应图像,未来可能扩展到视频内容生成。 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家沉浸式体验。 医疗和健康咨询:理解和回答医疗相关问题,提供初步健康建议和医疗信息查询服务。 法律和合规咨询:帮助解读法律文件,提供合规建议,降低法律服务门槛。 这些只是部分应用场景,随着技术进步和模型优化,AI 模型在未来可能会拓展到更多领域和场景。同时,也需注意其在隐私、安全和伦理方面的挑战。
2025-02-21
大模型和小模型区别是什么?是否大模型都属于生成式AI,小模型属于判别式AI,为什么大模型有幻觉小模型没有?
大模型和小模型的区别主要体现在以下几个方面: 1. 规模和参数数量:大模型通常具有更多的参数和更复杂的架构,能够处理更大量和更复杂的数据。 2. 能力和性能:大模型在语言理解、生成等任务上往往表现更出色,能够生成更准确、丰富和连贯的内容。 3. 应用场景:大模型适用于广泛的通用任务,而小模型可能更专注于特定的、较狭窄的领域。 并非大模型都属于生成式 AI,小模型都属于判别式 AI。生成式 AI 能够生成新的内容,如文本、图片等;判别式 AI 则主要用于对输入进行分类或判断。模型的分类与其大小并无直接的必然联系。 大模型出现幻觉的原因主要是其通过训练数据猜测下一个输出结果,可能会因错误或不准确的数据导致给出错误的答案。而小模型相对来说数据量和复杂度较低,出现幻觉的情况相对较少,但这并非绝对,还取决于模型的训练质量、数据的准确性等多种因素。优质的数据集对于大模型减少幻觉现象非常重要。
2025-02-21
如果想用AI创作表情包,推荐用什么AI大模型
如果您想用 AI 创作表情包,以下是一些推荐的 AI 大模型及相关平台: 1. MewXAI:这是一款操作简单的 AI 绘画创作平台。其功能包括 MX 绘画,拥有众多超火模型和上百种风格,支持文生图、图生图;MX Cute 是自研的可爱风动漫大模型;MJ 绘画在表情包制作等方面表现出色;还有边缘检测、室内设计、姿态检测、AI 艺术二维码、AI 艺术字等多种功能。访问地址:https://www.mewxai.cn/ 2. 在开发 AI Share Card 插件的过程中,选用的是 GLM4flash 模型。它具有较长的上下文窗口、响应速度快、并发支持高、免费或价格较低等优点。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-21
复杂推理的产品,给模型灌什么能够更好训练推理能力?以及怎么优化模型的推理准确度?
以下是一些能够更好训练模型推理能力以及优化推理准确度的方法: 1. OpenAI 的推理模型通过强化学习进行训练,在训练过程中,模型学会在回答前思考,产生长链的思维过程,并不断尝试不同策略,识别错误,从而能够遵循特定的指导方针和模型政策,提供更有用的回答,避免产生不安全或不适当的内容。 2. 蒙特卡洛树搜索(MCTS)对推理模型有积极影响,例如在数学定理证明中,能探索非确定性证明路径,将解决 IMO 几何题的耗时从传统方法的 30 分钟降至 90 秒;在多跳问答系统中,结合 MCTS 的模型在 HotpotQA 数据集上准确率提升 12%,因其能回溯验证中间推理步骤。 3. 动态知识融合机制方面,传统基于规则的推理无法处理模糊知识,而 MCTS 增强方案在医疗诊断中可将误诊率从纯规则引擎的 23%降至 9%。 4. 资源分配优化方面,在逻辑谜题求解任务中,MCTS + Transformer 能达到 85%准确率且耗时 3 秒,而纯 Transformer 为 62%准确率且耗时 8 秒;在法律条文推导任务中,MCTS + Transformer 有 92%合规性且耗时 5 秒,纯 Transformer 为 88%合规性且耗时 2 秒。 OpenAI 于 9 月 12 日发布的新模型 o1 旨在实现通用复杂推理,通过强化学习和思维链的方式提升推理能力,尤其在数学和编程领域表现出色,但用户反馈显示其实际表现与宣传存在差距,成本高于 GPT4o,且在某些任务上优势不明显,OpenAI 仍在探索如何优化模型的推理性能。
2025-02-21
偏推理型的内容,怎么提升模型的推理深度及准确度?
提升模型推理深度及准确度的方法包括以下几个方面: 1. 扩大模型规模:随着模型规模的扩大,其推理能力会得到提升,类似于 AlphaGo 或 AlphaZero 的工作方式,通过蒙特卡罗推演来修改评估函数,从而提高推理精度。 2. 引入多模态学习:引入图像、视频和声音等多种模式将极大地改变模型的理解和推理能力,特别是在空间理解方面。多模态模型可以通过更多的数据和更少的语言来进行学习。 3. 优化训练方法: RLHF(Reinforcement Learning from Human Feedback):模型在这个过程中的目标是最大程度地获得人类的认可,通过奖励模型来衡量。 结合不同的推理能力提高途径:将生成不同的思维链(CoT)并选择有效路径的方法,与在部署时用大量计算进行推理的方法结合起来。 4. 改进模型结构和算法: 规模和算法是科技进步的关键因素,数据和计算规模具有决定性作用。 在模型之上添加启发式方法或增加模型本身的规模。 此外,Hinton 还提到了一些相关观点,如最合理的模型是将符号转换成大向量并保留符号的表面结构,大型语言模型通过寻找共同的结构来提高编码效率,以及即使训练数据中有错误,大型神经网络也具有超越训练数据的能力等。
2025-02-21
根据户型图生成图片
以下是根据您提供的户型图生成图片的相关方法: 使用 StableDiffusion(SD)生成图片: 1. 设置模型和提示词: 大模型:如 ghostmix_v20Bakedvae。 正向提示词:例如 1girl,solo,long hair,looking at viewer,jewelry,earrings,indoors,bangs,dress,blush,plant,multicolored hair,upper body,shelf,pink eyes,window,potted plant,flower,closed mouth,from side,wavy hair,bare shoulders,sleeveless,pink hair,kitchen,breasts,blue dress,white hair,<lora:Colorful portraits_20230715165729000018:1>。 负向提示词:如 EasyNegative,badhandsv5neg,Subtitles,word。 2. 一口气生成多张图,选择合适的一张,使用差异随机种子进行细节微调。 3. 将满意的图发送到图生图。 4. 使用 tile 和脚本放大。 使用 PS Beta 版本 Firefly lmage 3 模型生成图片: 1. 生成图像: 局部生成图像看起来较自然。 英文关键词生成的结果通常比中文好。 2. 参考图像: 产品外形还原效果一般,颜色还原较好。 3. 调整画笔:功能丰富实用。 4. 生成类似的内容:右侧变化可选择生成类似内容,效果尚可。 5. 生成背景: 有添加背景的 3 种方式,包括生成背景、导入背景和油漆桶。 生成背景效果一般,自动抠图并添加蒙版的功能在处理投影的透明区域时存在不足。 6. 增强细节:先生成一个蝴蝶,点击左上角的增强细节图标,效果有一定提升但不明显。 使用 SD 的 ControlNet 插件生成图片: 1. 以某张图为例,将其导入图生图界面。 2. 根据情况选择大模型,如卡通类选择“revAnimated”,真实类选择“Realistic Vision”,效果不好可尝试其他模型。 3. 图生图中重要参数设置: 缩放模式选择“缩放后填充空白”。 按需求调整尺寸。 单批数量可根据需求填写。 加大“重绘幅度”到 0.8 以上。 4. ControlNet 设置: 升级到最新版本,导入图片。 启用插件,控制类型选择“局部重绘”,预处理器选择“inpaint_only+lama”,控制模式选择“更倾向 Controlnet”,缩放模式选择“缩放后填充空白”。 为使风格统一,可增加 reference_only 通道。 5. 点击生成,选择满意的结果。 6. 试验其他图时,可通过反推提示词增加文本控制,新生成部分可能存在色差,需调整参数修正。 7. 以建筑图为例,使用真实系模型扩展,调整尺寸,将图片分别放入“图生图”和“ControlNet”中,点击生成即可。 请注意,不是每一次生成效果都能非常好,可能需要通过调整各项参数来获得理想的图片。
2025-02-21
最好用的生成 ppt 的 ai 工具
以下是一些好用的生成 PPT 的 AI 工具: 1. MindShow:这是一款 AI 驱动的 PPT 辅助工具,可能提供自动布局、图像选择和文本优化等智能设计功能,目标是简化设计流程,让用户专注于内容表达和创意发挥,还可能包含互动元素和动画效果。网址:https://www.mindshow.fun/ 2. 爱设计 3. 闪击 4. Process ON 5. WPS AI 6. Gamma:在线 PPT 制作网站,允许通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式。网址:https://gamma.app/ 7. 美图 AI PPT:由知名图像编辑软件“美图秀秀”的开发团队推出,允许通过输入简单文本描述生成专业 PPT 设计,包含丰富模板库和设计元素。网址:https://www.xdesign.com/ppt/ 8. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理领域技术优势,提供智能文本生成、语音输入、文档格式化等功能。网址:https://zhiwen.xfyun.cn/ 目前市面上大多数 AI 生成 PPT 按照如下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》
2025-02-21
deekseek生成助手提示词的指令
以下是关于 DeepSeek 生成助手提示词的相关内容: 一、核心原理认知 1. AI 特性定位 多模态理解:支持文本/代码/数学公式混合输入 动态上下文:对话式连续记忆(约 4K tokens 上下文窗口,换算成汉字是 8000 字左右) 任务适应性:可切换创意生成/逻辑推理/数据分析模式 2. 系统响应机制 采用意图识别+内容生成双通道 自动检测 prompt 中的:任务类型/输出格式/知识范围 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感 二、基础指令框架 如果不知道如何表达,还是可以套用框架指令 1. 四要素模板 2. 格式控制语法 强制结构:使用```包裹格式要求 占位符标记:用{{}}标注需填充内容 优先级符号:>表示关键要求,!表示禁止项 三、进阶控制技巧 1. 思维链引导 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差 2. 知识库调用 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破 3. 多模态输出 四、高级调试策略 1. 模糊指令优化 问题类型 修正方案 示例对比 宽泛需求:添加维度约束,原句:“写小说”→修正:“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构” 主观表述:量化标准,原句:“写得专业些”→修正:“符合 IEEE 论文格式,包含 5 项以上行业数据引用” 2. 迭代优化法 首轮生成:获取基础内容 特征强化:请加强第三段的技术细节描述 风格调整:改用学术会议报告语气,添加结论部分 最终校验:检查时间逻辑一致性,列出可能的事实性错误 五、行业应用案例 1. 技术开发场景 2. 商业分析场景 六、异常处理方案 1. 信息幻觉:追加请标注所有不确定陈述,并提供验证方法 2. 格式偏离:使用严格遵循以下模板:第一行...第二行... 3. 深度不足:触发请继续扩展第三章节内容,添加案例佐证 七、效能监测指标 1. 首次响应准确率:目标>75% 2. 多轮对话效率:问题解决平均轮次<3 3. 复杂任务分解:支持 5 级子任务嵌套 此外,还有关于利用 DeepSeek 生成小红书爆款单词视频的相关内容: 1. 生成单词 开始:输入单词主题、图片风格、单词数量。 生成单词数组:选择 deepseekr1 模型,输入单词主题、单词数量,这样 deepseek 就可以为用户输出指定数量的几个单词,以数组方式输出。 2. 角色:您是一个专业的单词生成助手,擅长围绕各种主题挖掘相关英语单词,为用户提供精准且实用的单词、中文、美式音标内容。 3. 技能:输出关联英语单词,当用户输入主题时,分析主题内涵,运用专业知识,输出指定数量个与该主题紧密关联的英语单词、中文翻译、美式音标,将该单词用于一句英文中(不超过 15 个单词),并将这句英文句子翻译成中文句子,并以数组形式呈现。 4. 限制:仅围绕用户输入主题输出相关英语单词、中文翻译、美式音标,不涉及其他领域内容。输出必须为符合要求的数组形式,英文单词对应变量 yingwen,中文翻译对应变量 zhongwen,美式音标对应变量 yinbiao,英文句子对应变量 juzi_yingwen,中文句子翻译对应变量 juzi_zhongwen,不得有其他格式偏差。
2025-02-21
logo生成网站
以下是一些常见的 logo 生成网站: 1. Looka:是一个在线 Logo 设计平台,使用 AI 理解用户的品牌信息和设计偏好,生成多个设计方案供选择和定制。 2. Tailor Brands:AI 驱动的品牌创建工具,通过用户回答问题生成 Logo 选项。 3. Designhill:其 Logo 制作器利用 AI 技术创建个性化设计,用户可选择元素和风格。 4. LogoMakr:提供简单易用的 Logo 设计工具,用户可拖放设计,利用 AI 建议的元素和颜色方案。 5. Canva:广受欢迎的在线设计工具,提供 Logo 设计模板和元素,有 AI 辅助设计建议。 6. LogoAI by Tailor Brands:Tailor Brands 推出的 AI Logo 设计工具,根据输入快速生成方案。 7. 标小智:中文 AI Logo 设计工具,利用人工智能技术帮助创建个性化 Logo。 另外,还有以下网站: 1. Namecheap Logo Maker:在 12 月更新的生成式 AI 年终数据中,其在 Logo 生成领域表现突出。 2. ideogram:海外生图平台,对英文字母生成友好,输入支持中文。使用时可在首页信息流中找到中意款式,点进去 retry 并替换提示词中字母部分。 3. liblib 及 esheep 在线工作流:包括极简 Logo、毛绒风格 Logo、夏日冰冰凉风格 Logo 等,在线工作流方便,适合没有强悍本地主机的朋友。极简 Logo 可进入 https://www.liblib.art/modelinfo/8db352bf5f6b4190841de341cb9eaa0c ;毛绒风格 Logo 可进入 https://www.esheep.com/app/9116?utm_source=app_tab 一键运行;夏日冰冰凉风格 Logo 可进入 https://www.esheep.com/app/8975?utm_source=app_tab 一键运行。 使用这些工具时,用户通常可以根据自己的品牌理念和视觉偏好,通过简单的交互获得一系列设计方案,并进一步定制和优化,直到满意为止。
2025-02-21
ai模特换服装生成视频
以下是为您提供的关于 AI 模特换服装生成视频的相关信息: 阿里巴巴开发了 ViViD 视频虚拟试穿技术,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 。 此外,目前在电商平台上已经有很多商品图片,特别是衣服的效果图是由 AI 生成的,AI 模特不需要像人一样辛苦换衣服和摆 Pose 。
2025-02-21
图像生成的提示词
以下是关于图像生成提示词的相关内容: 1. 藏师傅教您用 AI 三步制作任意公司的周边图片: 第一步:将生成的提示词填入{图像描述}位置,将想生成的周边填入{周边描述}部分。例如:“The pair of images highlights a logo and its realworld use for a hitech farming equipment;this logo is applied as a black and white tattoo on lower back of an inmate”。参考此内容和风格特点创作类似提示词,然后根据{周边描述}设计配套的右侧面板描述,表达“展示同样的内容(可以是角色、标志等)”的意思。 第二步:将第二步的提示词和 Logo 图片放到 Comfyui 工作流,Lora 需要用到 InContext LoRA 中的 visualidentitydesign 从 https://huggingface.co/alivilab/InContextLoRA/tree/main 下载,工作流下载:https://github.com/op7418/Comfyuiworkflow/blob/main/FLUX/Logo%20%E5%91%A8%E8%BE%B9%E7%94%9F%E6%88%90.json 。 相关文件下载: 。 2. “城市狂想”直接上手操作的教程中图片提示词生成: 提供了猫叔之前写的一段提示词的 prompt,例如: 远景,三分法构图,俯视视角,数字绘画,云雾缭绕的山谷,群山连绵起伏,山谷间云雾缭绕,阳光透过云层洒在山间,形成光与影的对比,模拟观众的视线逐渐接近这片土地,新印象派风格特征,使用数字画笔和渐变工具ar 16:9v 6.1 。 远景,中心对称构图,俯视视角,摄影风格,云雾中的山谷,山峦在云雾中若隐若现,山谷中隐约可见的河流蜿蜒流淌,云雾的流动感和山的静态形成对比,现实主义风格特征,使用长焦镜头和景深控制技术ar 3:2v 6.1 。 远景,对角线构图,俯视视角,水墨画风格,云雾缭绕的山谷,山峦线条流畅,云雾以墨色深浅表现,山谷中的云雾仿佛在流动,给人以动态的视觉感受,中国山水画风格特征,使用毛笔和水墨渲染技术ar 2:3v 6.1 。 为大家直接生成了 1 组共 12 段提示词,可直接使用。注意:提示词在悠船和 MJ 中可直接使用,在其他平台工具请复制后删除包含以后的部分。 以悠船为例,进入悠船页面,点击开始想象按钮,粘贴提示词,回车等待几十秒生成 4 张图片,可选择喜欢的图片进行变化、高清、重塑、扩图等操作。变化会生成 4 张新图片,高清选择直接变化不明显,选择强烈会修改细节,重塑分为细微和强烈两种方式,会展现不同画面类型和内容。
2025-02-21
如何让agent协作起来
要让 Agent 协作起来,可以参考以下方法: 1. 了解不同的产品设计模式:生成式 AI 的人机协同分为 Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理)这 3 种模式,每种模式下人与 AI 的协作流程有所差异。其中 Embedding 模式人类完成大多数工作,Copilot 模式人类和 AI 协同工作,Agents 模式 AI 完成大多数工作。 2. 采用 Multiagent Collaboration 的方法:让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。例如作为产品经理,可将产品功能设计需求通过 Agents 拆解成多个独立任务,遵循不同工作流,生成初步结果后再修改完善。 3. 从原子能力层思考:抽象化拆解大模型的底层能力,如翻译、识别、提取、格式化等,围绕“输入”“处理”“输出”“反馈”构建最底层的信息处理逻辑。 4. 重塑获取信息的方式:搜索引擎和基于大模型的聊天机器人的目标从根本上一致,可根据需求选择。 5. 注意多 Agent 模式中的设置:分为全局设置和节点设置。全局设置中更应注意角色定义和人物刻画,节点设置更关注单个智能体中要详细执行的逻辑。 6. 合理编排智能体:将智能体编排首尾相连,避免成为线性工作流。 7. 明确跳转模式和适用场景:单个 Agent 中两种跳转模式分别适用于通用和复杂的意图识别和跳转,一般场景下前者效果更好,后者适用更复杂的意图识别情景。同时,编排时应明确单个 Agent 的名称和适用场景,以便节点跳转模型更好地识别触发条件。
2025-02-19
如何让老照片动起来
以下是一些让老照片动起来的方法和相关信息: 1. 参加“时光印记”AI 公益挑战赛:该挑战赛采集了杨浦 20 位老一辈建设者老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s。报名及创作时间为即日起至 2024 年 11 月 20 日。参赛方式为填写报名问卷和进群获取素材。 2. 使用 Dreamina 即梦工具:不需要🪜,每天有免费额度。注册可用抖音号或手机号,上传照片即可尝试让老照片动起来。 3. 使用 Sora 工具:优点是发布的成果好,集成在 openai 一套里可用,但需要🪜,需要 gmail 注册,需要订阅后才能使用。
2025-02-14
我想让公司做内容的同时用起来AI工具做好小红书和公众号的内容
以下是关于在公司做小红书和公众号内容时使用 AI 工具的相关信息: 1. 卓 sir 利用 AI 工具完成 PPT 作业的经验: 卓 sir 在时间紧迫的情况下,出于对 AI 提效的好奇,决定自己先用 AI 工具完成电子商务组队的 PPT 汇报作业。 探索写 prompt 花费了 3 个小时,但最终成功完成了包括大纲内容、排版、动画等的 PPT,认为加上企业背景图片即可提交。 用到的 AI 工具为 GPT4、WPS AI 和 chatPPT。 2. 12 月 25 日的 AI 资讯: Recraft AI 更新了 60 种新的图像风格,是一款可用于生成和编辑插画、海报、产品周边等的 AI 平面设计工具,对所有用户每日都有免费试用点数,并允许对生成的图像进行商业使用。地址:https://www.recraft.ai/ AI 公文智能体“学习强国公文助手”在文小言 APP 正式上线,可以帮助用户进行文汇检索、AI 公文书写、AI 公文润色等。使用方式:下载文小言 APP,找寻学习强国公文助手。 3. 关于生成式 AI 内容的思考: 汉青老师分享提到生成式 AI 的内容仍和传统社交媒体内容共存,短期内可能因新鲜感获流量红利,但人们最终在意的仍是高质量内容。 虽掌握了各种先进工具,但应更关注内容,认真感受真实世界和身边普通人。对于如何与 AI 结合还没想好,需慢慢思考。 希望以上信息对您在公司利用 AI 工具做小红书和公众号内容有所帮助。
2025-02-08
我在一周前的文章[1]里说对 DeepSeek-R1 只需要说大白话,但在三天前的文章[2]里又用了看起来还挺复杂的结构化提示词。有伙伴问我到底咋回事。这就来解释下喽。
以下是关于 DeepSeekR1 提示词的相关信息: 历史更新: 字节跳动推出新技术 OmniHuman,利用单张图片和音频生成生动视频。 DeepSeek 的出现标志着算力效率拐点显现,其优化算法架构提升算力利用效率,AI 基础大模型参数量迎来拐点,2025 年是算法变革元年,其训练过程聚焦强化学习提升推理能力。 提示词方法论: 核心原理认知:包括多模态理解、动态上下文、任务适应性等 AI 特性定位,以及采用意图识别+内容生成双通道处理等系统响应机制。 基础指令框架:包括四要素模板、格式控制语法等。 进阶控制技巧:如思维链引导、知识库调用、多模态输出。 高级调试策略:包括模糊指令优化、迭代优化法。 行业应用案例:涵盖技术开发场景、商业分析场景。 异常处理方案:如处理信息幻觉、格式偏离、深度不足等情况。 效能监测指标:包括首次响应准确率、多轮对话效率、复杂任务分解等。 在 R1 时代,使用 AI 提示词关键在于提供足够背景信息,简单大白话有效但信息量不足难达理想结果,示例和框架可助理清思路,最终影响在于思考和表达,利用乔哈里视窗分析信息需求,避免过度指令化,让 AI 自由思考以激发更高创意和效果。
2025-02-07
让图片动起来
以下是关于让图片动起来的相关内容: 关于生成式 AI 的内容承载,短期内可能因新鲜感获流量红利,但人们最终在意的仍是高质量内容。我们掌握了各种先进工具,如让老照片动起来等,但关键是如何更好地结合两张照片。 实现让图片中人物动起来及两张照片更好结合的方法: 方法一:利用 MJ 画图得到想要的底图,使用 InsightFaceSwap 插件处理脸部(因对多人脸部同时处理效果不好,需先分割裁剪图片分别处理再缝合),最后用可灵或其他软件让图片动起来。 方法二:在网上寻找能直接融合两张照片的软件或项目,若没有则纯 P 图,然后用图生视频的项目完成。 使用 Camera Motion 让图片动起来的步骤: 上传图片:点击“AddImage”。 输入提示词:在“Prompt”中输入。 设置运镜方向:选择想要的方向,输入运镜值。 设置运动幅度:与画面主体运动幅度有关,可任意设置。 其它:选择好种子、是否高清、是否去除水印。 生成视频:点击“create”。
2025-01-12
你能让图片动起来么?
要让图片动起来,可以通过以下几种方法: 1. 方法一: 利用 MJ 画图绘制想要的底图。 使用 InsightFaceSwap 插件进行换脸或让脸部更像,但因该插件对多人脸部同时处理效果不佳,需先对图片进行分割裁剪,分别处理后再缝合。 最后使用可灵或其他软件让图片动起来。 2. 方法二: 在网上寻找能够融合两张照片的软件或项目,直接对图片进行融合。若没有,则进行纯 P 图处理,然后利用图生视频的项目完成。 此外,还有一些相关的工具和技巧: 工具“清影”:输入一张图片和相应提示词,清影大模型会将图片转变为视频画面。也可以只输入图片,让模型自行发挥想象力生成有故事的视频。 技巧 1:选用清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。若原图不够清晰,可使用分辨率提升工具。 技巧 2:提示词要简单清晰。可以选择不写 prompt,让模型自行操控图片动起来;或者明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词。 工具“Camera Motion”: 上传图片:点击“AddImage”。 输入提示词:在“Prompt”中输入。 设置运镜方向:选择想要的运镜方向。 设置运动幅度:与画面主体运动幅度有关,与运镜大小无关,可设置任意值。 其他:选择好种子(seed)、是否高清(HD Quality)、是否去除水印(Remove Watermark)。 生成视频:点击“create”。
2025-01-08