Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

生图后,人物的模样及服装等统一,用哪一款

Answer

在保持人物模样及服装等统一方面,如果使用 Midjourney ,有以下相关信息:

  1. Midjourney 有新功能 Cref ,可以先跑一张主角的定妆照,在需要出现主角人物的地方,扔进去 Cref 以保持发型、人脸、衣服。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,比对欧美的人脸的一致性效果差,年轻人的效果相对较好,亚洲老人的效果惨不忍睹。而且 Cref 的效果在画面的审美和构图上有一定的破坏性,所以原则上能不用 Cref 就不用,比如只有背影的时候,写个短发男人黑卫衣就可以。
  2. 对于人物一致性,还有两个取巧的方式,一个是生成动物,动物会比较容易保持一致性,另一个方式是特定的名人或有特殊属性的人物。
  3. 在使用 Cref 时,您可以在提示词后添加 --cref URL 并附上人物图像的 URL ,还可以使用 --cw 来修改参考强度,强度 100(--cw 100)为默认值,会使用人物的脸、头发和衣服,强度 0(--cw 0)时则只关注脸(适合改变服装或发型等)。Cref 不仅适用于 Niji 和普通的 Midjourney 模型,还可以与 --sref 结合使用。在网页版 alpha 中,您可以通过拖拽或粘贴图像到想象栏,选择相应图标来设置图像为图像提示、风格参考或人物参考,Shift + 选择一个选项可以将一张图像用于多个类别。
Content generated by AI large model, please carefully verify (powered by aily)

References

卡兹克:我们花了10天时间,给CCTV6做了一部AI短片 - 5000字全流程复盘拆解

[title]卡兹克:我们花了10天时间,给CCTV6做了一部AI短片- 5000字全流程复盘拆解[heading1]三.AI生图在图片生成上,我们依然用的是Midjourney,原因依然单纯的很简单:我要的电影感和审美,只有Midjourney可以做出来。很多人问,画面的电影感到底怎么做出来,为什么我的图总是一股子AI感。其实挺简单的,画面的电影感无非就是几个点:画幅,审美、色调、构图、光影、景深等等。我最喜欢用的画幅比例就是,21:9。画幅的比例是会影响生图的构图和光影的,21:9,是出电影感最好的比例。同时在Prompt里,也可以加电影的专用摄影机,比如RED Helium 8K等等。而我们的整体Prompt风格后缀:________.Shot on Sony Venice 2,muted color tones,green and dark gray,award-winning composition,cinematic scene --ar 21:9而在人物一致性上,在有了Midjourney的新功能Cref以后,其实就非常简单了。我们直接先跑了一张主角的定妆照。然后在需要出现主角人物的地方,扔进去Cref。保持发型、人脸、衣服。坦率的讲,Midjourney对亚洲人脸的Cref一致性,要比对欧美的人脸的一致性效果差太多太多了,年轻人还好点,亚洲老人简直惨不忍睹。而且Cref的效果,在画面的审美和构图上,其实是有一定的破坏性的,所以在原则上,是能不用Cref就不用Cref,比如只有背影的时候,写个短发男人黑卫衣就完事了。这是人物一致性,而场景一致性,目前基本上还没有任何解决办法,纯粹随缘。roll的大差不差也就那样了。

前Sora时代我最想做的AI短片——使用Pika、Pixverse、Runway、SVD四大AI视频工具

[title]前Sora时代我最想做的AI短片——使用Pika、Pixverse、Runway、SVD四大AI视频工具更多写剧本的方法、小技巧、格式还有软件,希望后面有时间可以多写一些。照例,先放上我写的分镜,这是非常粗糙且不规范的分镜,正常的分镜是要更仔细的,所以大家凑活看。与上一次制作不同的是,因为更了解AI生图的局限,所以我这次写的分镜,有百分之八十都用上了。也算提高了效率,但还是写得太粗糙了,下次尽量按照正规格式写得准确一些,如果我的肝还好的话(主要是就只有我和Zoik看就有点偷懒了)……给大家推荐一些编剧相关的书,虽然我觉得写短片看这些书还是太多了,但基本涵盖了常见的剧作书,供参考吧~其实也不用看这么多书,只不过我看到同类型的书就想买来对比,没时间的话,看《救猫咪》或《电影剧本写作基础》的第一册就行。主要还是练习,写。第二步,生图这次生图,我明显感觉到Midjourney的语义理解比之前好了很多。很多人在生图上都遇到了人物和场景一致性的问题。有两个取巧的方式,一个是像我上个视频一样生成动物,动物会比较容易保持一致性,另一个方式是特定的名人/或者有特殊属性的人物。这次我们用的是第二种方式。首先,先确定好影片风格,这次用的是皮克斯动画风格。真的不是我们不做其他题材,是因为这个故事比较适合用动画呈现,后面的片子我们会多尝试别的题材风格。其次,先确定好人物形象。短片有两个主要角色,角色一:扎马尾、穿白色T恤、穿牛仔裤的14岁女孩;角色二:戴眼镜、灰色头发、穿灰色短衬衫的50岁男人。

Midjourney 人物一致性已上线

[title]Midjourney人物一致性已上线DavidH:Hey @everyone @here we're testing a new"Character Reference"feature today This is similar to the"Style Reference"feature,except instead of matching a reference style it tries to make the character match a"Character Reference"image.How it worksType --cref URL after your prompt with a URL to an image of a characterYou can use --cw to modify reference 'strength' from 100 to 0strength 100(--cw 100)is default and uses the face,hair,and clothesAt strength 0(--cw 0)it'll just focus on face(good for changing outfits / hair etc)What it's meant forThis feature works best when using characters made from Midjourney images.It's not designed for real people / photos(and will likely distort them as regular image prompts do)Cref works similarly to regular image prompts except it 'focuses' on the character traitsThe precision of this technique is limited,it won't copy exact dimples / freckles / or tshirt logos.Cref works for both Niji and normal MJ models and also can be combined with --srefAdvanced FeaturesYou can use more than one URL to blend the information /characters from multiple images like this --cref URL1 URL2(this is similar to multiple image or style prompts)How does it work on the web alpha?Drag or paste an image into the imagine bar,it now has three icons.selecting these sets whether it is an image prompt,a style reference,or a character reference.Shift+select an option to use an image for multiple categoriesRemember,while MJ V6 is in alpha this and other features may change suddenly,but V6 official beta is coming soon.We'd love everyone's thoughts in ⁠ideas-and-features We hope you enjoy this early release and hope it helps you play with building stories and worlds

Others are asking
Ai生图和生视频和电脑算力的关系
AI 生图和生视频与电脑算力密切相关。 在生成图像和视频的过程中,需要强大的算力来处理复杂的计算任务。例如,像 PIKA1.0 这样的模型,在文生图和文生视频方面表现出色,其高质量和稳定性的输出依赖于足够的算力支持。 拥有大规模 GPU 集群、超算集群、云渲染平台等强大算力资源的企业或个人,能够更高效地完成生图和生视频的任务。 同时,未来算力的重点将从训练模型转向增强推理能力,这也将对 AI 生图和生视频的发展产生重要影响。 此外,一些新的模型和技术不断涌现,如 o1 推理模型,其在给出最终结果前会反复推演和验证,以提供更准确的结果。而像 OpenAI 发布会公布的 Sora v2 功能,能够生成 1 分钟长度的视频,并支持多种形式的转换,提升了多媒体创作的灵活性。 总之,电脑算力是实现高质量 AI 生图和生视频的重要支撑和保障。
2025-02-17
有哪些免费的文生图中文软件
以下是一些免费的文生图中文软件: 1. 豆包 App 支持文生图中文文字生成。 2. Stability AI 推出的基于 Discord 的媒体生成和编辑工具可用于文生图,您可以通过以下步骤使用: 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion 。 进入 ARTISAN 频道,任意选择一个频道。 输入/dream 会提示您没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,会免费试用三天,三天后开始收费。输入/dream 提示词,这部分和 MJ 类似,可选参数有五类,包括提示词(必填项)、负面提示词(选填项)、种子值(选填项)、长宽比(选填项)、模型选择(选填项)、张数(选填项)。完成后选择其中一张。 3. 您还可以参考以下教程: SD 做中文文字生成的教程: 找到一款喜欢的字体,写上主题例如“端午”。 打开 SD,选择文生图,输入关键词咒语。 打开 Controlnet,启用 lineart 和 canny 固定字体,如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:29 60 。 直接生成。这里可以举一反三,选择一些水果模型,珠宝模型,毛毡等等快来试一试吧,附免费参数。
2025-02-16
免费的中文软件 文生图
以下为免费的中文文生图软件 Stable Diffusion 的相关信息: 公司介绍:相比较于 DALLE 等大模型,Stable Diffusion 让用户使用消费级的显卡便能够迅速实现文生图。它完全免费开源,所有代码均在 GitHub 上公开,大家可以拷贝使用。其第一个版本训练耗资 60 万美元,资金支持来自成立于 2020 年的 Stability AI 公司,创始人兼 CEO 是 Emad Mostaque。 文生图使用: 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion 。 进入 ARTISAN 频道,任意选择一个频道。 输入/dream 会提示没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,会免费试用三天,三天后开始收费。 输入/dream 提示词,这部分和 MJ 类似。 可选参数有五类: prompt(提示词):正常文字输入,必填项。 negative_prompt(负面提示词):填写负面提示词,选填项。 seed(种子值):可以自己填,选填项。 aspect(长宽比):选填项。 model(模型选择):SD3,Core 两种可选,选填项。 Images(张数):1 4 张,选填项。 教程示例: 作者: 作者 步骤: 1. 找到一款喜欢的字体,写上主题例如“端午”。 2. 打开 SD,选择文生图,输入关键词咒语。 3. 打开 Controlnet,启用 lineart 和 canny 固定字体,如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 4. 打开高清修复,分辨率联系 1024 以上,步数:29 60 。 5. 直接生成就搞定啦。这里可以举一反三,选择一些水果模型,珠宝模型,毛毡等等快来试一试吧。 6. 附免费参数: Checkpoint:Chilloutmix Controlnet:lineart + canny + depth 正向咒语:watermelon,Art fonts,masterpiece,best quality,Smile,Lensoriented 反向咒语:NSFW,Cleavage,Pubic Hair,Nudity,Naked,Au naturel,Watermark,Text,censored,deformed,bad anatomy,disfigured,poorly drawn face,mutated,extra limb,ugly,poorly drawn hands,missing limb,floating limbs,disconnected limbs,disconnected head,malformed hands,long neck,mutated hands and fingers,bad hands,missing fingers,cropped,worst quality,low quality,mutation,poorly drawn,huge calf,bad hands,fused hand,missing hand,disappearing arms,disappearing thigh,disappearing calf,disappearing legs,missing fingers,fused fingers,abnormal eye proportion,Abnormal hands
2025-02-16
文生图
以下是关于文生图的详细教程: 定主题:确定您需要生成的图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型,如麦橘写实、麦橘男团、墨幽人造人等。 选择 lora:基于生成内容寻找重叠的 lora,以控制图片效果和质量,可参考广场上优秀帖子中使用的 lora。 ControlNet:可控制图片中特定图像,如人物姿态、特定文字、艺术化二维码等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:无脑选择 840000 即可。 Prompt 提示词:用英文书写想要 AI 生成的内容,使用单词和短语组合,无需管语法,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文书写想要 AI 避免产生的内容,同样是单词和短语组合,用英文半角逗号隔开。 采样算法:一般选择 DPM++2M Karras 较多,也可参考 checkpoint 详情页中模型作者推荐的采样器。 采样次数:选择 DPM++2M Karras 时,采样次数通常在 30 40 之间。 尺寸:根据个人喜好和需求选择。 在不同的工具中,如 Tusiart 和 Liblibai,操作流程大致相同,但在一些细节上可能有所差异: Tusiart: 定主题 选择 Checkpoint 选择 lora ControlNet(高阶技能,后续学习) 局部重绘(下篇再教) 设置 VAE Prompt 提示词 负向提示词 Negative Prompt 采样算法 采样次数 尺寸 Liblibai: 定主题 选择 Checkpoint 选择 lora 设置 VAE CLIP 跳过层(设为 2) Prompt 提示词 负向提示词 Negative Prompt 采样方法 迭代步数 尺寸 生成批次(默认 1 批)
2025-02-16
普通人学习ai生图方式
以下是为普通人提供的学习 AI 生图的相关内容: 如何判断一张图片是否 AI 生成: 当我们接触的 AI 制品增多,可通过“整体看光影,细节看结构”的技术要点来找出画面 bug。通过大量分析 AIGC 画作,人们会在脑中形成“判断模型”,但起初可能“知其然,不知其所以然”。从本质上看,人类绘画创作是线性发展,而 AI 是以积累数据、扩散噪声、再降噪收束的路径生图,会导致同一张图呈现不同绘画级别的细节。 Liblibai 简易上手教程: 1. 首页模型广场:展示其他用户的模型,可查看详情、收藏并用于生图。 2. Checkpoint:生图必需的基础模型,必选。 3. Lora:低阶自适应模型,类似 Checkpoint 的小插件,可有可无,用于控制细节。 4. VAE:编码器,类似滤镜,调整生图饱和度,可无脑选 840000。 5. CLIP 跳过层:用于生成图片后控制、调整构图变化,一般设为 2。 6. Prompt 提示词:想要 AI 生成的内容。 7. 负向提示词 Negative Prompt:想要 AI 避免产生的内容。 8. 采样方法:选择让 AI 生图的算法。 AI 线上绘画教程: 如果需要大量商用且具艺术美感的图片,AI 生图是高效办法。主流工具如 midjourney 付费成本高,stable diffusion 硬件门槛不低,可选择免费在线 SD 工具网站如。本教程适用于入门玩家,旨在让读者半小时内自由上手创作绘图。
2025-02-14
图生图, 如何保持幻想生物形象一致性
要在图生图中保持幻想生物形象的一致性,可以参考以下方法: 1. 对于 Midjourney ,可以采用特定的名人或有特殊属性的人物形象,先确定好影片风格,比如皮克斯动画风格,然后确定好人物形象,如角色的发型、穿着等细节。 2. 利用 Midjourney 的新功能 Cref ,先跑一张主角的定妆照,在需要出现主角人物的地方扔进去 Cref ,以保持发型、人脸、衣服等的一致性。但需要注意的是,Midjourney 对亚洲人脸的 Cref 一致性,尤其是亚洲老人的一致性效果相对较差,且 Cref 在画面的审美和构图上有一定的破坏性,所以原则上能不用就不用,比如只有背影时,简单描述即可。 3. 生成动物形象,动物相对更容易保持一致性。
2025-02-14
我需要一款免费的AI软件 可以帮助我将网课视频内容进行深度总结,并形成听课笔记和思维导图
以下为您推荐两款可能满足您需求的免费 AI 软件: 1. 360AI 浏览器: 功能 1:看长视频,敲黑板划重点。可以帮您观看 B 站的字幕视频,短短几秒就能总结概要生成脑图,告诉您视频的重点和高潮剧情在哪。例如用 360AI 浏览器观看《2007 年 iPhone 发布会》,能生成内容摘要和思维导图,视频全程 20 个看点,点击其中任一看点,就能定位到进度条对应位置,直接观看感兴趣的重点内容。还可以对英文字幕进行翻译,帮助您理解内容。同时可通过 AI 助手对话,就视频内容进行追问和扩展提问。 功能 2:阅读国内外长论文和著作,自动翻译自动提炼,3 分钟 get 要点。目前支持 360k 长文本阅读。以《三体》为例,360AI 浏览器可以呈现《三体》两册完整的故事框架,还支持生成思维导图。 官网地址:ai.se.360.cn 2. Boardmix 博思 AI 白板:在 12 月数据国内总榜中,其属于思维导图分类。
2025-02-14
推荐一款抠图AI
以下为您推荐几款抠图 AI 工具: 1. Remove:可以直接抠图,也可以安装在 PS 里进行操作,图片上传即可抠图,可用于制作一些素材。 2. 吉梦智能画板:具有消除、图层、一键抠图等功能,抠图效果较好。 3. Segment Anything:Figma 抠图插件,能够在几秒钟内仅保留或去除图像背景,利用了 Mate 的 SAM 模型的能力。
2025-02-14
有没有一款ai工具,能提取大的文档的主要内容
以下是一些能够提取大文档主要内容的 AI 工具: 1. Claude:可以快速寻找符合条件的论文,提取精炼论文中某部分信息,还能对论文主要内容做摘要。 2. Gamma.app:能帮助制作 PPT。 3. BigModel 智谱 AI 大模型开放平台:能够对招投标文件等包含大量复杂信息的文档进行关键数据提取。 此外,在论文写作领域,也有一些相关的 AI 工具: 1. 文献管理和搜索:Zotero 能自动提取文献信息,Semantic Scholar 是 AI 驱动的学术搜索引擎。 2. 内容生成和辅助写作:Grammarly 提供文本校对等帮助,Quillbot 可重写和摘要。 3. 研究和数据分析:Google Colab 支持 AI 和机器学习研究,Knitro 用于数学建模和优化。 4. 论文结构和格式:LaTeX 结合自动化处理格式,Overleaf 是在线 LaTeX 编辑器。 5. 研究伦理和抄袭检测:Turnitin 和 Crossref Similarity Check 可检测抄袭。 使用这些工具时,应结合自身需求和写作风格选择合适的辅助工具。
2025-02-10
开发一款AI产品怎么入手
开发一款 AI 产品可以从以下几个方面入手: 1. 明确技术方案,封装 API 调用提示词: 在成功验证纯提示词方案后,进入产品化开发阶段。 借助 Cursor、Windsurf 等 AI 编程工具,实现插件效果。 产品化开发需考虑稳定获取网页内容、选择适合的 AI 大模型 API 服务、构建生产级提示词等问题。 稳定获取网页内容可通过用户浏览器以插件形式本地提取,例如让 AI 设计获取相关元素的 js 代码。 2. 对 AI 产品经理的要求: 入门级:能通过开源网站或课程了解 AI 概念,使用并实践应用搭建。 研究级:包括技术研究和商业化研究路径,能根据需求场景选择解决方案,或利用工具手搓出 AI 应用验证想法。 落地应用级:有成功落地应用案例并产生商业化价值。 总结来说,AI 产品经理要懂得技术框架,关注场景、痛点、价值。 3. 创新产品和服务: 探索基于 AI 的新产品或服务:调查分析市场需求,鼓励创新思维,开发原型并测试。 利用 AI 技术提升现有产品的智能化程度:识别可优化部分,改善用户界面和交互体验,基于反馈不断迭代更新。 通过以上策略,有助于开发出具有创新性和竞争力的 AI 产品。
2025-02-09
请直接给我推荐一款好用的分析文档的AI网站或app
目前在分析文档方面,有一些不错的 AI 网站和 APP 可供选择。例如,ChatDOC 网站,它能够快速理解和分析文档内容,并回答您的相关问题。还有豆包 APP,也具备一定的文档分析能力。不过,具体哪一款最适合您,还需要根据您的具体需求和使用习惯来决定。
2025-02-09
哪一款免费的文生视频工具最好用
以下是一些免费的文生视频工具推荐: 1. Pika:是一款出色的文本生成视频AI工具,擅长动画制作,并支持视频编辑。 网址:https://pika.art/ https://discord.gg/pika 教程: 2. SVD:如果熟悉Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由Stability AI开源的video model。 3. Kaiber:这是一款视频转视频AI,能够将原视频转换成各种风格的视频。 网址:https://kaiber.ai/ 4. Hidreamai(国内,有免费额度): 网址:https://hidreamai.com//AiVideo 特点:支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成5s和15s的视频 5. ETNA(国内): 网址:https://etna.7volcanoes.com/ 特点:是一款由七火山科技开发的文生视频AI模型,可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在8~15秒,画质可达到4K,最高38402160,画面细腻逼真,帧率60fps。支持中文,时空理解 更多的文生视频的网站可以查看这里: 需要注意的是,这些工具均适合于不同的使用场景和需求,您可以根据自己的具体情况进行选择。内容由AI大模型生成,请仔细甄别。
2025-02-06
sd 人物的模样及服装等统一
以下是关于人物模样及服装的 SD 关键词描述: 人物类型:肌肉公主、舞者、啦啦队等。 性别:单人,包括女人和男人。 身体特征:有光泽的皮肤、苍白皮肤、白皙皮肤等。 头发样式:直发、卷发、波浪卷等。 头发颜色:挑染、内层挑染、头发内变色等。 头发长度:长发、很短的头发、短发等。 具体人物:初音未来、绫波(碧蓝航线)、比那名居天子、蛮啾(碧蓝航线)、爱宕、时崎狂三、洛琪希、西住美穗、星街彗星、时雨、蒂法·洛克哈特、中野一花、南达科他州(碧蓝航线)、白上吹雪、白井黑子、岛风等。 发型特点:身前,单侧编发,人妻发型;挑染,条纹发色;短碎发等。 面部特征:死鱼眼、晒痕、眼睛发光、垂耳(狗)等。
2024-11-20
请推荐一款,可以快速生成电商服装模特的ai工具
以下为您推荐几款可快速生成电商服装模特的 AI 工具: 1. Stable Diffusion:如果您要开淘宝网店,可借助它初步制作展示商品。比如卖绿色淑女裙,先真人穿衣服拍照,处理好照片,选好 realisitic 真人照片风格的底模,再根据不同平台换头,通过图生图下的局部重绘选项卡涂抹替换部分,并设置好 prompts&parameters。 2. ComfyUI:这个工作流适用于电商服饰行业的换装、虚拟试穿等场景。首先生成适合服装的模特,可抽卡抽到满意的模特,加入 Redux 模型,强度不用太高,让提示词生效。然后进行高精度的换装,先预处理拼出 mask,再重绘 mask 区域。 3. 达摩院:支持虚拟换装、姿态编辑,您可以直接在 https://damovision.com/?spm=5176.29779342.d_appmarket.6.62e929a4w3xGCR 进行测试。
2025-02-02
服装设计用什么AI
在服装设计领域,以下 AI 工具和应用较为常见: 1. DALLE 2:Stitch Fix 服装公司使用它根据客户对颜色、面料和款式的偏好创建服装可视化。 2. Midjourney:在“海岱青州”晚会项目中,服装部门利用它为本地神兽“峱”生成最终演出服的设定图。 3. AIGC:可用于基于 AIGC 的服装概念设计。
2025-01-09
服装设计用什么AI
在服装设计领域,以下 AI 工具和应用较为常见: 1. DALLE 2 等图像生成工具:如服装公司 Stitch Fix 用其根据客户对颜色、面料和款式的偏好创建服装可视化。 2. Midjourney:在“海岱青州”晚会项目中,服装部门利用 Midjourney 为本地神兽“峱”生成最终演出服的设定图。 3. AIGC:基于 AIGC 可以进行服装概念设计,它正在逐步改变服装行业。
2025-01-08
Midjourney+sd可以生成服装模特视频么
Midjourney 和 SD 可以用于生成服装模特视频。以下是一些常见的方法: 1. 方法 1【MJ 出图 + AI 视频软件】:使用 Midjourney 垫图➕描述出图,再去视频工具中转成视频。下载项里的深度图,打开 Midjourney 官网(https://www.midjourney.com/)上传深度图。局部重绘有难度,最终方式可以是分开画,比如先画个被关着的红衣服女孩,再画个二战德国士兵的背影,再合成后交给 MJ。 2. 方法 3【SD 出图 + AI 视频软件】:在 SD 的 controlnet 中上传原图,选择深度,文生图生成图片,再把生成好的图放在 AI 视频工具中进行视频生成。 同时,您还可以参考以下视频工具建议: 。另外,使用 Dreamina 图片生成功能(https://dreamina.jianying.com/aitool/image/generate)上传深度图,选择适应画布比例并填写描述,也可以实现深度图出图和出视频。
2025-01-06
ai生成服装模特视频
以下是一些与生成服装模特视频相关的 AI 技术和应用: 1. ViViD 视频虚拟试穿技术:由阿里巴巴开发,可以替换视频中人物的衣服,生成真实自然的视频,支持多种服装类型,在视觉质量、时间一致性和细节保留方面表现优异。相关链接:https://x.com/imxiaohu/status/1796019244678906340 2. 生成式人工智能在营销中的应用:Stitch Fix 是一家服装公司,已使用 AI 向客户推荐特定服装,并正在尝试使用 DALLE 2 根据客户对颜色、面料和款式的偏好创建服装可视化。 此外,还有一些其他相关的 AI 技术,如: 1. 山寨版阿里 Animate Anyone 开源:利用图像和视频中的人物姿势来合成动画,Novita AI 开源并提供 API 支持,提供照片和视频即可自动生成动画。相关链接:GitHub:https://github.com/novitalabs/AnimateAnyone ;API:https://novita.ai/playgroundanimateanyone ;https://x.com/imxiaohu/status/1796191458052944072 2. 音频生成方面,有 Udio130 音乐生成模型,能生成 2 分钟的音频,提升曲目连贯性和结构,新增高级控制功能。相关链接:详细:https://xiaohu.ai/p/8738 ;https://x.com/imxiaohu/status/1795999902830629249 3. 代码生成方面,有 Mistral AI 推出的 Codestral 代码生成模型,支持 80 多种编程语言,包括 Python、Java、C 等,能自动完成代码、编写测试,并能填补未完成的代码部分,拥有 32k 上下文窗口,在多项基准测试中表现出色。相关链接:详细:https://mistral.ai/news/codestral/ ;https://x.com/imxiaohu/status/1795987350713192937 4. 音乐演示方面,有 Suno 音乐演示,新视频展示从任何声音创作歌曲。相关链接:https://x.com/imxiaohu/status/1795976717905043467
2025-01-06
ai生成服装模特图的工具
以下是一些可以生成服装模特图的工具: 1. DALLE 2:已被用于广告,如亨氏、雀巢、Stitch Fix 等公司的相关应用。Stitch Fix 正在尝试使用它根据客户对颜色、面料和款式的偏好创建服装可视化。 2. 可以使用万能固定句式来生成服装模特图,如“「主题」+「风格」+「材质」+「元素」+「玄学佐料」”,并通过具体的示例和咒语关键词来实现,如“Chinese dress”。 3. TryOffDiff:能够逆向打造服装图片,将衣服从照片中“摘取”生成标准化服装图,保留图案、褶皱、徽标等精细细节,适用于商品目录制作及电商平台服装展示需求。详细介绍:
2025-01-06