直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

stable diffusion 绘画

回答

以下是关于 Stable Diffusion 绘画的相关内容:

如果您是运营网店的女装店主,在没有资金请模特的情况下,可以用 Stable Diffusion 来制作商品展示图。具体步骤如下:

  1. 真人穿衣服拍照,并获取具有真实质感的照片。若身材方面有问题,可借助美图秀秀或 PS 处理。
  2. 选好底模,一定要是 realistic 的、真人照片风格的底模,如 majicmixRealistic_v7。
  3. 进行换头操作,根据不同平台需求更换,如面向海外市场换白女头,面向中老妇女换妈妈头。
  4. 在图生图下的局部重绘选项卡下涂抹自己替换的部分,并设置好 prompts 和 parameters,如“breathtaking cinematic photo, masterpiece, best quality, (photorealistic:1.33), blonde hair, silver necklace, carrying a white bag, standing, full body, detailed face, big eyes, detailed hands”。

关于 Stable Diffusion 的工作原理,就像学习画画临摹梵高的作品一样。您花四十年学习的梵高风格相当于 Stable Diffusion 的大模型——Checkpoint。人们将成千上万美术风格的作品练成模型放入 AI 中,AI 就能依照模型画出类似风格的作品。要画出符合心意的作品,首先要选对合适的大模型。大模型可在 C 站(https://civitai.com/)下载,但需要科学上网。有真实系的(Chillmixout)、二次元的(anything)、游戏 CG 风(ReV Animated)等。

用 Stable Diffusion 时,可以把自己想象成画家。在起笔前要确定照片风格,如二次元动漫、三次元现实照片或盲盒模型。确定风格后切换大模型,不同模型代表不同照片风格,即 SD 界面左上角的“Stable Diffusion 模型”。若想生成真人 AI 小姐姐,可选用 chilloutmix 的大模型。关于模型的获取和存放位置,后续会详细介绍。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

我用Stable Diffusion做电商!

如果你要开淘宝网店,那么在淘宝网页上展示的商品就要漂亮精致,紧紧抓住消费者的心♥!我们可以借助AI作图工具,简单地代替请模特特地搞拍摄的过程啦!这里介绍很简单的利用AI绘画局部逐渐美化女装商品展示图的方法。我是运营网店的女装店主,我没有钱请模特了。。。我可以用stable diffusion来初步制作自己的展示商品!比如我这里要卖这个绿色的淑女裙。(左图)我尝试了直接拿真人穿的衣服抠出来生成,效果很不好。(右图)借鉴了一些视频和方法,我总结了一些我觉得实用性较高,也比较简单的步骤。我觉得局部重绘是比较合适和真实的方法。真人穿衣服拍照。拿到穿衣服的比较真实质感的照片。【如果是身材方面有点难处那就借助美图秀秀or ps吧】ok,比如我(不具有做模特资质的小美女)穿好了我卖的漂亮衣服摆好pose摆几张啦!选好底模!一定要是realistic的,真人照片风格的底模。我这里选的是很经典的majicmixRealistic_v7。换头,根据不同平台换头!比如面向海外市场的,就得换白女头吧。面向中老妇女的,换妈妈头。ok,我这里换白女头,比如我要放在亚马逊上卖。操作就是图生图下的局部重绘选项卡下涂抹自己替换的部分。prompts & parametersbreathtaking cinematic photo,masterpiece,best quality,(photorealistic:1.33),blonde hair,silver necklace,carrying a white bag,standing,full body,detailed face,big eyes,detailed hands,

【SD】软件原理傻瓜级理解

首先是关于Stable Diffusion的工作原理,就好比你现在想学画画,学梵高的风格,那么你肯定要先去看梵高的画,然后一幅幅的临摹。一幅画起码要临摹个一百遍吧,从一开始完全不像,到慢慢找到要领,要想画到出神入化以假乱真的地步,一个月的时间够短了吧。梵高一生有接近500幅画,全部学完大概四十年吧,然后你就可以开始接单画梵高风格的画了。当然,客户的要求肯定不是让你画一模一样的梵高《向日葵》,而是说我要一幅梵高的《西瓜》,并且考虑到你已经很熟练了,给你半个小时的时间画出来,应该不难吧。于是,你吭哧吭哧地画完,客户看完之后立马给了你一个大嘴巴子,说你这个画的是神马东西,立马再给我画一幅。然后你强忍着泪水继续画,好不容易画完了,客户看完之后略有所思,说这一稿还行,但是这个颜色不太好,你再用黄色、紫色、粉红色各微调一版给我。于是,你又花了两个小时,改了三稿给客户,客户看完沉吟了许久,说我可能不太喜欢梵高了,你给我来一幅毕加索风格的吧。。。。。。于是,我打开了AI,花了一分钟的时间画完了这两幅画。如果把上文中的你换成是AI,这大概就是AI绘画的逻辑了。你花了四十年的时间所学习的梵高风格,就相当于是Stable Diffusion的大模型——Checkpoint。人们把成千上万的美术风格的作品练成一个模型放在AI里面,AI就能依照这个模型画出风格类似的作品。所以你想要画出符合你心意的作品,首先就是要选对合适的大模型。大模型的下载,可以去咱们大名鼎鼎的C站(https://civitai.com/),有真实系的(Chillmixout)、有二次元的(anything)、有游戏CG风(ReV Animated)的等等,但是需要科学上网。

教程:超详细的Stable Diffusion教程

用stable diffusion可以把自己想象成一个画家在起笔画画之前,我们要先确定我们画的是什么风格的画,是二次元动漫、三次元的现实照片、还是盲盒模型。因此,在我们确定了我们照片风格之后我们就要去切换大模型,不同的模型就代表着不同的照片风格。也就是SD界面左上角的“Stable Diffusion模型”假如现在我想生成一个真人AI小姐姐,就选用chilloutmix的大模型那么问题来了,我们这些模型从哪来呢?下载的模型放在哪里呢?在我分享给大家的链接里面,有部分比较常用的大模型(后续还有比较好的模型也会分享给大家)大家可以根据文件夹名称找到需要的模型。另外,这篇文章的第三部分会跟大家详细介绍去哪里下载模型,模型存放的位置,所以一定要看到最后!

其他人在问
stable diffusion
稳定扩散(Stable Diffusion)的运作原理如下: 消除图像中的噪点: 如同在太暗环境拍照产生的颗粒状噪点,Stable Diffusion 用于生成艺术作品时会在幕后“清理”图像,它比手机图像编辑器中的噪点消除滑块复杂得多,它了解世界的样子和书面语言,并以此指导噪点消除过程。例如,给它一幅以 H.R. Giger 风格描绘的外星人弹吉他的画,它能像熟练的平面艺术家一样进行清理。 大多数艺术生成工具中有“推理步骤”滑块,稳定扩散是逐步去除噪点的。 起始运作方式:为生成艺术,给稳定扩散提供纯噪点的初始图像,它基于统计数据估计所有选项的概率,即使正确概率极低,仍会选择概率最高的路径。例如,它对吉他在图像中的位置有一定理解,会寻找噪点中最可能像吉他边缘的部分进行填充,且每次给不同的纯噪点图像都会创作出不同作品。 相关组件和模型: UNET 是从噪音中生成图像的主要组件,在预测过程中通过反复调用 UNET,将其预测输出的 noise slice 从原有的噪声中去除,得到逐步去噪后的图像表示。Stable Diffusion Model 的 UNET 包含约 860M 的参数,以 float32 的精度编码大概需要 3.4G 的存储空间。 CLIP 将用户输入的 Prompt 文本转化成 text embedding,UNET 进行迭代降噪,在文本引导下进行多轮预测。 传统扩散模型在处理大尺寸图像和大量扩散步骤时存在计算效率问题,稳定扩散(最初称为潜在扩散模型)是为解决此问题提出的新方法。 存放路径和模型实例: ComfyUI 存放路径:models/checkpoints/SD 基础预训练模型,包括 SD1.5、SDXL 以及 SD 微调模型。 模型实例有【majicMIX realistic 麦橘写实 V7】(sd1.5 微调)、【LEOSAM HelloWorld 新世界】(SDXL 微调)等。 训练方法:DreamBooth(by Google) 格式:EMAonly & pruned 只画图,Full 可画图和微调训练。
2024-11-09
stable diffusion
稳定扩散(Stable Diffusion)的运作原理如下: 消除图像中的噪点: 如同在太暗环境拍照产生的颗粒状噪点,Stable Diffusion 用于生成艺术作品时会在幕后“清理”图像。它比手机图像编辑器中的噪点消除滑块复杂得多,不仅了解世界的样子和书面语言,还能利用这些来指导噪点消除过程。例如,就像平面艺术家利用对特定风格和事物的了解来清理图像一样,Stable Diffusion 本质上也在做类似的事情。 对于“推理步骤”,它是逐步去除噪点的。例如运行 25 步的例子中,起始图像可能完全无法辨认,但它实际上是从完全的噪点开始的。 开始生成的方式:为了生成艺术,给 Stable Diffusion 提供的初始图像实际上只是纯噪点,然后让其进行清理。从简单层面看,它作为计算机程序会执行任务并生成内容。更深层次来说,它基于统计数据,估计所有选项的概率,即使正确概率极低,也会选择概率最高的路径,例如寻找噪点中最可能像吉他边缘的部分来填充物体。每次给它不同的纯噪点图像,都会创作出不同的艺术作品。 此外,UNET 是从噪音中生成图像的主要组件,通过反复调用 UNET 去除噪声得到逐步去噪后的图像表示。Stable Diffusion Model 的 UNET 包含约 860M 的参数。CLIP 将用户输入的 Prompt 文本转化成 text embedding,UNET 在文本引导下进行多轮迭代降噪预测。稳定扩散最初称为潜在扩散模型,是为解决传统扩散模型在计算效率上的挑战而提出的。ComfyUI 中存放路径为 models/checkpoints/,有 SD 基础预训练模型如 SD1.5、SDXL 以及微调模型,训练方法有 DreamBooth 等,格式包括 EMAonly & pruned 和 Full 等。
2024-11-08
Mac部署stable diffusion
在 Mac 上部署 Stable Diffusion 存在一定限制,功能可能不全且出错率偏高,严重影响使用体验。个人建议升级设备或者采用云服务器玩耍。 如果您仍想在 Mac 上部署,可以参考以下步骤: 1. 电脑硬件要求: 系统:无明确针对 Mac 的特定系统要求。 显卡:未明确针对 Mac 的显卡要求。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 2. 环境安装: 未提供 Mac 系统下的具体环境安装步骤。 由于 Mac 系统的特殊性,更推荐您采用云端部署的方式,相关教程可参考:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd
2024-11-06
stablediffusion在线webui如何开发
开发 Stable Diffusion 在线 Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。尝试生成图像,观察不同参数对结果的影响。学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。学习如何导入自定义模型、VAE、embedding 等文件。掌握图像管理、任务管理等技巧,提高工作效率。 在完成了依赖库和 repositories 插件的安装后,还需要进行以下配置: 将 Stable Diffusion 模型放到/stablediffusionwebui/models/Stablediffusion/路径下。然后到/stablediffusionwebui/路径下,运行 launch.py 即可。运行完成后,将命令行中出现的输入到本地网页中,即可打开 Stable Diffusion WebUI 可视化界面。进入界面后,在红色框中选择 SD 模型,在黄色框中输入 Prompt 和负向提示词,在绿色框中设置生成的图像分辨率(推荐设置成 768x768),然后点击 Generate 按钮进行 AI 绘画。生成的图像会展示在界面右下角,并保存到/stablediffusionwebui/outputs/txt2imgimages/路径下。 如果选用 Stable Diffusion 作为 AIGC 后台,需要注意: DallE 缺乏室内设计能力,MidJourney 出图效果好但无法基于现实环境重绘,Stable Diffusion 出图成功率较低,但可调用 controlnet 的 MLSD 插件捕捉现实环境线条特征做二次设计。安装 Stable Diffusion WEB UI 后,修改 webuiuser.bat 文件加上 listen 和 API 参数,让 Stable Diffusion 处于网络服务状态。代码如下: @echo off set PYTHON= set GIT= set VENV_DIR= set COMMANDLINE_ARGS=xformers nohalfvae listen api git pull call webui.bat 让 Stable Diffusion 具有 AI 室内设计能力的步骤: 1. 下载室内设计模型(checkpoint 类型),放到 stable diffusion 目录/models/stablediffusion 下面。 2. 安装 controlnet 插件,使用 MLSD 插件,实现空间学习。 通过 API 方式让前端连接到 Stable Diffusion 后台的具体代码在前端开发详细展开,API 参考文档可选读。
2024-11-01
Stable diffusion提示词生成器
以下是关于 Stable diffusion 提示词生成器的相关内容: 1. 描述逻辑:通常包括人物及主体特征(如服饰、发型发色、五官、表情、动作),场景特征(如室内室外、大场景、小细节),环境光照(如白天黑夜、特定时段、光、天空),画幅视角(如距离、人物比例、观察视角、镜头类型),画质(如高画质、高分辨率),画风(如插画、二次元、写实)。通过这些详细的提示词,能更精确地控制绘图。 2. 辅助网站: http://www.atoolbox.net/ ,可通过选项卡方式快速填写关键词信息。 https://ai.dawnmark.cn/ ,每种参数有缩略图参考,方便直观选择提示词。 还可以去 C 站(https://civitai.com/)抄作业,复制每一张图的详细参数粘贴到正向提示词栏,点击生成按钮下的第一个按键,Stable Diffusion 会自动匹配所有参数,但要注意图像作者使用的大模型和 LORA,否则即使参数相同,生成的图也可能不同。也可以选取其中较好的描述词,如人物描写、背景描述、小元素或画面质感等。 3. 充当有艺术气息的 Stable Diffusion prompt 助理:根据给定的主题想象完整画面,转化为详细、高质量的 prompt,包含“Prompt:”和“Negative Prompt:”两部分,用英文半角“,”分隔,negative prompt 描述不想在生成图像中出现的内容。 4. 插件“Easy Prompt Selector”:安装方式是在扩展面板中点击“从网址安装”,输入 https://github.com/bluepen5805/sdwebeasypromptselector 直接安装,将汉化包复制进“……\\sdwebuiakiv4\\extensions”路径文件夹下覆盖,重启 webUI 后,在生成按钮下会多出“提示词”按钮,点击会出现下拉列表,包含很多分类,如点击“人物”会出现常用标签,选择后自动加入正向提示词。
2024-10-31
Stable Diffusion
稳定扩散(Stable Diffusion)的运作原理如下: 消除图像中的噪点:如果拍照太暗会产生噪点,而 Stable Diffusion 用于生成艺术作品时会在幕后“清理”图像。它比手机图像编辑器中的噪点消除滑块复杂得多,它了解世界的样子和书面语言,并以此指导噪点消除过程。例如,给它一幅以 H.R. Giger 风格描绘的外星人弹吉他的画,它能像熟练的平面艺术家一样进行清理。 推理步骤:稳定扩散是逐步去除噪点的,有“推理步骤”滑块。例如一个运行 25 步的例子,外星吉他手的例子更能清晰展示其效果。 开始方式:为了生成艺术,给 Stable Diffusion 提供的初始图像实际上只是纯噪点,并告知它这是一幅特定风格的画。在最简单层面,它作为计算机程序会执行任务。更深层次,它基于统计数据,估计所有选项的概率,即使概率都极低,也会选择概率最高的路径,例如寻找噪点中最可能像吉他边缘的部分来填充物体。每次给它不同的纯噪点图像,都会创作出不同的艺术作品。 此外,UNET 是从噪音中生成图像的主要组件,在预测过程中,通过反复调用 UNET,将其预测输出的 noise slice 从原有的噪声中去除,得到逐步去噪后的图像表示。Stable Diffusion Model 的 UNET 包含约 860M 的参数,以 float32 的精度编码大概需要 3.4G 的存储空间。 ComfyUI 中的相关内容: CLIP 将用户输入的 Prompt 文本转化成 text embedding,UNET 进行迭代降噪,在文本引导下进行多轮预测。 稳定扩散最初称为潜在扩散模型,解决了传统扩散模型在处理大尺寸图像和大量扩散步骤时计算效率的问题。 Checkpoint 的 ComfyUI 存放路径:models/checkpoints/,包括 SD 基础预训练模型(如 SD1.5、SDXL)、SD 微调模型等。训练方法有 DreamBooth 等,格式有 EMAonly & pruned(只画图)和 Full(画图和微调训练)。
2024-10-29
用50个字概括AI如何修图&绘画
AI 修图与绘画可通过设定关键词,如主题、环境、气氛等描绘画面,利用其可控与不可控特点,选择擅长和理解的内容创作。
2024-11-13
帮我看看,把同化的图片用ai绘画二次生成会自己的图片,来售卖这样的想法怎么样
将通过同化的图片用 AI 绘画二次生成的图片进行售卖这种想法是不可取的,并且可能涉及到法律风险和道德问题。 从法律角度来看,同化的图片可能存在版权归属问题,如果未经授权对其进行二次创作并售卖,可能会侵犯原作者的知识产权。 从道德层面上讲,这种行为也不符合诚实和公平的原则。 在 AI 绘画领域,应当尊重原创和知识产权,通过合法合规的方式进行创作和商业活动。
2024-11-13
像midjournal这样的国内外AI绘画社区
以下是为您介绍的像 Midjourney 这样的国内外 AI 绘画社区相关内容: Midjourney 是 AI 绘图领域家喻户晓的产品。其优点在于模型强大,能生成高质量图像,且支持充分的个性化设置。但使用过程不太便捷,需要通过 Discord 应用加入其频道或创建自己的频道并邀请 Midjourney 机器人才能生成图片。从学习难度来看,它的学习曲线较陡峭,在用户体验和易用性方面有待改进。 在“学社说明”中提到,大家一起收集和测试 AI 绘画提示词中的核心关键词,让新手规避无效探索,为相关从业人员节省时间。招募有 Midjourney 账号且喜欢 AI 绘画的人员,扫飞书二维码进群。根据关键词做创意,收录不错的作品。 在“AI 线上绘画教程”中提到,工作中需要大量图片时,AI 生图是高效的解决办法。主流的 Midjourney 付费成本高,Stable Diffusion 硬件门槛不低,但有像这样的免费在线 SD 工具网站。本教程旨在让入门玩家在半个小时内自由上手创作绘图。
2024-11-12
目前有哪些开源绘画模型
目前常见的开源绘画模型有: Stable Diffusion:生态最完整,能够加载的框架有 ComfyUI 框架、SD.Next 框架、Stable Diffusion WebUI 框架、diffusers 框架。 MidJourney:模型风格包罗万象,操作简洁,极富美感和艺术感。 Dall·E3(ChatGPT):具有惊人的语义理解能力,可像甲方一样连续修改。 Fooocus:优化程度高,操作简便,类似本地化 mj。 ComfyUI:门槛高,定制化强。 HunYuanDiT:国内第一个开源绘图模型。 SDXL:开源时间为 2023.7。 SD3:开源时间为 2024.6。 KOLORS:开源时间为 2024.7,目前生图质量最高,有相关的教学视频,如“Kolors 中文生图绘画模型开源,快手接连放出高质量开源项目,是否会成为中国的 StabilityAI”等。 Flux:开源时间为 2024.8。
2024-11-07
如何用两张照片,合成一张绘画效果的图
以下是将两张照片合成为一张绘画效果的图的步骤: 1. 利用 Dalle3 绘图,根据以下提示词分别把高中和大学时期的内容绘制成两幅四格漫画: 高中:中午,急急忙忙跑到食堂,排长队买饭。 大学:中午,懒洋洋在宿舍点外卖,直接送到宿舍楼下。 2. 利用 Python 进行图片处理: 统一设置:使用上传的字体,字体颜色黑色。 首先: 在每张图片的上面创建一个空白的白色背景区域(从原图片进行延长,而不是遮盖原图),用来放置文字(高中的图片写上“高中”,大学的图片写上“大学”)。 文字的字体大小设置成 65px,居中显示。 然后: 在图片下方创建一个空白的白色背景区域(从原图片进行延长,而不是遮盖原图),用来放置文字(高中的图片写上),如果句子过长,要注意换行显示。 文字的字体大小设置成 45px,居中显示。 最后把两张图片拼成一张图,高中的图片在左,大学的图片在右。两张图中间放置 50px 的空白区域。 另外,还有一些相关的知识供您参考: Double Exposure 是一种视觉艺术风格,将两个或多个照片合成到一起,创建出具有艺术效果的图像,灵感来自于传统的双重曝光摄影技术。最佳提示词:Double Exposure。 在 Stable Diffusion 中,可以使用【X/Y/Z plot】脚本来做参数对比,例如将 X 轴设置为提示词相关性,取值范围是 1 30。通过对比找到合适的参数,如提示词相关性在 6 11 中间为最佳。还可以使用绘图功能进行局部修改,如增加红色眼镜、去掉衣服上的图案、更换头部或帽子等部分。
2024-11-04
用现有的搭建一个ai网站 实现绘画 聊天 会员 积分 等功能
以下是搭建一个具备绘画、聊天、会员、积分等功能的 AI 网站的步骤: 1. 搭建 OneAPI(https://github.com/songquanpeng/oneapi),用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时会告知如何白嫖大模型接口。 2. 搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,最后回答问题。若不想接入微信,搭建到此即可,其有问答界面。 3. 搭建 chatgptonwechat(https://github.com/zhayujie/chatgptonwechat)接入微信,并配置 FastGpt 将知识库问答系统接入微信。建议先用小号以防封禁风险。若想拓展功能,可参考 Yaki.eth 同学的教程(https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),其中的 cow 插件能实现文件总结、MJ 绘画等能力。 在积分和会员方面,以下是一些相关的活动形式和积分设置示例: 吵爷帮助技能持有者在社区实现虚拟 IPO 审核服务。 Larkspur:扣子 bot 文案生图体验| 10 积分,扣子虚拟女友体验| 10 积分,帮你把 Siri 接入 Llama 3 70B |10 积分。 勿忘心安 Dify 本地部署不成功不要积分 10 积分一次。 Penny 给你解梦,并还原场景 10 积分。 Rachel 倩敏 宠物照片变毛毡头像 5 积分一个,before after 合并呈现 10 积分一个。 梦飞 给全国所有的项目做聚合平台,用户体验一次抽成 3 5 积分。 David 为社区用户做积分银行,可超前消费,存 10 个积分,利息 1 个积分,贷 10 个积分,利息 2 个积分,并为项目 IPO 提供融资服务。 波大波吗 5 分钟,让你的微信变成 chatgpt + MJ + SD +....+ 新闻专家 20 积分一次。 琥珀川 教你用 ai 技能接单、创业 10 积分。 大满满 简约的 mj 转模型|随喜积分。 Matteo 工作日晚 8 11 点,提供微信 1 对 1 视频聊天 30min,互通获取 AI 信息的渠道 + 漫聊 AI 相关使用体验思考 1 积分。 桂大阳 风景壁纸一张 10 积分、手机壳图案 + 手机壳效果图 10 积分。 镜 教你画小鹿动画表情包一个 10 积分,5 个 60 积分,8 个 100 积分。教你如何手绘蒙娜丽莎 10 积分一次,一次 10 分钟。教你做小鹿角色 2 维转 3D 一个 20 积分。 易求无方 与你的虚拟人进行一次心灵交流 20 积分,与你进行一次心灵交流 10 积分。 游小言 虚拟 IP 打造,给视频换脸,一次 10 积分,支持以技能易技能。
2024-11-04