直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

动漫风格的数字人

回答

以下是关于动漫风格数字人的相关信息:

构建动漫风格数字人的躯壳有多种方式:

  1. 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,在日本、东南亚等国家比较受欢迎,也深受年轻人喜欢,能将喜欢的动漫人物变成数字人的躯壳。代表如 Live2D Cubism(https://www.live2d.com/)。
  2. 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高。代表有 UE(Unreal Engine)、Unity,虚幻引擎 MetaHuman 等,但个人学习在电脑配置和学习难度上有一定门槛。
  3. AIGC:省去了建模流程,直接生成数字人的展示图片,但算法生成的数字人很难保持 ID 一致性,帧与帧的连贯性上会让人有虚假的感觉。典型的项目有 wav2lip(https://github.com/Rudrabha/Wav2Lip)、video-retalking(https://github.com/OpenTalker/video-retalking)等。AIGC 还有一个方向是直接生成 2D/3D 引擎的模型,但该方向还在探索中。

建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。

另外,【SD】一键切换不同画风中也包含动漫风格,例如“花丛中的小猫”。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

AI 数字人-定义数字世界中的你

[title]AI数字人-定义数字世界中的你[heading2]二、如何构建高质量的AI数字人[heading4]2.1构建数字人躯壳数字人的躯壳就是建模过程,有多种构建方式:1.2D引擎风格偏向二次元,亲和力强,定制化成本低,在日本、东南亚等国家比较受欢迎,也深受年轻人喜欢,毕竟能将喜欢的动漫人物变成数字人的躯壳,是一件很棒的事情。2D引擎的代表就是Live2D Cubism(https://www.live2d.com/)。1.3D引擎风格偏向超写实的人物建模,拟真程度高,定制化成本高,目前有很多公司都在做这个方向的创业,已经可以实现用户通过手机摄像头快速创建一个自己的虚拟人身体(如下图,NextHuman(https://nexthuman.cn/))。3D引擎的代表是UE(Unreal Engine)、Unity,虚幻引擎MetaHuman等(个人学习在电脑配置和学习难度上有一定门槛。1.AIGC虽然AIGC的方式相比前两者省去了建模流程,直接生成数字人的展示图片,但弊端也明显,算法生成的数字人很难保持ID一致性,帧与帧的连贯性上会让人有虚假的感觉。如果项目对人物模型真实度要求没有那么高,可以使用这种方案(算法发展非常快,可能不久就会有连贯度很高的生成方式),典型的项目有wav2lip(https://github.com/Rudrabha/Wav2Lip)、video-retalking(https://github.com/OpenTalker/video-retalking)等。AIGC还有一个方向是直接生成2d/3d引擎的模型,而不是直接生成数字人的最终展示部分,但该方向还在探索中。得益于现有各类技术方案的成熟度,以往建模往往都是由专业的建模师完成工作,不久之后相信大家就可以通过一些生成算法快速生成自己的人物模型了。

AI 数字人-定义数字世界中的你

[title]AI数字人-定义数字世界中的你[heading2]二、如何构建高质量的AI数字人[heading4]2.1构建数字人躯壳建好的模型可以使用web前端页面(Live2D就提供了web端的SDK)或者Native的可执行程序进行部署,最后呈现在用户面前的是一个GUI。笔者的开源数字人项目(项目地址:https://github.com/wan-h/awesome-digital-human-live2d)选择了live2d作为数字人躯壳,因为这类SDK的驱动方式相比现在的AI生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于live2d的SDK驱动方式可以参考官方示例:https://github.com/Live2D。

【SD】一键切换不同画风,SDXL Styles汉化版插件

海边的女孩。(有一种电影剧照的感觉,可以试试16:9的比例)[heading1]动漫:[content]花丛中的小猫。(这个动漫风格和我们常见的二次元风格还不太一样)[heading1]连环漫画:[content]超人。(果然是美漫)[heading1]工艺黏土:[content]可爱的熊猫。(黏土的感觉很棒,可以做一些很萌的东西)[heading1]数字艺术:[content]赛博朋克摩托车。(细节还是很不错的,不愧是提升了分辨率后的图片)[heading3][heading1]等距离空间:[content]温馨的儿童卧室。(看这种风格的图片总是觉得被治愈了是怎么回事……)[heading1]线条艺术:[content]抽雪茄的牛仔。(有点大表哥2里面亚瑟的味道)[heading1]低多边形:[content]海边的小岛。(以前玩三维的时候做过好多这种低多边形的模型,结果现在十秒出图了……)[heading1]折纸艺术:[content]一只大象。(旁边的小花是赠送的不?)[heading1]摄影:[content]冬天大雪里的女孩。(官方模型的欧美女性还是很好看的,亚洲的就有点刻板印象了,等民间大佬们的私炉吧)[heading1]像素画:[content]城市街道。(复古游戏的感觉,很有趣,像素画永不过时)[heading1]美食摄影:[content]黄焖鸡米饭。(你确定?)[heading1]抽象艺术:[content]耕地的牛。(感觉还可以更抽象一点)[heading1]水彩画:[content]开满鲜花的小屋。(蛮漂亮的,又被治愈了)[heading1]精灵宝可梦:[content]趴在床上的皮卡丘。(本来描述的是皮卡丘在床上睡觉,但是这个家伙的眼睛怎么都不闭上,一直炯炯有神地看着我,我扭头看了一眼旁边的小朋友,叹了口气,唉……)

其他人在问
Midjourney生成知名动漫或卡通形象受限制了么?
Midjourney 在生成知名动漫或卡通形象时存在一定的限制。例如,在生成角色方面,最好不要生成过多角色,过多甚至可能指 2 个。做人、做动物的情况还好,但对于有拟人角色需求的情况,可能难以生成满意的结果。比如小龙喷火到小兔子举着的礼物盒这种看似简单的需求,可能无法达到满意效果,可能出现动物不拟人或龙的体型超大等情况。对于像中国龙这种数据样本较少的形象,生成符合要求的图很有挑战性。 在视频生成方面,如果想让角色做出一些较大的动作,比如转头、掉眼泪、抬手或更生动的表情变化,现有的技术还不够成熟,还需要更先进的技术、更丰富的数据和更强大的计算能力。此时的策略是尽量规避制作需要大动作表现的视频,如果实在避免不了,可以尝试制作一些只涉及小动作的场景,然后通过加入台词和场景描述来补充细节和深度,帮助观众更好地理解场景背景和角色心理,以弥补视觉上的不足。
2024-10-29
动漫生成
以下是关于动漫生成的相关内容: Niji V5 动漫提示干货操作实例: 在通过 Midjourney 创作动漫时,可在提示中包含动漫艺术家、漫画艺术家或漫画家的名字,如宫崎骏、织田荣一郎、竹内直子、井上武彦、平井恒、松本纪夫、藤本浩、勇吉成、樱桃子等。 示例提示:“一个穿着传统日本服装的女孩,旁边有白狼,站在一个神奇的托里神社前,artgerm,吉卜力工作室— ar 3:2 — niji 5”,可创建出相应的动漫画面。 对比 Niji V4 和 Niji V5,Niji Version 5 在细节和艺术风格上表现更优。 动态叙事动画生成器: 系统架构: 处理与分析层:负责处理用户输入并分析内容,包括 Prompt 解析器、实体识别、场景理解、情感分析等。 生成与渲染层:将分析结果转换为视觉内容,包括分镜生成器、动画引擎、后处理单元。 优化与反馈层:确保生成的视频满足用户需求并根据反馈优化,包括质量评估、性能监控、反馈循环。 技术支撑层:为系统提供技术支持和基础设施,包括数据管理、计算资源、API 和接口。 方案效果: 系统处理流程: Prompt 解析器解析关键信息。 分镜生成器根据信息生成分镜脚本,如不同季节的场景和人物动作。 视频渲染引擎将分镜脚本转换为视频帧并渲染,添加色调、光影、背景音乐和声音效果。 用户交互界面供用户输入 Prompt 并选择参数、预览和下载视频。
2024-10-28
我有张动漫风格图片,有什么 ai 可以仿制出来吗,我要的是在网页就可以直接使用 门槛低的 我是小白
以下为您推荐一些门槛低、可在网页直接使用的仿制动漫风格图片的 AI 工具和网站: 吐司网站:首页最上方有对话生图的快速入口,输入想画的文字或点击随机提示词,点击“对话生图”即可出图。站内所有帖子均可“一键做同款”,还有“今日灵感”提供绘画想法。有多种模型、lora 可供选择,如写实、2.5D、二次元等,涵盖风格、元素、形象等。还有控制线条、深度、姿态、语义、风格迁移等的 Controlnet 功能。同时有扩图、高清修复、去背景等多个设计小工具,以及趣味玩法和风格滤镜,一键真人转动漫,包括韩漫、日漫风格。使用小工具前请阅读标题和详情页描述。 扣子网站:输入一个关键词,会直接生成 4 张包含金句的图片。整个工作流程包括用户输入关键词,大模型制作金句,根据金句生成画面描述,结合描述和关键词使用插件生成图片,再用图像流结合金句和图片。但扣子官方的画图工具绘制小林漫画风格效果不佳,可尝试使用 MJ 等工具绘制小林漫画风格。
2024-10-21
我有一张动漫风格的图片,希望可以生成类似的图片
以下是为您生成类似动漫风格图片的方法和相关信息: 方法一: 使用大模型和 lora 的组合。 大模型:“Flat2D Animerge”,适合生成卡通动漫图片,官方建议 CFG 值在 5 或 6(使用动态阈值修复时可拉到 11)。 lora:“Chinese painting style”可增加中国画水彩风格效果,权重设置为 0.4;“Crayon drawing”可添加简单线条和小孩子的笔触,权重设置为 0.8。 操作步骤:将图片丢到标签器中反推关键词,发送到“文生图”。在正向提示词末尾添加上述 lora,设置好尺寸,重绘幅度开 0.5(若想更接近原图可降低数值)。将图放入 controlnet 中,选择 tile 模型,权重为 0.5,控制模式选择“更注重提示词”。 方法二: 利用 DALLE 中的 Seed 值。 DALLE 每次通过 Prompt 生成图像时会随机选取一个 Seed 值。使用同样的 Prompt 和 Seed 值能生成相同或相似的图片。您可以按照以下步骤进行测试: 1. 新开一个对话,随便使用一个 Prompt 让 DALLE 画图,要求提供 Seed。 2. 查看图片的 Prompt 并复制。 3. 在当前对话输入上一条 Prompt,另起一行输入“Use seed number '您在第一步拿到的 Seed'”。 好用的图生图产品: 目前比较成熟的产品主要有: 1. Artguru AI Art Generator:在线平台,生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,将图片转换为非凡肖像,有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,将上传的照片转换为芭比风格,效果很好。 但这些 AI 模型仍存在一些局限,如偶尔性能不稳定、生成内容不当等问题,使用时请仔细甄别。
2024-10-21
怎么用AI绘制一个我指定的动漫人物原型的各类图片,例如日漫《好想告诉你》中的黒沼爽子
要使用 AI 绘制指定的动漫人物原型,如日漫《好想告诉你》中的黑沼爽子,您可以按照以下步骤进行: 1. 选择合适的 AI 绘画工具:目前有许多在线的 AI 绘画平台和软件可供选择,例如 DALL·E2、StableDiffusion 等。 2. 明确描述特征:在输入描述时,尽可能详细地描述黑沼爽子的外貌特征,包括发型(如黑色的长直发)、眼睛(如大而明亮的眼睛)、服装(如校服的款式和颜色)、表情(如羞涩的微笑)等。 3. 参考相关图片:如果可能,找到黑沼爽子的官方图片或其他粉丝绘制的作品,作为参考提供给 AI 绘画工具,以帮助其更好地理解您的需求。 4. 不断调整和优化:根据生成的初步结果,对描述进行调整和优化,例如修改某些特征的描述、增加更多细节等,以获得更符合您期望的图片。 需要注意的是,AI 绘画的结果可能会受到多种因素的影响,不一定能完全符合您的预期,但通过不断尝试和优化,您有机会获得较为满意的作品。
2024-10-17
真人视频转动漫风格视频工具
以下是一些真人视频转动漫风格视频的工具: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,能在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 另外,还有以下相关工具: 1. 艺映 AI(https://www.artink.art/):专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 以上工具均适合于不同的使用场景和需求,您可以根据自己的具体情况进行选择。更多的文生视频的网站可以查看: 。需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2024-09-28
数字资产管理系统
数字资产管理系统是一种用于管理数字资产的系统。以下是一些相关信息: 法规方面:有规定指出,市场因数据集中而产生的不平衡会受到限制。该法规旨在促进数据处理服务之间的切换,涵盖客户终止数据处理服务合同、与不同提供商签订新合同、转移包括数据在内的所有数字资产,并在新环境中继续使用且保持功能等效等方面。数字资产指客户有权使用的数字格式元素,包括数据、应用、虚拟机等。 产品推荐: 特赞发布的 DAM.GPT:帮助企业利用 AI 管理数字资产,可通过拖拽图片入库,AI 识别图片内容,建立关联和标注属性,通过关键词搜索获取资产,进行人肉筛选,对资产进行中心化合规管理和分发,以及二次加工生产。 SnackPrompt:提示词共享社区,筛选和新建功能良好,支持复制到 ChatGPT 中,创建提示词时可设置动态字段,还能选择语言、风格和语气。 HeroPage:提示词分享社区,创建提示词时可设置动态内容,支持直接回填到 ChatGPT 使用。 Builder.io:Figma 插件支持用自然语言生成设计稿并修改,能将生成的设计稿转成前端代码复制。 X Studio3:小冰公司的音乐 AI 工具,上传歌词和音乐可指定 AI 语音唱歌,能对音频自定义。 Playlistable:AI 生成播放列表,链接 Spotify 播放列表并输入心情,自动生成符合心情的播放列表。
2024-10-30
大模型的数字资产管理系统
大模型的数字资产管理系统涉及以下方面: 大模型的整体架构: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:包括静态的知识库和动态的三方数据集,是企业根据自身特性维护的垂域数据。 3. 模型层:包含 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)或多模态模型(如文生图、图生图等模型,训练数据与 llm 不同,用的是图文或声音等多模态的数据集)。 4. 平台层:如大模型的评测体系或 langchain 平台等,是模型与应用间的组成部分。 5. 表现层:即应用层,是用户实际看到的地方。 大模型的通俗理解: 大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练、使用过程: 1. 找学校:训练 LLM 需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练大模型。 2. 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 企业大模型的误区: 1. 总想搞一个宏大的产业大模型:目前大模型能力不足以支持,更适合在场景里解决专业问题。 2. 总想用一个万能大模型解决所有企业问题:企业不同场景可能需要不同的大模型。 3. 认为有了大模型,原来的 IT 系统就淘汰了:大模型需要与原业务系统连接协同工作,原数字化搞得越好,大模型效果越好。 4. 认为大模型不用做数字化,直接一步到位弯道超车:企业没有基本的 IT 系统、数字化系统,没有数据积累和知识沉淀,无法做大模型。
2024-10-30
如何生成 数字人
以下是生成数字人的方法和相关工具: 生成数字人的步骤: 1. 在剪映右侧窗口顶部,打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择后软件会播放其声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,软件会生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,之后可点击预览查看效果。 2. 为让视频更美观,可增加背景图片。删除先前导入的文本内容,点击左上角“媒体”菜单并“导入”选择本地图片上传,将图片添加到视频轨道上(会覆盖数字人),拖动轨道右侧竖线使其与视频对齐,选中背景图片轨道,调整图片大小和数字人位置。 3. 点击文本智能字幕识别字幕并开始识别,软件会自动将文字智能分段形成字幕,完成后点击右上角“导出”按钮导出视频备用。 制作数字人的工具: 1. HeyGen:AI 驱动的平台,能创建逼真的数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人会自动转换成语音并合成逼真的会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会变化,使用时请遵守相关条款和政策,并注意版权和伦理责任。
2024-10-30
数字人工具
以下是一些制作数字人的工具: 1. HeyGen:这是一个 AI 驱动的平台,能创建逼真的数字人脸和角色。使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等。优点是人物灵活、五官自然、视频生成快,缺点是中文人声选择较少。 使用方法:点击网址注册后,进入数字人制作,选择 Photo Avatar 上传自己的照片;上传后效果如图所示,My Avatar 处显示上传的照片;点开大图后,点击 Create with AI Studio,进入数字人制作;写上视频文案并选择配音音色,也可自行上传音频;最后点击 Submit,就可以得到一段数字人视频。 2. Synthesia:这是一个 AI 视频制作平台,允许用户创建虚拟角色并进行语音和口型同步。支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:这是一家提供 AI 拟真人视频产品服务和开发的公司,只需上传人像照片和输入要说的内容,平台提供的 AI 语音机器人将自动转换成语音,然后就能合成一段非常逼真的会开口说话的视频。优点是制作简单、人物灵活,缺点是免费版下载后有水印。 使用方法:点击上面的网址,点击右上角的 Create vedio;选择人物形象,可以点击 ADD 添加照片,或者使用 DID 给出的人物形象;配音时,可以选择提供文字选择音色,或者直接上传一段音频;最后,点击 Generate vedio 就可以生成一段视频。打开自己生成的视频,可以下载或者直接分享给朋友。 4. KreadoAI:优点是免费(对于普通娱乐玩家很重要)、功能齐全,缺点是音色很 AI。 使用方法:点击上面的网址,注册后获得 120 免费 k 币,选择“照片数字人口播”的功能;点击开始创作,选择自定义照片;配音时,可以选择提供文字选择音色,或者直接上传一段音频;打开绿幕按钮,点击背景,可以添加背景图;最后,点击生成视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会随着时间和技术的发展而变化。在使用这些工具时,请确保遵守相关的使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。内容由 AI 大模型生成,请仔细甄别。
2024-10-29
AI数字人
AI 数字人是运用数字技术创造出来的人,虽现阶段不能如科幻作品中的人型机器人般高度智能,但在生活各类场景中已常见,且随 AI 技术发展正迎来应用爆发。目前业界对其尚无准确定义,一般可依技术栈不同分两类: 1. 真人驱动的数字人:重在通过动捕设备或视觉算法还原真人动作表情,主要用于影视行业及直播带货。表现质量与手动建模精细度及动捕设备精密程度直接相关,不过随视觉算法进步,现无昂贵动捕设备时,也能通过摄像头捕捉人体骨骼和人脸关键点信息达到不错效果。 2. 算法驱动的数字人:强调自驱动,人为干预更少,技术实现更复杂。其大致流程包含三个核心算法: ASR(语音识别):能将用户音频数据转化为文字,便于数字人理解和生成回应。开源代码如 openai 的 whisper(https://github.com/openai/whisper)、wenet(https://github.com/wenete2e/wenet)、speech_recognition(https://github.com/Uberi/speech_recognition)。 AI Agent(人工智能体):充当数字人大脑,可接入大语言模型,如 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。Agent 部分可用 LangChain 模块自定义(https://www.langchain.com/)。 TTS(文字转语音):将数字人依靠 LLM 生成的文字输出转换为语音。开源代码如微软的 edgetts(https://github.com/rany2/edgetts),只能使用预设人物声音,接口免费;VITS(https://github.com/jaywalnut310/vits)及其分支版本,可自己训练想要的人声;sovitssvc(https://github.com/svcdevelopteam/sovitssvc)专注于唱歌,如前段时间很火的 AI 孙燕姿。 除算法外,人物建模模型可通过手动建模(音频驱动)或 AIGC 方式生成人物动态效果(如 wav2lip 模型)。但这种简单构建方式仍存在诸多问题,如如何生成指定人物声音、TTS 生成音频如何精确驱动数字人口型及动作、数字人如何使用知识库做出专业回答等。
2024-10-28
AI数字人
AI 数字人是运用数字技术创造出来的人,虽现阶段不能如科幻作品中的人型机器人般高度智能,但已在各类生活场景中出现,且随着 AI 技术发展正迎来应用爆发。目前业界尚无准确定义,一般可根据技术栈分为两类: 1. 真人驱动的数字人:重在通过动捕设备或视觉算法还原真人动作表情,主要应用于影视行业及直播带货。表现质量与手动建模精细程度及动捕设备精密程度直接相关,不过随着视觉算法进步,在无昂贵动捕设备时,也能通过摄像头捕捉人体骨骼和人脸关键点信息达到不错效果。 2. 算法驱动的数字人:强调自驱动,人为干预更少,技术实现更复杂。大致流程包含三个核心算法: ASR(语音识别):能将用户音频数据转化为文字,便于数字人理解和生成回应。开源代码如 openai 的 whisper(https://github.com/openai/whisper)、wenet(https://github.com/wenete2e/wenet)、speech_recognition(https://github.com/Uberi/speech_recognition)。 AI Agent(人工智能体):充当数字人大脑,可接入大语言模型,如 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。Agent 部分可用 LangChain 模块自定义(https://www.langchain.com/)。 TTS(文字转语音):将数字人依靠 LLM 生成的文字输出转换为语音。开源代码如微软的 edgetts(https://github.com/rany2/edgetts),只能使用预设人物声音且接口免费;VITS(https://github.com/jaywalnut310/vits)及其分支版本,可自己训练想要的人声;sovitssvc(https://github.com/svcdevelopteam/sovitssvc)专注于唱歌。 除算法外,人物建模模型可通过手动建模(音频驱动)或 AIGC 方式生成人物动态效果(如 wav2lip 模型)实现一个最简单的数字人。但这种简单构建方式存在诸多问题,如如何生成指定人物声音、TTS 生成的音频如何精确驱动数字人口型及动作、数字人如何使用知识库做出某领域专业性回答等。
2024-10-28
照片转漫画风格
以下是为您提供的关于照片转漫画风格的相关信息: 1. Magnific AI 推出了照片风格化功能,可将任意照片转换成任意风格,能控制样式数量和结构完整性,适用于多种用例。相关链接:https://x.com/imxiaohu/status/1769710736132227434?s=20 2. 莱森提供了利用一致性 MJ 出海马体写真的教程。例如,若用醒图调整脸部,可关注【人像>面部重塑>面部>比例】调整上庭、中庭、下庭;在转绘中,对于照片转 Minecraft 这种风格幅度变化大的情况,若复制不了像素小人风格,可能是因为cw 太高,调低可成功复制;cref 和 sref 同时参考多张 url 时,上传同一个人不同角度的照片不一定更容易直出,可能导致结果畸形;若 MJ 直出的皮肤缺乏质感,可使用醒图【人像>手动美颜>皮肤肌理】,若想快速调整光源,可试试 Luminar。 3. Animagine XL 3.1 作为动漫主题文本到图像模型更新发布,扩展了对广泛动漫风格的理解,提高了生成图像质量,解决了过曝问题,新增了美学标签,优化了结果准确性。相关链接:https://cagliostrolab.net/posts/animaginexlv31release 、https://huggingface.co/cagliostrolab/animaginexl3.1 、https://huggingface.co/spaces/cagliostrolab/animaginexl3.1 、https://x.com/imxiaohu/status/1769691980882432192?s=20
2024-10-31
如何用AI根据自己的照片生成动画风格的头像
以下是用 AI 根据自己的照片生成动画风格头像的方法: 1. 准备一张自己比较满意的照片。 2. 如果还没有 Midjourney 账号或不懂基础操作,可以参考之前的教程。 3. 在 Discord 社区的 Midjourney 服务器聊天栏点击“+”,然后点击上传文件,选取准备好的照片,在聊天框发送(记得点击回车或发送按钮)。 4. 图片上传到服务器后会生成唯一链接,点击图片,在浏览器中打开,复制浏览器上方的链接。 5. 使用复制的链接加 prompt 提示词发送给 Midjourney,Midjourney 会根据需求生成特定的图片,这就是 Midjourney 的以图绘图功能。 另外,细心的友友可能发现了我刚开始喂的图其实也是 AI 生成的。这就要给大家提个醒了,在玩的过程中如果生成了自己比较满意的图,一定要记得存起来。下次想要同种类型的就可以直接拿来喂图,效果要比重新找的好很多哟~
2024-10-29
AI视频转换视频风格
以下为您介绍一些关于 AI 视频转换视频风格的相关内容: DomoAI: 主打风格转绘,效果稳定,支持动画风、粘土风、折纸风、像素风等多种曾在互联网上掀起浪潮的风格,还支持根据参考图切换视频风格,与开源模型中 IPAdapter 的能力相似。 同类产品还有 Goenhance AI。 每个账号仅有 15 个免费 credits,仅能生成 3s 视频。 网页版访问:https://domoai.app/ 官方推特:https://x.com/DomoAI_ Ebsynth:在实际操作中,若希望对视频风格转绘有更多可控和可操作性,可以借助 Ebsynth 来实现。 Viggle: 有免费额度。 相关网址: http://viggle.ai discord 免费体验:https://discord.com/invite/viggle 功能包括: /mix:将角色图像混合到动态视频中,需上传一张字符清晰的图片和一段清晰运动的视频。 /animate:使用文本运动提示为静态角色设置动画,需上传一张字符清晰的图片并描述想让角色做的动作,也可从 https://viggle.ai/prompt 中复制动作提示词。 /ideate:纯粹从文本创建角色视频,需描述想要创造的角色和希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /character:通过文本提示创建角色并将其动画化,需描述想要创造的角色,从四个结果中选择一个图像,再描述希望角色执行的动作(或从 https://viggle.ai/prompt 中复制动作提示词)。 /stylize:使用文本提示符重新设计角色的样式并将其动画化,需上传一张字符清晰的图片,描述想改变角色的地方,从四个结果中选择一个图像,再描述想要角色做的动作(或者从 https://viggle.ai/prompt 中复制动作提示词)。 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt
2024-10-28
图片风格切换工具
以下是为您提供的关于图片风格切换工具的相关信息: Midjourney V6 风格参考命令: 前期需要测试的细节和使用方法,以及适用场景。 使用方法:在提示框输入提示词描述 + sref URL(链接) + sv 1/2/3/4 + sw 50。 细节:URL 链接为您上传的一张图片地址,sw 50(默认为 100 风格最强,0 为减弱到无,50 取中间值)。 为什么要用这种使用方法:在没有sw 命令的情况下,生成的图片风格变化最强,可能导致某些细节缺失。取 50 作为中间值在测试中效果较好,您也可适当调整。 场景测试:固定动漫场景、真实人物场景、插画场景、3D 角色。测试对比在没添加sw 的效果和添加sw 的效果。 测试例子:Dynamic representation Asuka Langley Soryu from Neon Genesis Evangelion,piloting her EVA unit in battle,wallpaper HD,in the style of vivid energy explosions,realistic and hyperdetailed renderings,precisionist art,photorealistic scenes,epic,glassy translucence,anime art,detailed and intricate environment,Unreal Engine,strong facial expression ar 16:9 sref https://s.mj.run/zZAmLlwiDCc sv 1 niji 6 悠船操作指南: 基础页面操作: 工具首页是一个类似首页的概念。 在此可输入画面描述(如“一个小女孩在跳舞”)并回车生成,“+”可点击上传图片。 可通过“关键词”搜到之前的作品。 中间是生成的作品,默认一次性生成 4 张。 左侧是每组作品的描述和参数。 “想象历史”类似文件夹,可快速找到往期作品。 创作调整: 正常输入提示词。 可调整生成图片的尺寸(长图或宽图)。 风格化:数字越大越艺术,但并非越大越好,取决于创作,人像不用调整过高。 怪异化:数字越大越奇怪,建议新手不用碰。 多样化:数字越大结果越意想不到,越低越接近提示词。建议新手一开始不用怪异和多样化,可做实验测试。 模式:默认标准,朴实 raw 会让图片质感更好,依个人喜好选择。 版本:默认最高 V6,二次元可选 NIJI。 生成图片的速度:默认快速,速度越快对支付套餐要求越高。 图片详情页:打开创作的图片进入详情页,可看到提示词,右上可下载对应图片,可进行参数调整。注意任何点击都会重新生成图片,免费用户可能会提示超出套餐。 【SD】一键切换不同画风,SDXL Styles 汉化版插件: 包含塞尔达传说、童话世界、文艺复兴、GTA、禅绕、印象派、蒸汽朋克等不同风格的示例,如林克骑马、小美人鱼、微笑的少女、拿枪的男人、玫瑰花、海边日出等。通过一个风格的切换,能实现以前需要各种模型和 lora 配合才能实现的效果。想要体验这款汉化插件,可添加公众号【白马与少年】,回复【SDXL】。
2024-10-25
我想要美式漫画风格的图怎么和AI沟通
如果您想要美式漫画风格的图,可以从以下几个方面与 AI 沟通: 1. 风格提示词:使用如“DC Comics 能生成美漫封面的漫画画面”“comic book 漫画书”等相关的风格提示词。 2. 主题描述:清晰地描述场景、故事、元素、物体或人物的细节及搭配。例如,不要用一长串文字去表达一个包含多个角色细节的大场景,而是将其拆分描述,如“一个男孩”“穿着红色盔甲”“站在山顶”。 3. 设计风格:可以找一些风格类的关键词参考,或者找一张想要的风格的图片进行垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成图片。 4. 特定风格技巧: 对于 Sarah Andersen 风格,可以在主要描述语后面加上“by Sarah Andersen”或者“style reference Sarah Andersen”。 在提示中加入情感色彩的描述,比如使用“joyful,” “awkward,”或“anxious”等词,帮助 AI 捕捉作品中的情感深度。 利用cref 命令保持人物的一致性。
2024-10-25
推荐一个做二次元风格的数字人的软件
以下为您推荐一些可用于制作二次元风格数字人的软件: 1. Live2D Cubism(https://www.live2d.com/):这是一款 2D 引擎,风格偏向二次元,亲和力强,定制化成本低,在日本、东南亚等国家比较受欢迎,深受年轻人喜欢,能将喜欢的动漫人物变成数字人的躯壳。 2. 剪映:虽然本身有很多公模数字人,但可以通过 AI 换脸软件(如按照以下步骤操作:第一步打开谷歌浏览器,点击链接 https://github.com/facefusion/facefusioncolab 并点击 open colab 就进到程序主要运行界面,在右上角点击“代码执行程序”选择“全部运行”就行,无需安装,无需付费。点击红框对应的 URL 就会打开操作界面;第二步,点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”就能生成;第三步:等着自己专属的数字人视频出炉)来实现数字人的“私有化”。 此外,关于数字人的更多知识和操作,您还可以参考以下内容: 建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署。 笔者的开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。 有关数字人使用上的问题,欢迎在底部评论区留言,一起交流。同时如果对数字人课程感兴趣的话,欢迎查看通往 AGI 之路 X AI 沃茨的《克隆你自己》课程! 课程内容: 在线观看第一节:https://www.bilibili.com/video/BV1yw411E7Rt/?spm_id_from=333.999.0.0
2024-10-24