直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

有开源的支持实时让图片人像说话的项目吗?

回答

关于您提到的开源项目,用于实时让图片人像说话,我找到了几个相关的开源项目,这些项目均支持从音频中学习生成3D运动系数,并使用3D面部渲染器来生成头部运动,从而实现图片加音频生成高质量视频的功能。

  1. SadTalker:由西安交通大学开源的SadTalker模型,可以通过音频学习生成3D运动系数,使用3D面部渲染器生成头部运动,实现图片加音频生成高质量视频的功能。SadTalker支持stable diffusion webui,可以结合一段音频合成面部说话的视频。
  2. DreamTalk:由清华大学、阿里巴巴和华中科大共同开发的基于扩散模型的开源框架,可以让人物照片说话,支持包括歌曲、多种语言的语音、嘈杂的音频在内的各种声音匹配让人物头像说话。DreamTalk包含降噪网络、风格感知唇部专家和风格预测器等关键组件,能够生成富有表现力的面孔,并减少对昂贵的风格参考的依赖。

这两个项目都是开源的,提供了详细的安装和使用指南,可以作为搭建实时让图片人像说话系统的参考。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

其他人在问
目前有哪些开源绘画模型
目前常见的开源绘画模型有: Stable Diffusion:生态最完整,能够加载的框架有 ComfyUI 框架、SD.Next 框架、Stable Diffusion WebUI 框架、diffusers 框架。 MidJourney:模型风格包罗万象,操作简洁,极富美感和艺术感。 Dall·E3(ChatGPT):具有惊人的语义理解能力,可像甲方一样连续修改。 Fooocus:优化程度高,操作简便,类似本地化 mj。 ComfyUI:门槛高,定制化强。 HunYuanDiT:国内第一个开源绘图模型。 SDXL:开源时间为 2023.7。 SD3:开源时间为 2024.6。 KOLORS:开源时间为 2024.7,目前生图质量最高,有相关的教学视频,如“Kolors 中文生图绘画模型开源,快手接连放出高质量开源项目,是否会成为中国的 StabilityAI”等。 Flux:开源时间为 2024.8。
2024-11-07
有哪些开源或者免费的数字人工具
以下是一些开源或者免费的数字人工具: 1. HeyGen:AI 驱动的平台,能创建逼真的数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人能自动转换成语音并合成逼真的说话视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 此外,还有一些相关的开源代码仓库: ASR 语音识别: openai 的 whisper: https://github.com/openai/whisper wenet: https://github.com/wenete2e/wenet speech_recognition:https://github.com/Uberi/speech_recognition AI Agent: 大模型:ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分:可使用 LangChain 的模块自定义,https://www.langchain.com/ TTS: 微软的 edgetts:https://github.com/rany2/edgetts,只能使用预设人物声音,目前接口免费。 VITS:https://github.com/jaywalnut310/vits,还有很多分支版本。 sovitssvc: https://github.com/svcdevelopteam/sovitssvc,专注于唱歌。 请注意,这些工具的具体功能和可用性可能会随时间和技术发展而变化。在使用时,请确保遵守相关使用条款和隐私政策,并注意保持对生成内容的版权和伦理责任。
2024-11-07
有哪些开源免费的数字人工具
以下是一些开源免费的数字人工具: 1. HeyGen:这是一个 AI 驱动的平台,能创建逼真的数字人脸和角色,使用深度学习算法生成高质量肖像和角色模型,适用于游戏、电影和虚拟现实等应用。 2. Synthesia:AI 视频制作平台,允许创建虚拟角色并进行语音和口型同步,支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:提供 AI 拟真人视频产品服务和开发,上传人像照片和输入内容,平台的 AI 语音机器人将自动转换成语音并合成逼真的会开口说话的视频。 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。 请注意,这些工具的具体功能和可用性可能会变化。使用时请遵守相关使用条款和隐私政策,并注意生成内容的版权和伦理责任。 此外,以下是一些与数字人相关的开源代码仓库: ASR 语音识别: openai 的 whisper: https://github.com/openai/whisper wenet: https://github.com/wenete2e/wenet speech_recognition:https://github.com/Uberi/speech_recognition AI Agent: 大模型部分包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分可使用 LangChain 的模块自定义,包含了 Agent 实现的几个组件:https://www.langchain.com/ TTS: 微软的 edgetts:https://github.com/rany2/edgetts,只能使用里面预设的人物声音,目前接口免费。 VITS:https://github.com/jaywalnut310/vits,还有很多分支版本。 sovitssvc: https://github.com/svcdevelopteam/sovitssvc,专注于唱歌。 人物建模模型可通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型)实现。 以下是部分摊位信息中与数字人相关的内容: |编号|摊位活动主题和内容|摊位区域|摊位编号| ||||| |54|AI 数字人的技术以及应用场景|D|D4| |59|百度数字人试拍|D|D3|
2024-11-07
阿里开源的数字人
阿里开源的数字人相关信息如下: 阿里的虚拟数字人:https://www.aliyun.com/product/ai/avatar?spm=5176.21213303.8115314850.1.72de53c9pdvu6T&scm=20140722.S_card@@%E4%BA%A7%E5%93%81@@1161322.S_card0.ID_card@@%E4%BA%A7%E5%93%81@@1161322RL_%E6%95%B0%E5%AD%97%E4%BA%BAOR_serV_2P0_0 关于阿里在 AIGC 实践方面的相关文章: 在构建高质量的 AI 数字人方面,建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。笔者的开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。
2024-11-07
开源数字人
以下是关于开源数字人的相关信息: 组合方案: 1. 先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits()克隆声音,做出文案的音频。 2. 使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址:https://github.com/Rudrabha/Wav2Lip 。这就是目前的本地跑数字人的方案,效果都差不多,都是用的 wav2lip 。产品:https://synclabs.so/ 构建高质量的 AI 数字人: 1. 构建数字人躯壳:建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI 。笔者的开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。 相关算法开源代码: 1. ASR 语音识别: openai 的 whisper: https://github.com/openai/whisper wenet: https://github.com/wenete2e/wenet speech_recognition(这是一个语音识别的接口集合,里面有不同实现的语音识别的接口): https://github.com/Uberi/speech_recognition 2. AI Agent: 大模型部分:包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等等。 Agent 部分:可以使用 LangChain 的模块去做自定义,里面基本包含了 Agent 实现的几个组件 3. TTS: 微软的 edgetts:https://github.com/rany2/edgetts,只能使用里面预设的人物声音,目前接口免费。 VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本,可以去搜索一下,vits 系列可以自己训练出想要的人声。 sovitssvc: https://github.com/svcdevelopteam/sovitssvc,专注到唱歌上面,前段时间很火的 AI 孙燕姿。 除了算法,人物建模模型可以通过手动建模(音频驱动)或者 AIGC 的方式生成人物的动态效果(例如 wav2lip 模型)实现,这样就完成了一个最简单的数字人。当然这种简单的构建方式还存在很多的问题,例如: 1. 如何生成指定人物的声音? 2. TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作? 3. 数字人如何使用知识库,做出某个领域的专业性回答?
2024-11-06
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
人工智能在电影制作和人像摄影领域的发展前景
以下是关于人工智能在电影制作和人像摄影领域的发展前景的相关信息: 在电影制作方面,艺术家亚历山大·雷本(Alexander Reben)利用人工智能生成的图像创作雕塑,并将其转化为 3D 模型。他认为人工智能如 Sora 可作为 3D 雕塑创作的起点,还提到将视频转化为 3D 模型的前景,这暗示着推动 AI 系统超越初始范围。 在整体发展上,我们已经使用先进的人工智能来推荐电视节目和电影。导航也利用人工智能规划最快路线或智能预测交通拥堵。智能手机以各种方式使用先进的人工智能。虽然这些设备曾有风险,但如今带来了巨大益处。相关白皮书阐述了在支持创新的同时提供框架以识别和解决风险,采取适度和支持创新的监管框架,不针对特定技术,而是关注 AI 的应用环境,因为特定的 AI 技术在不同应用中的风险差异巨大。 在人像摄影领域,目前没有直接相关的具体内容提及。
2024-09-23
人像照片生成视频
以下是根据你的需求为你生成的文章: 人像照片生成视频的方法 AI 数字人 DID、KreadoAI 和 Sadtalker 等工具都可以将人像照片生成视频,以下是具体的使用方法: DID: 1. 点击,点击右上角的 Create vedio。 2. 选择人物形象,可以点击 ADD 添加你的照片,或者使用 DID 给出的人物形象。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 最后,点击 Generate vedio 就可以生成一段视频。 KreadoAI: 1. 点击,注册后获得 120 免费 k 币,选择“照片数字人口播”的功能。 2. 点击开始创作,选择自定义照片。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 打开绿幕按钮,点击背景,可以添加背景图。 5. 最后,点击生成视频。 Sadtalker: 1. 打开 Sadtalker 软件,对图片进行预处理。crop 只截取图片的头部,full 就是保留整张照片,下面的勾选项已经有文字解释,可以自己试几次。 2. 点击 generate,由于涉及到视频的推理和转换,输出时间要远远大于 AI 绘图和 sovit 的声音推理,需耐心等待。 3. 导入音频,预计需要 35 分钟(3060 12g 显卡)。 4. 最终生成的视频长度与音频一致,如果想制作一个长视频,最好是剪成小段,分别推理,然后合并。 5. 完成后,可以打开输出目录或者下载视频文件。 以上是一些人像照片生成视频的方法,你可以根据自己的需求选择适合的工具。
2024-05-26
是否有对比两张人像相似度的工具
目前有一些可以对比两张人像相似度的工具和技术,它们主要基于计算机视觉和人脸识别技术。以下是一些常见的选择: 1. 在线人脸比对工具 网上有一些免费或付费的在线人脸比对工具,例如 Face++、澄云人脸核身等,可以上传两张人像图片,系统会给出一个相似度评分。 2. Python 人脸识别库 像 face_recognition、dlib、OpenCV 等 Python 库都内置了人脸识别和相似度计算的功能,你可以用几行代码实现图片人脸比对。 3. 人脸识别云服务 一些科技公司提供了人脸识别的云 API 服务,如亚马逊 Rekognition、微软 Azure Face API、百度 AI 云人体分析等,可通过调用 API 获取两张图片的相似度。 4. 开源人脸识别引擎 有些知名的开源人脸识别系统如 FaceNet、ArcFace、InsightFace 等,你可以下载源码在本地部署,利用它们的相似度判断能力。 5. 人工智能应用平台 一些面向普通用户的 AI 平台如 PandorAI、PicoGPT 等,集成了人脸比对的功能模块,提供在线体验或调用接口。 使用这些工具前,通常需要先完成注册和人脸数据采集等准备工作。在选择时你可以考虑性能、便捷性、隐私安全、成本等因素。目前的人脸识别技术虽已相当精准,但也面临一些道德和法律挑战,使用时需谨慎。
2024-04-19
有什么可以实时转录帮忙面试的工具
以下是一些可以实时转录帮忙面试的工具: Ecoute:这是一种实时转录工具,可在文本框中为用户的麦克风输入(You)和用户的扬声器输出(Speaker)提供实时转录。它还使用 OpenAI 的 GPT3.5 生成建议的响应,供用户根据对话的实时转录说出。开源地址:https://github.com/SevaSk/ecoute 。 作者开发的使用 GPT4 技术的实时转录工具,可以帮助求职者在面试中生成完美的回答。详情可参考:https://waytoagi.feishu.cn/wiki/Fh1Kw1Af2iUqtjk4uApc4uGenRf?table=tblwdvsWICkId67f&view=vewm6DMY99
2024-11-15
视频实时翻译工具
以下为您介绍一些视频实时翻译工具: ElevenLabs 推出了一个全自动化的 AI 配音或视频翻译工具。您只需上传视频或粘贴视频链接,该工具能在几十秒到几分钟内将视频翻译成 29 种语言,还能直接克隆原视频里的声音来配音。 StreamSpeech 是一种实时语言翻译模型,能够实现流媒体语音输入的实时翻译,输出目标语音和文本,同步翻译且延迟低,还能展示实时语音识别结果。
2024-10-24
实时翻译
以下是关于实时翻译的相关信息: Meta AI 发布的实时人工智能语言翻译模型 Seamless: 应用场景广泛,如人们之间的交流、元宇宙、教学、旅行、娱乐等。 统一了之前的三个 Seamless 系列模型,可实时翻译 100 多种语言,延迟不到 2 秒钟,在说话者仍在讲话时就开始翻译。 不仅是文字转换,还能保持说话者的情感、语气和语调,使翻译后的语音更自然真实。 主要特点包括保持原声情感和实时翻译。 语言学习中的实时翻译和词典工具: Google Translate:提供实时翻译、语音输入和图像翻译功能,适合快速查找和学习新词汇。使用方法为输入或语音输入需要翻译的内容,查看翻译结果和示例句子。 Reverso Context:提供单词和短语的翻译及上下文例句,帮助理解和学习用法。使用方法为输入单词或短语,查看翻译和例句,学习实际使用场景。 StreamSpeech:实现流媒体语音输入的实时翻译,输出目标语音和文本,同步翻译且低延迟,展示实时语音识别结果。
2024-10-20
创建聊天机器人时,数据还是存在本地吗,后面可以实时更新知识库吗
在创建聊天机器人时,数据的存储和更新情况如下: 扣子平台:内置强大的知识库功能,允许开发者上传和维护大量数据,这些数据可用于训练 AI Bot 以更准确理解和回应用户需求。平台具备数据库记忆能力,能存储和检索用户交互历史以提供个性化服务。数据上传形式多样,包括文本、图片、视频等,可通过直观编辑工具整理分类。上传数据用于训练优化 AI Bot,机器学习算法分析数据提高回答准确性和相关性。知识库支持实时更新,对金融、法律等需频繁更新信息的行业尤为重要。数据库能存储用户交互记录,包括提问、回答和反馈,目前数据库设置只能在创建 AI bot 时设置和修改,无需懂数据库语法或编程,用自然语言告知操作即可。通过分析交互历史,AI Bot 能提供个性化服务,开发者还能利用交互记录进行错误分析和修正以提高性能。 FastGPT + OneAPI + COW:创建知识库应用时,地址输入浏览器:http://这里替换为你宝塔左上角的那一串:3000/ 。进入后点击应用并创建,选择 qwen 模型,创建知识库,上传文件等待处理至文本状态为“已就绪”。回到创建的应用关联知识库,点击两个发布,新建并创建 key,保存 API 根地址并加上/v1 。安装并接入 cow 时,回到宝塔打开【终端】,依次执行相关命令。
2024-10-08
实时语音转文字
以下是为您整理的关于实时语音转文字的相关信息: 开箱即用语音产品: 微软:WIN11 自带 科大讯飞:讯飞语记,链接:,优势:领先的语音识别技术,多种人声选择 百度:百度语音,链接:百度语音,优势:高精度语音合成和识别,多场景应用支持 腾讯:腾讯云智聆,链接:腾讯云智聆,优势:强大的语音合成技术,支持多种中文方言 阿里巴巴:阿里云语音,链接:阿里云语音,优势:语音合成效果好,支持实时语音转换 思必驰:思必驰语音,链接:,优势:语音合成自然流畅,适用于智能硬件和应用 在线 TTS 工具: 该服务提供了支持 100 多种语言和方言的语音转文本和文本转语音功能。此外,它还提供了自定义的语音模型,这些模型能够适应特定领域的术语、背景噪声以及不同的口音。 Voicemaker:https://voicemaker.in/ ,AI 工具可将文本转换为各种区域语言的语音,并允许您创建自定义语音模型。Voicemaker 易于使用,非常适合为视频制作画外音或帮助视障人士。内容由 AI 大模型生成,请仔细甄别。 人工智能音频初创公司: :为聋人和重听者提供专业和基于 AI 的字幕(转录和说话人识别)。 :专业的基于 AI 的转录和字幕。 :混合团队高效协作会议所需的一切。 :音频转录软件 从语音到文本到魔法。 :99%准确的字幕、转录和字幕服务。 :为语音不标准的人群提供的应用程序。 :通过 AI 语音识别实现更快速、更准确的语音应用。 :会议的 AI 助手。 :让孩子们的声音被听见的语音技术。 :使用语音识别自动将音频和视频转换为文本和字幕的 SaaS 解决方案。 :实时字幕记录面对面小组会议中的发言内容。 :理解每个声音的自主语音识别技术。 :支持 35 多种语言的自动转录。 :端到端的边缘语音 AI,设备上的语音识别。 :清晰自信地说英语。 :使用单一 API 为您的产品提供最先进的 AI 转录、翻译和音频智能。
2024-10-01
我想找一个实时翻译的,用在会议中,例如一个人在演讲,然后可以在电脑上直接出他在说的内容的字幕,他说的是英文,所以最好是可以直接翻译成日语的
以下为您推荐几款适用于会议中实时翻译英文并翻译成日语的工具: 1. Meta AI 发布的实时人工智能语言翻译模型 Seamless:统一了之前的三个 Seamless 系列模型,可以实时翻译 100 多种语言,延迟不到 2 秒钟,说话者仍在讲话时就开始翻译。不仅是文字转换,还能保持说话者的情感、语气和语调,使翻译后的语音更自然真实。其主要特点包括保持原声情感,实时翻译。 2. Google Translate:提供实时翻译、语音输入和图像翻译功能,适合快速查找和学习新词汇。使用时输入或语音输入需要翻译的内容,查看翻译结果和示例句子。 3. RTranslator:一款开源、免费离线的实时翻译应用,可实现多人、多语言的实时对话翻译。包括对话模式、对讲机模式和文本翻译三种模式。
2024-09-28
midjourney中如何结合A图片的人物和B图片的动作和内容
在 Midjourney 中结合 A 图片的人物和 B 图片的动作和内容,可以使用新上线的“Character Reference”(cref)功能。以下是一些关键方法和示例: 1. 锚定细节:您可以掌控姿势、表情、情感、服装、道具、场景、动作等细节。例如:“Jo is a young woman with blue curly hair, pink sunglasses, and a colorful scarf around her neck. She waits in line at the bank. cref https://my.image.host/joisstanding.jpg”。 2. 让 cref 处理大部分工作:提示无需加强标志性细节,只是“操纵”或“定位”角色。例如:“有人正在银行排队等候。 cref https://my.image.host/joisstanding.jpg”。 3. 只提供场景:如果您的 cref 图像已包含想要的姿势和其他细节,您可以仅描述环境、周围环境、背景或情境,Midjourney 将努力将角色融入场景中。但可能会出现不连贯的结果,此时可尝试使用更高值的样式化,如“s 800”。 需要注意的是,此功能在使用 Midjourney 生成的图像人物时效果最佳,不太适用于真实人物或照片。同时,在 Midjourney V6 的 Web Alpha 版本中,您可以通过拖放或粘贴图像到想象栏,并选择相应图标来设置图像为图像提示、风格参考或角色参考。
2024-11-18
图片 视频处理 应用推荐
以下是为您推荐的一些图片和视频处理应用: Runway:具有文生视频、Prompt+图像生成视频、无 Prompt 直接图片转视频等功能。支持 motion 控制和运镜调节,还提供 30 多项图片、视频处理能力,如 Inpainting 视频修复、Motion Tracking 视频主体跟随运动、Remove Any Background 删除视频元素/背景、3D Texture 生成 3D 纹理等。近期控制台上线了 Watch 模块,可查看官方精选的创意案例。 AiLogoArt:将您的 Logo 融入 AI 生成的图象中,能在几分钟内获得专业品牌图片。 PlainScribe:可将大文件转录为完美的文本,上传文件处理完成后可搜索文本或下载 CSV 文件,适用于各种大文件,有灵活的按需付费模式。 RIX:面向开发者的人工智能搜索引擎,可使用 Web 搜索模式查找最新信息或切换到 GPTknowledge 模式获得预先训练的知识即时答案,还能通过流行网站快捷方式简化搜索。 Magic Clips:能让人工智能挑选出录制的最佳时刻,并转化为适合媒体的短视频片段,可添加字幕。 以下是一些从事相关工作的人员: yangzec:学习多模态 AI 的使用和开发应用 凯叔 AI:插画设计 清墨.SALEX:日常工作 above:批量作图 ehhe:绘画,视频,人像,电商背景图 kone:AI 商业应用 xman:自媒体创作 Alan:绘画和视频处理 在野:视频创作 tang:照片处理等 阿鲁:生产 大大大松树:视频工作流 BigPeng:好玩 冻奶味:工作+娱乐休闲 Lily:视频和电商,写真 tim:能用在生产中 木兰:广告推广素材制作 吴:电商 马化腾:Ai 绘画 蔡徐坤:Ai 视频,Ai 绘画,Ai 音乐 吴林林:爱好,家人做写真 初尘:文生视频,做自媒体 ning:工作流
2024-11-16
图片去除水印
以下是一些 AI 去水印的工具和方法: 1. AVAide Watermark Remover:这是一个在线工具,使用 AI 技术从图片中去除水印。它支持多种图片格式,如 JPG、JPEG、PNG、GIF 等。操作简单,只需上传图片,选择水印区域,然后保存并下载处理后的图片即可。这个工具还提供了其他功能,如去除文本、对象、人物、日期和贴纸等。 2. Vmake:同样提供 AI 去除图片水印的功能。用户可以上传最多 10 张图片,AI 会自动检测并移除图片上的水印。处理完成后,用户可以选择保存生成的文件。适合需要快速去除水印的用户,尤其是那些需要在社交媒体上分享图片的用户。 3. AI 改图神器:提供 AI 智能图片修复去水印的功能,可以一键去除图片中的多余物体、人物或水印,不留任何痕迹。支持直接粘贴图像或上传手机图像,操作简单方便。 此外,如果想去掉图片中特定的物体,如右手的手串,除了 PS,还可以选择以下工具: Adobe Firefly 的 AI 版,SD 局部重绘。 Firefly、Canva、Google Photo 都有局部重绘功能。 微软 Designer 也免费。 还可以使用工具 https://clipdrop.co/cleanup 进行图片去水印。 这些工具各有特点,可以根据您的具体需求选择最适合您的去水印工具。内容由 AI 大模型生成,请仔细甄别。
2024-11-15
我想要让ai生成svg图片,如何保证其生成质量
要保证 AI 生成 SVG 图片的质量,您可以参考以下方法: 在使用 AI 生成图片时,可能会遇到即使输入相同关键词,生成的图片仍有很强随机性的情况。为了让生成的图片更加可控,可以利用 seed 参数进行反向生成。 首先,从官方文档中了解 seed 参数的作用:Midjourney 会用一个种子号来绘图,把这个种子作为生成初始图像的起点。种子号为每张图随机生成,但可以使用 Seed 或 same eseed 参数指定。使用相同的种子号和提示符将产生类似的结尾图片。详细参数可查看官方文档: 默认情况下,种子是随机给定的。若想要获得比较相似的图,需要将 seed 固定下来。简单来说,使用时在关键词后添加 seed 参数即可,具体数字在 0–4294967295 范围内均可。例如:caiyunyiueji is a cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k seed 8888 这样就能保证每次生成的都是相同的图。此外,还可以反向利用这个特性对已经确定的效果图进行微调。比如当发现有一张图已比较接近目标,还需要一些微调时,可以利用确定图片的 seed,在此基础上添加新的关键词来实现。
2024-11-15
生成logo图片的AI工具
以下是一些生成 logo 图片的 AI 工具: 1. Looka:是一个在线 Logo 设计平台,使用 AI 理解用户的品牌信息和设计偏好,生成多个设计方案供选择和定制。 2. Tailor Brands:AI 驱动的品牌创建工具,通过用户回答问题生成 Logo 选项。 3. Designhill:其 Logo 制作器使用 AI 技术创建个性化设计,用户可选择元素和风格。 4. LogoMakr:提供简单易用的设计工具,用户可拖放设计,利用 AI 建议的元素和颜色方案。 5. Canva:广受欢迎的在线设计工具,提供 Logo 设计模板和元素,有 AI 辅助设计建议。 6. LogoAI by Tailor Brands:Tailor Brands 推出的 AI Logo 设计工具,根据用户输入快速生成方案。 7. 标小智:中文 AI Logo 设计工具,利用人工智能技术帮助创建个性化 Logo。 另外,即梦 AI 也有相关功能。制作步骤如下: 1. 在即梦左侧点击「智能画布」,「上传图片」上传一张 logo 图,点击「图生图」输入描述词,参考程度为 55 ,选择「轮廓边缘」,点击立即生成。 2. 右侧图层可看到 4 张图,选择喜欢的图;若不喜欢,可用局部重绘、消除笔等功能调整或重新生成。 还有第六期的活动“一起做个 LOGO 吧”,活动时间为 2024 年 6 月 9 日至 2024 年 6 月 16 日。参与方式为使用 SD 等 AI 工具出图,作品直接发送至 SD 学社微信群。更多 SD 教程可参考: ,并开启本地 sd 客户端。
2024-11-15
能将图片转成线稿的软件
以下是一些能够将图片转成线稿的软件及相关方法: 1. SDXL Prompt Styler:可以把图片转化成近百种风格。在转绘成折纸风时,最好不要加入线稿边缘(canny)的 ControlNet 控制,或者需要把 canny 的控制强度(strength)调到比较小。原始图像是手绘风格时,手绘线条和折纸风格本身互斥。若想转成漫画风格并较好保留人物外轮廓,加入 canny 控制能更好还原人物原本造型。有时内置预设提示词组合不一定能达到想要效果,需自行添加更多相关关键词。此工作流结合 Vid2Vid Style Transfer with IPA & Hotshot XL 工作流,可实现视频不同风格的稳定转绘。 2. Midjourney + Stable Diffusion:在上色时,正关键词主要前面添加增加照片质感常用的+mj 生成线稿的关键词调整等,负关键词根据效果添加。在 ControlNet 设置中,上传自己的草图到 ControlNet 并启用,预处理器需生效。 3. IPA 工作流:基于黑白线条的图案及背景风格重绘,首先创建节点加载图片,其次读取所需风格的参考图,通过 cn 的深度学习模型(SDxl 版本)进行处理,对要生成的图片填写提示词,如正向提示词:illustration,bushes,calm,executable,high quality ,然后生成。 具体五种不同的处理器对比,可以参考我的飞书文档:
2024-11-15