直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

有开源的支持实时让图片人像说话的项目吗?

回答

关于您提到的开源项目,用于实时让图片人像说话,我找到了几个相关的开源项目,这些项目均支持从音频中学习生成3D运动系数,并使用3D面部渲染器来生成头部运动,从而实现图片加音频生成高质量视频的功能。

  1. SadTalker:由西安交通大学开源的SadTalker模型,可以通过音频学习生成3D运动系数,使用3D面部渲染器生成头部运动,实现图片加音频生成高质量视频的功能。SadTalker支持stable diffusion webui,可以结合一段音频合成面部说话的视频。
  2. DreamTalk:由清华大学、阿里巴巴和华中科大共同开发的基于扩散模型的开源框架,可以让人物照片说话,支持包括歌曲、多种语言的语音、嘈杂的音频在内的各种声音匹配让人物头像说话。DreamTalk包含降噪网络、风格感知唇部专家和风格预测器等关键组件,能够生成富有表现力的面孔,并减少对昂贵的风格参考的依赖。

这两个项目都是开源的,提供了详细的安装和使用指南,可以作为搭建实时让图片人像说话系统的参考。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

其他人在问
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
开源的开源的 LLM 微调推理,agent开发平台
以下是为您整理的关于开源的 LLM 微调推理、agent 开发平台的相关内容: LLM 作为 Agent 的“大脑”的特点: 1. 知识获取能力:通过预训练学习大量语言数据,掌握丰富语言信息和常识知识,能处理多种任务。 2. 指令理解:擅长解析人类语言指令,采用深度神经网络进行自然语言理解和生成,精准理解意图。 3. 泛化能力:在未见过的数据上表现良好,能利用先前知识处理新挑战,形成对语言结构的通用理解。 4. 推理和规划:能够进行逻辑推理和未来预测,分析条件制定最佳行动方案,在复杂环境中做出理性选择。 5. 交互能力:拥有强大对话能力,在多人多轮次对话中自然流畅交流,改善用户体验。 6. 自我改进:基于用户反馈和效果评估,通过调整参数、更新算法提升性能和准确性。 7. 可扩展性:可根据具体需求定制化适配,针对特定领域数据微调提高处理能力和专业化水平。 相关产品和平台: 1. ComfyUI:可在其中高效使用 LLM。 2. Vercel AI SDK 3.0:开源的工具,可将文本和图像提示转换为 React 用户界面,允许开发者创建丰富界面的聊天机器人。 3. OLMo7BInstruct:Allen AI 开源的微调模型,可通过资料了解从预训练模型到 RLHF 微调模型的所有信息并复刻微调过程。 4. Devv Agent:能提供更准确、详细的回答,底层基于 Multiagent 架构,根据需求采用不同 Agent 和语言模型。 实例探究: 1. ChemCrow:特定领域示例,通过 13 个专家设计的工具增强 LLM,完成有机合成、药物发现和材料设计等任务。 2. Boiko et al. 研究的 LLM 授权的科学发现 Agents:可处理复杂科学实验的自主设计、规划和执行,能使用多种工具。
2024-12-12
开源大模型训练推理,应用开发agent 平台
以下是一些关于开源大模型训练推理、应用开发 agent 平台的相关信息: Agent 构建平台: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot。 Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,可将 Copilot 部署到多种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识等,并访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 Gemini 相关:大型语言模型的推理能力在构建通用 agents 方面有潜力,如 AlphaCode 团队构建的基于 Gemini 的 agent 在解决竞争性编程问题方面表现出色。同时,Gemini Nano 提升了效率,在设备上的任务中表现出色。 成为基于 Agent 的创造者的学习路径:未来的 AI 数字员工以大语言模型为大脑串联工具。Agent 工程如同传统软件工程学有迭代范式,包括梳理流程、任务工具化、建立规划、迭代优化。数字员工的“进化论”需要在 AI 能力基础上对固化流程和自主思考作出妥协和平衡。
2024-12-12
对企业来说直接用开源大模型和用国内大厂收费的大模型有哪些区别
对于企业来说,直接使用开源大模型和使用国内大厂收费的大模型主要有以下区别: 数据方面: 开源大模型的数据获取相对容易,但数据质量可能参差不齐。例如,OpenAI 训练大模型所用的中文数据虽源自中国互联网平台,但经过了深度处理,而国内中文互联网数据质量普遍被认为相对较低。 国内大厂收费的大模型可能在数据处理和质量上更具优势,但获取高质量数据对于企业尤其是初创企业来说成本较高且存在风险。 商业化落地方面: 客户在商业化落地时更关注实用性而非原创性,有时因成本低会倾向选择开源大模型的非原创技术。 但使用开源大模型可能存在拼装和套壳后强调原创,从而影响迭代能力,导致内耗、刷榜和作假等问题。 其他方面: 金沙江创投主管合伙人朱啸虎指出,使用大模型要有垂直行业数据,能实现数据闭环,并持续保持和客户的连接。对于大厂而言,要关心自身边界,而创业公司必须对客户和大厂有自身价值才能立足。 目前国内大模型的商业化落地仍处于拿着锤子找钉子的阶段,预计到今年年底头部大模型能基本达到 3.5 水平,明年 11 月有望到 4,但真正能落地的商业化场景有限。
2024-12-07
最新的开源的关于大语言模型的书有哪些?
以下是一些最新的开源的关于大语言模型的书籍和资源: 《LLM 开源中文大语言模型及数据集集合》: Awesome Totally Open Chatgpt: 地址: 简介:This repo record a list of totally open alternatives to ChatGPT. AwesomeLLM: 地址: 简介:This repo is a curated list of papers about large language models, especially relating to ChatGPT. It also contains frameworks for LLM training, tools to deploy LLM, courses and tutorials about LLM and all publicly available LLM checkpoints and APIs. DecryptPrompt: 地址: 简介:总结了 Prompt&LLM 论文,开源数据&模型,AIGC 应用。 Awesome Pretrained Chinese NLP Models: 地址: 简介:收集了目前网上公开的一些高质量中文预训练模型。 《AIGC Weekly 19》:包含了多篇相关文章,如腾讯的开源图像模型 Stable Diffusion 入门手册、马丁的关于 AIGC 的碎片化思考、多邻国创始人 Luis von Ahn 专访、Meta AI 发布的自监督学习 CookBook 等。 《进阶:a16z 推荐进阶经典》: 《GPT4 technical report》(2023 年):来自 OpenAI 的最新和最伟大的论文。 《LLaMA:Open and efficient foundation language models》(2023 年):来自 Meta 的模型。 《Alpaca:A strong,replicable instructionfollowing model》(2023 年):来自斯坦福大学的模型。
2024-12-03
强化学习+开源代码
以下是关于强化学习的开源代码入门指南: 1. 基础知识准备: 若概率论和线性代数基础薄弱,可利用周末约一天时间学习相关课程,若不关注公式可忽略。 若机器学习基础为零,先看吴恩达课程,再以李宏毅课程作补充,若仅为入门强化学习,看李宏毅课程前几节讲完神经网络部分即可,此课程约需 25 小时。 2. 动手实践: 跟随《动手学深度学习 https://hrl.boyuai.com/》学习并写代码,入门看前五章,约 10 小时。 观看 B 站王树森的深度学习课程前几节学习强化学习基础知识点,约 5 小时。 3. 项目实践: 参考《动手学强化学习》(已开源 https://hrl.boyuai.com/),看到 DQN 部分,约十几小时。 模型构建:DQN 的网络模型采用一层 128 个神经元的全连接并以 ReLU 作为激活函数,选用简单的两层网络结构。 缓存区:需要一个缓存区来存放从环境中采样的数据。 训练函数:批量从缓存区获取数据,使用 DQN 算法进行训练。 主循环函数:在每个 episode 中,选择一个动作(使用 εgreedy 策略),执行该动作,并将结果存储在 replay buffer 中。训练完使用保存好的 model.pth 参数即可实际使用。 4. Qlearning 算法: 比如在状态 s1 上,根据 Q 值表选择行动,如发现向下行动 Q 值最大则向下走。获取 Q(s1,下)乘上衰减值 gamma(如 0.9)并加上到达下一个状态的奖励 R,作为“Q 现实”,之前根据 Q 表得到的是“Q 估计”。通过公式更新 Q(s1,下)的值,公式为:。 算法流程:初始化 Q,for 序列 e = 1 > E do: 用 ε Greedy 策略根据 Q 选择当前状态 s 下的动作 a,得到环境反馈的 r,s‘,得到初始状态 s,for 时间步 t = 1> T do: ,End for,End for。启动程序训练 100 次后可较好进行游戏。
2024-11-21
人工智能在电影制作和人像摄影领域的发展前景
以下是关于人工智能在电影制作和人像摄影领域的发展前景的相关信息: 在电影制作方面,艺术家亚历山大·雷本(Alexander Reben)利用人工智能生成的图像创作雕塑,并将其转化为 3D 模型。他认为人工智能如 Sora 可作为 3D 雕塑创作的起点,还提到将视频转化为 3D 模型的前景,这暗示着推动 AI 系统超越初始范围。 在整体发展上,我们已经使用先进的人工智能来推荐电视节目和电影。导航也利用人工智能规划最快路线或智能预测交通拥堵。智能手机以各种方式使用先进的人工智能。虽然这些设备曾有风险,但如今带来了巨大益处。相关白皮书阐述了在支持创新的同时提供框架以识别和解决风险,采取适度和支持创新的监管框架,不针对特定技术,而是关注 AI 的应用环境,因为特定的 AI 技术在不同应用中的风险差异巨大。 在人像摄影领域,目前没有直接相关的具体内容提及。
2024-09-23
人像照片生成视频
以下是根据你的需求为你生成的文章: 人像照片生成视频的方法 AI 数字人 DID、KreadoAI 和 Sadtalker 等工具都可以将人像照片生成视频,以下是具体的使用方法: DID: 1. 点击,点击右上角的 Create vedio。 2. 选择人物形象,可以点击 ADD 添加你的照片,或者使用 DID 给出的人物形象。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 最后,点击 Generate vedio 就可以生成一段视频。 KreadoAI: 1. 点击,注册后获得 120 免费 k 币,选择“照片数字人口播”的功能。 2. 点击开始创作,选择自定义照片。 3. 配音时,可以选择提供文字选择音色,或者直接上传一段音频。 4. 打开绿幕按钮,点击背景,可以添加背景图。 5. 最后,点击生成视频。 Sadtalker: 1. 打开 Sadtalker 软件,对图片进行预处理。crop 只截取图片的头部,full 就是保留整张照片,下面的勾选项已经有文字解释,可以自己试几次。 2. 点击 generate,由于涉及到视频的推理和转换,输出时间要远远大于 AI 绘图和 sovit 的声音推理,需耐心等待。 3. 导入音频,预计需要 35 分钟(3060 12g 显卡)。 4. 最终生成的视频长度与音频一致,如果想制作一个长视频,最好是剪成小段,分别推理,然后合并。 5. 完成后,可以打开输出目录或者下载视频文件。 以上是一些人像照片生成视频的方法,你可以根据自己的需求选择适合的工具。
2024-05-26
是否有对比两张人像相似度的工具
目前有一些可以对比两张人像相似度的工具和技术,它们主要基于计算机视觉和人脸识别技术。以下是一些常见的选择: 1. 在线人脸比对工具 网上有一些免费或付费的在线人脸比对工具,例如 Face++、澄云人脸核身等,可以上传两张人像图片,系统会给出一个相似度评分。 2. Python 人脸识别库 像 face_recognition、dlib、OpenCV 等 Python 库都内置了人脸识别和相似度计算的功能,你可以用几行代码实现图片人脸比对。 3. 人脸识别云服务 一些科技公司提供了人脸识别的云 API 服务,如亚马逊 Rekognition、微软 Azure Face API、百度 AI 云人体分析等,可通过调用 API 获取两张图片的相似度。 4. 开源人脸识别引擎 有些知名的开源人脸识别系统如 FaceNet、ArcFace、InsightFace 等,你可以下载源码在本地部署,利用它们的相似度判断能力。 5. 人工智能应用平台 一些面向普通用户的 AI 平台如 PandorAI、PicoGPT 等,集成了人脸比对的功能模块,提供在线体验或调用接口。 使用这些工具前,通常需要先完成注册和人脸数据采集等准备工作。在选择时你可以考虑性能、便捷性、隐私安全、成本等因素。目前的人脸识别技术虽已相当精准,但也面临一些道德和法律挑战,使用时需谨慎。
2024-04-19
我需要的是一款可以实时分析公司和行业最新资讯的AI工具
目前市面上有一些能够实时分析公司和行业最新资讯的 AI 工具,例如: 1. 百度的文心一言:具有强大的语言理解和生成能力,可以帮助您处理和分析相关资讯。 2. 微软的 Bing:能够提供搜索和资讯分析功能。 但需要注意的是,不同的工具在功能和特点上可能会有所差异,您可以根据自己的具体需求和使用习惯进行选择。
2024-12-11
AI加持的实时语音克隆工具有哪些?
以下是一些 AI 加持的实时语音克隆工具: 1. CloneVoice:基于 Coqui AI TTS 模型,能够变换不同声音,支持 16 种语言,包括中英日韩法,支持在线声音克隆,录音时长为 5 20 秒。链接:https://x.com/xiaohuggg/status/1739178877153681846?s=20 2. Vidnoz AI:支持 23 多种语言的配音,音质高保真,支持文本转语音和语音克隆功能,提供语音参数自定义和背景音乐添加工具,提供面向个人和企业的经济实惠的定价方案。
2024-12-04
正在在线学习,需要一款能实时记录课程学习中的知识点,做好笔记,做好思维导图的强大AI
以下为您提供的相关学习笔记: 笔记主题为“Generative AI for Everyone 吴恩达”,作者是心威。起因是自学 AI 并观看吴恩达老师的相关课程时边看边做的笔记。 生成式人工智能的工作原理:在整体的人工智能领域中,监督学习用于标记事物,一直占据很大比例。现在生成式 AI 近期快速崛起,强化学习与无监督学习也是重要工具。生成式 AI 由监督学习技术搭建,2010 2020 年是大规模监督学习的十年,为现代人工智能奠定基础。生成文本会使用到大语言模型,其生成过程是不断预测下一个词语。 大语言模型是思考的朋友:运用大语言模型写故事、修改文本非常有用。网络搜索与 LLM 有区别,LLM 会编造故事产生错误信息,需鉴别信息准确。 人工智能是一种通用技术(可以应用的空间):人工智能有大量运用空间,包括基于网络界面应用和基于软件程序应用。 写作:使用 LLM 写作进行集思广益、头脑风暴非常有用,网页版聊天需提供更多信息,翻译也可使用 LLM,但网络文本较少时效果不太好,可让 LLM 将内容翻译为海盗英语测试翻译准确度。 还有笔记主题为“AI for everyone 吴恩达”,作者也是心威。 以上笔记可能存在错误,如有需要可联系作者(右侧二维码),希望对您有所帮助。但这些笔记可能无法完全满足您需要一款能实时记录课程学习中的知识点、做好笔记和做好思维导图的强大 AI 的需求。
2024-11-28
现在哪几家的大模型支持通过手机视频多模态实时交流?
以下几家的大模型支持通过手机视频多模态实时交流: 1. PandaGPT:能够理解不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。 2. VideoLLaMA:引入了多分支跨模式 PT 框架,使语言模型能够在与人类对话的同时处理给定视频的视觉和音频内容。 3. 视频聊天 GPT:专门为视频对话设计,能够通过集成时空视觉表示来生成有关视频的讨论。 4. NExTGPT:端到端、通用的 anytoany 多模态语言模型,支持图像、视频、音频、文本的自由输入输出。
2024-11-22
有什么可以实时转录帮忙面试的工具
以下是一些可以实时转录帮忙面试的工具: Ecoute:这是一种实时转录工具,可在文本框中为用户的麦克风输入(You)和用户的扬声器输出(Speaker)提供实时转录。它还使用 OpenAI 的 GPT3.5 生成建议的响应,供用户根据对话的实时转录说出。开源地址:https://github.com/SevaSk/ecoute 。 作者开发的使用 GPT4 技术的实时转录工具,可以帮助求职者在面试中生成完美的回答。详情可参考:https://waytoagi.feishu.cn/wiki/Fh1Kw1Af2iUqtjk4uApc4uGenRf?table=tblwdvsWICkId67f&view=vewm6DMY99
2024-11-15
视频实时翻译工具
以下为您介绍一些视频实时翻译工具: ElevenLabs 推出了一个全自动化的 AI 配音或视频翻译工具。您只需上传视频或粘贴视频链接,该工具能在几十秒到几分钟内将视频翻译成 29 种语言,还能直接克隆原视频里的声音来配音。 StreamSpeech 是一种实时语言翻译模型,能够实现流媒体语音输入的实时翻译,输出目标语音和文本,同步翻译且延迟低,还能展示实时语音识别结果。
2024-10-24
我想生成一张机器人的图片
以下是为您生成机器人图片的相关指导: 提示词:使用简笔画的方式帮我画一张机器人的图片,画风可爱一些,去掉所有辅助线,要求只有唯一的一个主人公,同时左右对称结构,线条少一些简单点。 图像流搭建: 创建第一个图像流:由于文本类型大语言模型无法直接生成图片,需要通过【技能】部分的图像流为文本大模型提供图像生成能力。 了解图像流节点的意义:左侧工具栏集合了智能处理、基础编辑、风格处理等工具,右侧类似画布,可拖拽工具模块并连接形成工作流程。 根据需求进行图像流设计:例如生成海报功能,需总结故事,优化提示词,输入生图大模型并调整输出最终配图海报。 图片处理: 以中轴线为基础裁剪图片,图片左边保持原样不动,右边增加一个与左边相同的空白图片且背景色一致,并展示结果。 针对新生成的整张图,加入水平和竖直方向各 11 条等距虚线辅助线,并展示结果。 另外,关于机器人图片生成和相关处理还存在一些问题及解答: 理想生成图片只实现了一次,其他几次生产文字加链接,链接需点进去查看且图片需渲染或加载,可在 github 上搜索 nicecoze 插件将 markdown 转换为图片消息。 Coze 里面模型配置用的 GPT4o,程序运行调用的是 GPT3.5 Turno,这没有影响,依然使用的是 GPT4o,只是 token 计算方式用的 3.5。 Coze 加入插件 Data Analysia 等互动过程无法实现功能,需在 coze 里处理,与 cow 的 config 无关。 yum 安装报错可能是重新安装导致,需确认服务器类型,如阿里云自带 yum 则无需执行相关安装步骤。
2024-12-22
可以将图片中的文字转换么
可以将图片中的文字进行转换。以下为您介绍一些相关工具和技术: 2txt:Image to text 转换工具,利用 AI SDK 将图片内容转换为文字,不仅限于 OCR,提供体验地址和开源代码链接:https://x.com/imxiaohu/status/1780101723719393780 。 DiT 技术:不仅训练过程高效,在实际应用中展现出强大的图像生成能力。能根据简单文字描述生成逼真图像,如输入“一只毛茸茸的棕色小猫,有着明亮的蓝色眼睛”可生成相应小猫图片;在图像修复方面表现出色,可智能识别图像瑕疵并修复,如修复老照片中被污渍遮挡的人物面部;还能赋予图像不同艺术风格,为图像创作和编辑提供全新可能性。 希望这些信息对您有所帮助。
2024-12-21
生成图片的选项U和V是什么意思
在 Midjourney 中,生成图片后出现的 U 和 V 按钮具有以下含义: U 按钮(Upscale):代表放大图像提升细节。数字代表对应的图像,如 U1、U2、U3、U4。点击 U 按钮可以生成选定图像的较大尺寸版本,并优化更多细节呈现。 V 按钮(Variation):代表在基础上发生变化。数字表示对应的图像,如 V1、V2、V3、V4。选择觉得效果不错的某张图,如第 2 张图,点击 V2,会再生成四个和第 2 张图相似的图像。
2024-12-21
AI图片社区
以下是关于 AI 图片社区的相关信息: 如何判断一张图片是否 AI 生成:要培养鉴别 AI 图片的技能需要训练大脑模型。对于不擅长的朋友,可通过一些网站来判断,如 ILLUMINARTY(https://app.illuminarty.ai/),但测试中可能存在误判,这是因为鉴定 AI 自身的逻辑算法不能像人类一样综合考虑各种表现。 100 个 AI 应用中的相关社区:500px 摄影社区是 AI 摄影比赛平台,利用图像识别、数据分析技术,举办摄影比赛,展示优秀摄影作品;雪球财经 APP 是 AI 金融投资教育平台,利用数据分析、自然语言处理技术,为用户提供个性化的金融投资教育服务。
2024-12-21
图片放大
以下是关于图片放大的相关信息: 本地工具放大:https://www.upscayl.org/download SD 放大:扩散模型可以增加更多细节 开源工作流: stability.ai 的:https://clipdrop.co/tools 画质增强: https://magnific.ai/ https://www.krea.ai/apps/image/enhancer https://imageupscaler.com/ https://picwish.cn/photoenhancerapi?apptype=apsbdapi&bd_vid=8091972682159211710 腾讯 ARC:https://arc.tencent.com/zh/aidemos/humansegmentation?ref=88sheji.cn 腾讯开源的模型,能恢复老照片:https://github.com/TencentARC/GFPGAN,在线测试地址:https://replicate.com/tencentarc/gfpgan 美图老照片修复:https://www.xdesign.com/quality/?channel=sllbd90&bd_vid=11711254260543749686 https://imglarger.com/ https://letsenhance.io/ http://waifu2x.udp.jp/ 在 SD 中进行图片放大: 使用过插件、脚本和后期处理,原理相同,好坏需尝试,因为 AI 生图有随机性。 在 Tiled Diffusion 中,MultiDiffusion 方案适合图像重绘、风格迁移和放大等功能。 四个滑块代表分块大小、分块之间的重叠像素和同时处理的分块数量,数值越大效果越好、速度越快,数值越小占用显存越小,一般保持默认,重叠像素大小建议使用 MultiDiffusion 时选择 32 或 48,使用 Mixture of Diffusers 选择 16 或 32。 Tiled VAE 可极大程度降低 VAE 编解码大图所需的显存字节,分块大小根据电脑情况调节,数值越小占用显存越低。 生成 512x512 的图片,发送到图生图进行重绘,选择熟悉的放大算法和所需的放大倍数,重绘幅度设置为 0.35,放大算法下面的噪声反转可在重绘前对原图像进行噪声图反推,让放大的图片更接近原图。 在 SD 中文生图的相关提示词: Stable Diffusion 的生成方式主要分为文生图和图生图两种,文生图仅通过正反向词汇描述发送指令,图生图除文字外还可给 AI 参考图进行模仿(垫图)。 文本描述分为内容型提示词和标准化提示词,内容型提示词用于描述想要的画面,例如:1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面(使用翻译软件翻译成英文)。 采样迭代步数通常控制在 20 40 之间,采样方法常用的有:Euler a;DPM++2S a Karras;DPM++2M Karras;DPM++SDE Karras;DDIM。 比例设置为 800:400,高宽比尽量在 512x512 数值附近,太大的数值会使 AI 构图奇怪,可同时点选高清修复来放大图像倍率。
2024-12-20
你可以根据问题说生成PPT或者图片吗
以下是关于生成 PPT 或图片的相关内容: 增强版 Bot 是基于 AI 驱动的智能创作平台,可实现一站式内容生成,包括图片、PPT、PDF 等。例如,在对话框输入诉求“生成常见的系统架构风格架构设计图”即可生成相应图片,输入“帮我生成一篇包含以上架构风格的完整 PPT”可生成 PPT 幻灯片内容及相关模板选择,输入“根据上面的架构风格,制作一篇常见系统架构风格的 PDF 文件”可生成相应的可选模板。 在 MJ 应用中,为 PPT 配图可通过复制图像链接和提示词,在 discord 中输入相应命令生成图像。生成后可改变比例和镜头拉远,检查构图,选择合适的图放入 PPT 调整构图。 在制作课程时,可通过一系列提问模板让 ChatGPT 协助创作章节内容,并将其转换成 PPT 格式,还可加入学员案例、参考范例让其进行改写或续写。
2024-12-19