Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

视频生成人物动作不准确

Answer

目前在视频生成人物动作方面存在不准确的情况。例如,使用 Midjourney 生成时,过多角色(甚至可能是 2 个)的生成效果不佳,对于拟人角色的需求较难满足。像小龙喷火到小兔子举着礼物盒这样的场景,难以生成满意的效果。在让角色做出较大动作(如转头、掉眼泪、抬手等)或更生动的表情变化时,现有技术有限,还需更先进的技术、丰富的数据和强大的计算能力。

解决策略方面,应尽量规避制作需要大动作表现的视频。若无法避免,可尝试制作只涉及小动作的场景,并通过加入台词和场景描述来补充细节和深度,帮助观众更好地理解场景背景和角色心理,增强表现力,以弥补视觉上的不足。

相关技术如 LivePortrait 可以精确控制眼睛和嘴唇的动作,还能无缝拼接多个肖像,将不同人物特征合并成一个视频,确保过渡自然流畅。其使用了不同于主流扩散方法的隐式关键点框架,在计算效率和可控性之间取得平衡,生成的动画质量优于现有的非扩散和扩散模型方法,在 RTX 4090 GPU 上生成速度为每帧 12.8 毫秒。

工作流与模型地址:

  • https://pan.baidu.com/s/1Fk-GTXLmM0Ofynz04NfCaQ?pwd=cycy
  • https://pan.quark.cn/s/8dfd7ace4f05

内容依技术发展更新,请以文档为准:https://xiaobot.net/post/74238a84-d273-4b2c-a195-ed2858b24ffe

Content generated by AI large model, please carefully verify (powered by aily)

References

Comfyui LivePortrait

LivePortrait可以精确控制眼睛和嘴唇的动作,还能无缝拼接多个肖像,将不同人物特征合并成一个视频,确保过渡自然流畅。因为使用了一种不同于主流扩散方法的隐式关键点框架。该框架在计算效率和可控性之间取得了有效的平衡。LivePortrait生成的动画质量优于现有的非扩散和扩散模型方法。在RTX 4090 GPU上,生成速度为每帧12.8毫秒,效率显著高于现有的扩散模型。静态肖像变得生动的视频生成技术,控制非常精准。这项技术对AI视频生成中的人物表演和数字人具有很大帮助。支持各种风格的图片,常见的动物面部迁移,并可以微调面部运动幅度工作流与模型地址https://pan.baidu.com/s/1Fk-GTXLmM0Ofynz04NfCaQ?pwd=cycyhttps://pan.quark.cn/s/8dfd7ace4f05内容依技术发展更新,请以文档为准https://xiaobot.net/post/74238a84-d273-4b2c-a195-ed2858b24ffe

大雷:2 天爆肝3 分半AI动画短片的制作复盘-踩过的坑与解决方法

发现Midjourney在生成的时候,最好不要生成过多角色。这里的过多甚至可能是2个。做人、做动物还好,但是像我这种有拟人角色的需求,简直就是和要靠买彩票暴富一样。比如那张小龙喷火到小兔子举着的礼物盒上,这个看似简单的需求,MJ硬是生成不出让我满意的。(这些图出来我真的无力吐槽...)要不是动物不拟人了,要不就是龙的体型超大。当然我可以理解的是,龙,尤其是中国龙的数据样本真的很少。这对于用MJ的我来说,想要做个符合要求的小白龙的图真的很有挑战性。至于视频生成,如果想让角色做出一些比较大的动作,比如转头、掉眼泪、抬手,或是更生动的表情变化,现有的技术还有点捉襟见肘,还需要更先进的技术、更丰富的数据和更强大的计算能力。我的策略是,尽量规避制作那些需要大动作表现的视频。如果实在避免不了,那就尝试制作一些只涉及小动作的场景,然后通过以下几种方法来尽可能地增强表现力。这样,虽然不能完全弥补大动作的缺失,但至少能在视觉和叙事上做到不那么突兀。[heading3]文字的补充[content]通过加入台词和场景描述,可以有效补充AI生成图像无法达到的细节和深度。这种方法能够帮助观众更好地理解场景背景和角色心理,弥补视觉上的不足。

大雷:2 天爆肝3 分半AI动画短片的制作复盘-踩过的坑与解决方法

发现Midjourney在生成的时候,最好不要生成过多角色。这里的过多甚至可能是2个。做人、做动物还好,但是像我这种有拟人角色的需求,简直就是和要靠买彩票暴富一样。比如那张小龙喷火到小兔子举着的礼物盒上,这个看似简单的需求,MJ硬是生成不出让我满意的。(这些图出来我真的无力吐槽...)要不是动物不拟人了,要不就是龙的体型超大。当然我可以理解的是,龙,尤其是中国龙的数据样本真的很少。这对于用MJ的我来说,想要做个符合要求的小白龙的图真的很有挑战性。至于视频生成,如果想让角色做出一些比较大的动作,比如转头、掉眼泪、抬手,或是更生动的表情变化,现有的技术还有点捉襟见肘,还需要更先进的技术、更丰富的数据和更强大的计算能力。我的策略是,尽量规避制作那些需要大动作表现的视频。如果实在避免不了,那就尝试制作一些只涉及小动作的场景,然后通过以下几种方法来尽可能地增强表现力。这样,虽然不能完全弥补大动作的缺失,但至少能在视觉和叙事上做到不那么突兀。[heading3]文字的补充[content]通过加入台词和场景描述,可以有效补充AI生成图像无法达到的细节和深度。这种方法能够帮助观众更好地理解场景背景和角色心理,弥补视觉上的不足。

Others are asking
怎么根据一段脚本生成视频?
根据一段脚本生成视频可以使用以下工具和方法: 1. 使用 ChatGPT 生成视频脚本,再结合剪映进行制作。ChatGPT 可以生成视频小说脚本,剪映则能根据脚本自动分析出视频所需的场景、角色、镜头等要素,并生成对应的素材和文本框架,从而快速实现从文字到画面的转化,节省时间和精力。 2. PixVerse AI 是在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory 是一个 AI 视频生成器,允许用户轻松创建和编辑高质量视频,无需视频编辑或设计经验。用户提供文本描述,Pictory 会帮助生成相应的视频内容。 4. VEED.IO 提供了 AI 图像生成器和 AI 脚本生成器,能帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. Runway 是一个 AI 视频创作工具,能够将文本转化为风格化的视频内容,适用于多种应用场景。 6. 艺映 AI 专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可根据文本脚本生成视频。 此外,还有一些制作技巧,比如在剧本中明确人物形象和场景,以老船长年轻形象为例,生成全身、半身、侧身多角度人物图。根据剧本创作,概括主要场景,如海上、沙漠、市集,从剧本中的画面描述提取提示词。上传角色图、场景背景进行参考生成,提高人物和场景的融合度。使用即梦进行图生视频,上传图片至视频生成模块,用简单提示词描绘画面中的动态内容,可生成时长为 3 秒钟的画面。在 Adobe 的相关工具中,在 Advanced 部分可以使用 Seed 选项添加种子编号,控制 AI 创建内容的随机性,使用相同的种子、提示和控制设置可以重新生成类似的视频剪辑,然后选择 Generate 进行生成。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-05
清华大学deepseek讲解视频
以下是为您找到的与清华大学和 DeepSeek 相关的信息: 清华大学计算机科学与技术系助理教授章明星从大模型当前的发展阶段出发,分享了关于模型架构演进、大模型 Scaling Law 的发展趋势及相应趋势对系统层面影响的看法,并探讨了未来的发展方向。 《DeepSeek 的秘方是硅谷味儿的》提到 DeepSeek 是一家位于杭州的人工智能创业公司,其大语言模型 DeepSeekV3 在全球引发广泛关注。该模型以 550 万美元和 2000 块低配版英伟达 H800 GPU 训练,超越了多个顶级模型,获得硅谷研究者的高度评价。DeepSeek 的成功被视为中国式创新的典范,但其独特之处在于其更像一个研究机构,注重技术创新而非商业化运作,吸引了大量年轻的顶尖研究人才。 但未找到清华大学 deepseek 讲解视频的直接相关内容。
2025-03-05
如何用ai剪视频与音乐卡点
以下是关于用 AI 剪视频与音乐卡点的相关内容: 1. Suno 专属音乐生成功能:视频会根据画面匹配生成音乐,且能实现音乐和视频卡点。您可以生成随手拍的内容进行尝试。 2. 前 Sora 时代的 AI 短片制作: 声音调试:使用 11labs 时通过标点符号改变语音效果,国内可使用出门问问的魔音工坊,其有情绪调节控件。 剪辑工具:13 分钟的短片可用剪映,因其有人性化设计和简单音效库、小特效;510 分钟或更长篇幅、追求更好效果可能需用 PR/FCP/达芬奇等传统剪辑软件。 剪辑流程:视频粗剪 视频定剪 音效/音乐 特效 包装(如字幕)。注意不要先铺满音乐再剪,以免放弃听觉制作空间。 3. AI 短片配音: 音乐素材:包括之前收藏的满意音乐素材、音效素材和抖音收藏的音乐。 AI 音乐:可选择人声歌曲或纯音乐,描述想要的音乐风格,若为人声歌曲还可自己写歌词或让 AI 写,通过智能歌词按钮输入提示让 AI 写作。 音乐库:剪映提供各种风格音乐,选择合适的添加到音轨。 音效库:通过搜索框输入关键词,试听合适的音效并添加到音轨。
2025-03-05
有没有关于AI混剪视频或者批量生产视频的工作流
以下是关于 AI 混剪视频或批量生产视频的工作流: 1. 利用扣子搭建工作流,解决国内可直接使用且批量生产的需求。但批量生产可能需要牺牲一定质量的文案和图片效果。 2. 批量生成句子:不同于全程手动搭建,可一次性生成句子并进行生成图片处理,但一次生成句子不宜过多,建议一次生成五句,以保证质量和处理时间。 3. 句子提取:把生成的句子逐个提取出来,针对每个句子进行画图。 4. 图片生成:根据生成的句子,结合特有的画风等描述绘图。 5. 图片和句子结合:扣子工作流本身支持 Python 代码,但可能缺少画图、图片处理所需包,可替换成搞定设计的方式处理图片,会用 PS 脚本效果也不错。 6. 深入实践 AI 视频制作,可从简单创作开始,如生成零散视频片段或图片进行混剪,选用现成音乐并根据节奏剪辑,学习主流创意软件操作。在成功产出简单作品后,尝试完成更完整的工作流,如选题→剧本→分镜描述→文生图→图生视频→配音配乐→剪辑后期。 您可以根据实际情况和需求,对这些工作流进行调整和优化。
2025-03-05
我想要Ai混剪视频的工具
以下为您介绍一些 AI 混剪视频的工具和相关流程: 工具: 1. Pika、Pixverse、Runway、SVD 等可用于视频制作。 2. 剪映:具有简单的音效库,方便添加音效和智能匹配字幕。 制作流程: 1. 小说内容分析:使用如 ChatGPT 等 AI 工具分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用如 Stable Diffusion 或 Midjourney 等工具生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用如 Adobe Firefly 等 AI 配音工具将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用如 Clipfly 或 VEED.IO 等视频编辑软件将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-05
分析文生视频怎么用
文生视频的使用分析如下: 优势:制作便捷高效,能提供多元的创作思路。 缺点:较难保证主体或画面风格的稳定性。 主要使用场景:更多作为空镜头、非叙事性镜头、大场面特效镜头的制作。 实际运用案例: 《科幻预告片》:通过对同类型视觉元素的空镜头制作,利用“爆破”等优质表现的画面作为主要节奏点,制作出充满紧张感的科幻电影伪预告片。 《雪崩灾难片预告》:根据“雪崩”主题,设计多组空镜头、大场面镜头组合,通过节奏感较强的剪辑,制作出以简单故事线串联而成的预告片。 文字生成视频的 AI 产品有: Pika:擅长动画制作,支持视频编辑。 SVD:可在 Stable Diffusion 图片基础上直接生成视频。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 不同文生视频模型的特点(从高到低排序): |模型|特点(优缺)| ||| |海螺|语意遵循不错,模型解析有待提高,自带电影滤镜,但有些用力过猛,得益于海量的影视数据| |可灵 1.5|颜色失真,缺少质感,偏科严重,物理规律和提示词遵循较强| |智谱|语意遵循,质感较差,画质一言难尽| |mochi|动态丰富,想象力丰富,美学质感较好| |pd 2.0 pro|PPT 效果,训练数据较少,但是联想启发性很好| |runway|空间感强,语意遵循较差,流体效果一绝| |Seaweed 2.0 pro|质感略弱于可灵 1.5,整体感觉师出同门| |sora|运镜丰富,物理逻辑混乱| |Pixverse v3|动态稳,丝滑,整体美学强于可灵 1.5| |luma 1.6|语意遵循差,提示词随便,动起来算我输| 更多的文生视频网站可查看:https://www.waytoagi.com/category/38 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-05
利用智能体可以实现一键生成ppt吗
利用智能体可以实现一键生成 PPT。以下是一些相关的信息: 爱设计&AiPPT.cn 是一家 AIGC 数字科技企业,旗下的 AiPPT.cn 致力于打造“下一代个人与组织的 Ai 工作站”,能够帮助用户“一分钟一键生成 PPT”,是国内 AiPPT 赛道创业公司第 1 的产品,全球第 4,国内所有 AIGC 产品 PC 端 Top10。目标市场包括市场、运营、销售、人力、财务、行政、技术、产品、总助、公务员、学生、老师等基层及中高层管理岗位人员。 增强版 Bot 作为基于 AI 驱动的智能创作平台,可以实现一站式内容生成,包括 PPT 一键生成。用户在对话框输入诉求,如“帮我生成一篇包含以上架构风格的完整 PPT”,即可生成幻灯片内容及相关模板选择。 此外,2024 年 6 月 22 日更新的研究报告中,《》提到 AiPPT 是爱设计推出的 AI 大模型与 PPT 场景深度结合的产品,能够实现一键生成专业 PPT,并提供丰富模板和低创作门槛。
2025-03-05
如何生成数字人和自己的语音模板?
以下是生成数字人和自己语音模板的方法: 1. 生成数字人: 在剪映右侧窗口顶部,打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。软件会播放数字人的声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频中,剪映会生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,可点击预览查看效果。 在显示区域,可拖动背景图的角将其放大到适合尺寸,覆盖视频窗口,并将数字人拖动到合适位置。 点击文本智能字幕识别字幕开始识别,软件会自动将文字智能分段形成字幕。完成后点击右上角“导出”按钮导出视频备用。 2. 生成自己的语音模板: 对于数字人口播配音,只需输入口播文案,选择期望生成的数字人形象及目标语言,即可生成数字人口播视频。操作指引为:输入口播文案 选择目标语言 选择数字人角色 选择输出类型 点击开始生成。 对于音频合成数字人,只需上传音频文件,即可基于音频合成对应的数字人视频,工具支持使用 100+数字人模板。操作指引为:上传音频文件 选择数字人角色 选择输出类型 点击开始生成。需注意音频文件支持 MP3 和 WAV 格式,文件大小上限 5M。
2025-03-05
目前最好用的 Ai 生成 PPT 是哪一个?
目前被认为较好用的 AI 生成 PPT 的工具包括 gamma 。体验下来,gamma 虽然还未达到特别自动化的程度,但从审美角度来看,只要提供内容框架,其生成的 PPT 或网页的审美水平较高。 此外,还有一些其他的 AI 生成 PPT 工具,如 MindShow、爱设计、闪击、Process ON、WPS AI 等,每款工具都有独特的优势。 市面上大多数 AI 生成 PPT 通常按照以下思路完成设计和制作: 1. AI 生成 PPT 大纲。 2. 手动优化大纲。 3. 导入工具生成 PPT。 4. 优化整体结构。 您可以根据自己的需求和喜好选择合适的工具。
2025-03-05
生成图片提示词
以下是关于生成图片提示词的相关内容: 1. 藏师傅教您用 AI 三步制作任意公司的周边图片: 第一步:将生成的提示词填入{图像描述}位置,将您想生成的周边填入{周边描述}部分。例如:“The pair of images highlights a logo and its realworld use for a hitech farming equipment;this logo is applied as a black and white tattoo on lower back of an inmate”。参考此内容和风格特点创作提示词,然后根据{周边描述}设计配套描述,表达“展示同样的内容(可以是角色、标志等)”的意思。 第二步:将第二步的提示词和 Logo 图片放到 Comfyui 工作流,Lora 需要用到 InContext LoRA 中的 visualidentitydesign 从 https://huggingface.co/alivilab/InContextLoRA/tree/main 下载,工作流下载:https://github.com/op7418/Comfyuiworkflow/blob/main/FLUX/Logo%20%E5%91%A8%E8%BE%B9%E7%94%9F%E6%88%90.json 。 第三步: 。 2. “城市狂想”直接上手操作的教程中图片提示词生成: 提供了猫叔之前写的一段提示词的 prompt,例如: 远景,三分法构图,俯视视角,数字绘画,云雾缭绕的山谷,群山连绵起伏,山谷间云雾缭绕,阳光透过云层洒在山间,形成光与影的对比,模拟观众的视线逐渐接近这片土地,新印象派风格特征,使用数字画笔和渐变工具ar 16:9v 6.1 。 远景,中心对称构图,俯视视角,摄影风格,云雾中的山谷,山峦在云雾中若隐若现,山谷中隐约可见的河流蜿蜒流淌,云雾的流动感和山的静态形成对比,现实主义风格特征,使用长焦镜头和景深控制技术ar 3:2v 6.1 。 远景,对角线构图,俯视视角,水墨画风格,云雾缭绕的山谷,山峦线条流畅,云雾以墨色深浅表现,山谷中的云雾仿佛在流动,给人以动态的视觉感受,中国山水画风格特征,使用毛笔和水墨渲染技术ar 2:3v 6.1 。 为大家直接生成了 1 组共 12 段提示词,可直接在悠船和 MJ 中使用,其他平台工具请复制后删除包含以后的部分。 以悠船为例,进入悠船页面,点击开始想象按钮,粘贴提示词,回车等待几十秒生成 4 张图片,可选择喜欢的图片进行变化、高清、重塑、扩图等操作。变化会生成 4 张新图片,高清分为选择直接和选择强烈,重塑分为细微和强烈两种方式。
2025-03-05
我想搭建自己的知识库,然后进行知识提取和查询辅助我进行办公和内容生成,请问有哪些工具好用?
以下是一些可用于搭建知识库并进行知识提取和查询以辅助办公和内容生成的工具: 1. ChatGPT:可以生成文章、故事、诗歌、歌词等内容,作为聊天机器人后端提供自然对话体验,用于问答系统、文本摘要、机器翻译、教育等,还能生成代码片段。相关网址:https://chat.openai.com/ 、https://bard.google.com/extensions 、https://claude.ai/ 。 2. ExoBrain 的集成软件:作为外脑的主要记忆空间,能捕获各种数字内容,挂接和导入外部记忆,快速理解内容,灵活创作笔记,生成创作建议,与外脑知识库对话并自动做外部检索完善答案。相关网址:https://hallid.ai/?ref=indigox.me ,关注获取最新信息。 3. 多维表格:用表格+AI进行信息整理、提效、打标签,满足 80%数据处理需求。相关文章: ,适用人群为 Excel 重度使用者、手动数据处理使用者、文件工作者。 4. Cursor:通过 AI 工具对编程祛魅,降低技术壁垒。相关文章: ,适用人群为 0 编程经验、觉得编程离我们很遥远的小白。 5. Suno:AI 赋能音乐创作,无需乐理知识即可参与音乐制作。相关文章: ,适用人群为 0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白。 6. 其他工具: PPT 生成: 。 音视频提取总结:https://bibigpt.co/r/AJ 。 播客总结:https://podwise.xyz/dashboard/trending 。 生成脑图:https://xmind.ai/editor/ 。 PDF 对话:演示 www.chatpdf.com 。
2025-03-05
推理行大模型对于RAG的准确性提升,带来哪些改变
推理行大模型对 RAG 准确性提升带来了以下改变: 1. 当辅以能有效提取文档中结构化信息并整合为提示词的 PDF 解析器时,大语言模型能作出更准确的响应,提高了提供给模型的数据质量和相关性,从而提升模型输出质量。 2. 大模型应用领域常用的 RAG 方法,能让模型用自定义数据生成结果,处理无尽私有数据,将模型当成高效推理机器。但 RAG 存在一些常见误区: 随意输入任何文档不一定能得到准确回答,RAG 流程中的多个环节都会影响最终质量。 RAG 虽能减少幻觉,但不能完全消除,只要有大模型参与就可能产生幻觉。 RAG 仍消耗大模型的 Token,最终需大模型处理检索结果生成通顺回答。 未来,将研究分享更多基于深度学习的文档解析方法,以更全面理解 RAG 质量和文档解析质量的关系。同时,前沿模型研发团队力争做到吞吐量、速度和准确度的最佳平衡。
2025-03-03
视频拍摄中如何用更准确的提示词
在视频拍摄中,以下是一些更准确的提示词使用技巧: 1. 清晰定义动作:如果想让视频中包含角色的动作,用具体的动词和副词来描述,如奔跑、飞翔、游泳或跳舞,并包含动作的速度,如缓慢、快速或逐渐。示例提示词:“一只狗欢快地在海滩上冲刺,跃起接住空中的球。” 2. 使用描述性形容词:准确传达视频的氛围至关重要,使用能唤起想要传达的感觉的形容词,如宁静、神秘或充满活力。示例提示词:“海滩上一个宁静、雾蒙蒙的早晨,柔和的阳光透过沙滩椅洒下。” 3. 提供背景故事或上下文:对于更复杂的视频项目,融入特定的情节元素或角色,提供背景或上下文有助于生成连贯且引人入胜的视频序列。 4. 使用相机角度和运动:Firefly 通常可以模拟真实世界的摄像工作,通过指定希望相机采用的角度或运动,如推镜头、拉镜头、平移、倾斜、固定镜头,为视频增添个性化的触感。 不同的视频模型和工具在提示词方面也有各自的特点: 1. Vidu 模型:其 Prompt 基本构成包括主体/场景、场景描述、环境描述、艺术风格/媒介。要调整句式和语序,避免主体物过多/复杂、主体物分散的句式描述,避免模糊的术语表达,使用更加流畅准确的口语化措辞,丰富、准确和完整的描述才能生成特定艺术风格、满足需求的视频。 2. 星流一站式 AI 设计工具:在其 prompt 输入框中可以输入提示词、使用图生图功能辅助创作。提示词用于描绘想要的画面,输入语言方面,星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言,基础模型 1.5 使用单个词组,支持中英文输入。写好提示词要做到内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质等。还可以调整负面提示词,利用“加权重”功能让 AI 明白重点内容,使用辅助功能如翻译、删除所有提示词、会员加速等。
2025-02-26
如何提高AI回答准确
以下是一些提高 AI 回答准确性的方法: 1. 明确角色和任务:赋予 AI 特定的角色,如专注于民商事法律领域的律师,以利用其数据处理和模式识别能力。 2. 清晰表述任务目标:例如在法律建议中,明确概括核心观点和注意事项的数量。 3. 提供完整的上下文和背景信息:讲清楚背景和目的,如律师处理交通事故案件时,提供详细的案件事实和法规。 4. 提出具体明确的需求和细节性信息:使用清晰、具体的语言,避免模糊表述。 5. 设定限制和不需要的内容:明确告知 AI 哪些内容不应包含。 6. 遵循特定的回答语言风格和形式:例如使用引号、分隔符号以及“首先、其次、最后”等连接词来组织回答。 7. 了解 AI 的工作原理和限制:有助于更好地设计问题。 8. 拆解工作流程:将复杂任务分解为更小、更具体的环节,使 AI 执行更精确。 在生成回答的过程中,系统基于整合好的上下文信息来构建最终的回答,具体步骤包括: 1. 上下文向量化:将整合后的上下文信息转化为向量,通常通过预训练的语言模型进行,如 BERT 或 GPT,以捕捉语义信息。 2. 生成模型激活:使用基于 Transformer 的生成模型(如 GPT)接收向量化的上下文,利用自注意力机制理解关系和信息。 3. 逐词生成回答:模型逐词构建回答,考虑之前已生成的词和整个上下文的语义,迭代进行直至回答构建完成。 4. 优化语言流畅性和准确性:确保生成的文本语法正确、逻辑连贯,与用户问题紧密相关。 5. 回答评估与调整:完成初步生成后,对回答进行评估,根据需要微调或重新生成。 6. 输出回答:最终将生成的答案呈现给用户。
2025-02-26
如何让推理大模型回答的更准确,使用什么样的提示词
要让推理大模型回答得更准确,可以通过以下提示词相关的设置和方法: 1. 参数设置: Temperature:参数值越小,模型返回结果越确定;调高参数值,可能带来更多随机、多样化或具创造性的产出。对于质量保障等任务,设置更低值以促使模型基于事实返回真实简洁结果;对于诗歌生成等创造性任务,可适当调高。 Top_p:与 Temperature 类似,用于控制模型返回结果的真实性。需要准确和事实的答案时,调低参数值;想要更多样化答案时,调高参数值。一般建议改变其中一个参数即可。 Max Length:通过调整控制大模型生成的 token 数,有助于防止生成冗长或不相关的响应并控制成本。 Stop Sequences:指定字符串来阻止模型生成 token,是控制响应长度和结构的方法之一。 Frequency Penalty:对下一个生成的 token 进行惩罚,与 token 在响应和提示中出现次数成比例,减少响应中单词的重复。 2. 提示词示例: 对于推理任务,目前已有一些涉及数学能力的改进。执行推理任务可能有难度,需要更高级的提示词工程技术,后续会介绍相关高级技术。 可以通过示例给模型说明,可能获得更准确结果,后面章节会介绍更多常见应用示例。 3. 调教方法: 像打字和写作一样,不断尝试和大模型交互是最佳方法,方法论不是关键。 可以在提示词里设定规则,也可临时更改,交互时无需遵循规则,重点是是否达成目的,未达成可重新尝试或更换模型。 用 Markdown 格式清晰表达问题,具有结构清晰、格式化强调、适用性广等优点,有助于模型更好地理解用户意图。
2025-02-26
如何给AI提问,得到自己想要的更准确的内容
以下是一些给 AI 提问以获得更准确内容的方法: 1. 设定角色:给 AI 赋予一个明确的角色,例如“你是一个专注于民商事法律领域的律师”,让其以特定角色来理解和回答问题。 2. 举例子:通过给出实际的例子,能使 AI 更准确地了解您的要求。 3. 连续提问:对于复杂的问题,可以就一个问题连续提问,根据 AI 的回复不断细化要求。 4. 直接问 AI 如何提问:当不知道如何提问时,可以先向 AI 请教如何提问,然后用它产生的问题再问它。 5. 讲清楚背景和目的:在提问时,除了明确的问题描述,还要梳理清楚背景信息和提问目的,帮助 AI 更好地理解问题上下文。 6. 学会提问:使用清晰、具体的语言,避免模糊表述,同时了解 AI 的工作原理和限制,设计合适的问题。 7. 拆解环节、切分流程:将复杂任务分解成更小、更具体的环节,让 AI 更精确地执行。 8. 对于编程相关问题: 提供代码范例,尤其是新进入代码节点的 IDE 中的范例。 说清楚输入变量与输出变量的类型。 说明与工作流中匹配或想要的变量名称。 列出输入变量的具体书写形式。 讲清楚代码要实现的功能,复杂功能尽量说清运行逻辑,描述中用变量名称指代相关变量。并可参考以下提问范式:。关键步骤请附上注释。
2025-02-24
复杂推理的产品,给模型灌什么能够更好训练推理能力?以及怎么优化模型的推理准确度?
以下是一些能够更好训练模型推理能力以及优化推理准确度的方法: 1. OpenAI 的推理模型通过强化学习进行训练,在训练过程中,模型学会在回答前思考,产生长链的思维过程,并不断尝试不同策略,识别错误,从而能够遵循特定的指导方针和模型政策,提供更有用的回答,避免产生不安全或不适当的内容。 2. 蒙特卡洛树搜索(MCTS)对推理模型有积极影响,例如在数学定理证明中,能探索非确定性证明路径,将解决 IMO 几何题的耗时从传统方法的 30 分钟降至 90 秒;在多跳问答系统中,结合 MCTS 的模型在 HotpotQA 数据集上准确率提升 12%,因其能回溯验证中间推理步骤。 3. 动态知识融合机制方面,传统基于规则的推理无法处理模糊知识,而 MCTS 增强方案在医疗诊断中可将误诊率从纯规则引擎的 23%降至 9%。 4. 资源分配优化方面,在逻辑谜题求解任务中,MCTS + Transformer 能达到 85%准确率且耗时 3 秒,而纯 Transformer 为 62%准确率且耗时 8 秒;在法律条文推导任务中,MCTS + Transformer 有 92%合规性且耗时 5 秒,纯 Transformer 为 88%合规性且耗时 2 秒。 OpenAI 于 9 月 12 日发布的新模型 o1 旨在实现通用复杂推理,通过强化学习和思维链的方式提升推理能力,尤其在数学和编程领域表现出色,但用户反馈显示其实际表现与宣传存在差距,成本高于 GPT4o,且在某些任务上优势不明显,OpenAI 仍在探索如何优化模型的推理性能。
2025-02-21
如何控制图生图的形象和动作呢
要控制图生图的形象和动作,可以参考以下方法: 1. 使用 ControlNet 插件: 姿态约束类预处理器:包含了所有人物信息的预处理器,可将图片发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再次发送到图生图使用 ControlNet 中 tile 模型细化,最后使用 SD 放大插件。 自定义动作骨架:在【扩展】【加载扩展列表】中搜索【posex】安装插件,或将插件文件夹拷贝至指定目录,确保软件是最新版本并重启。重启后点击“将图片发送至 ControlNet”,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了可点击重置镜头和动作。 2. 参考风格 reference:首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。可以通过添加关键词的方式来改变人物的服装、表情、动作等。 3. 利用 ControlNet 控制姿势:大模型和关键词正常填写生成想要的小姐姐照片,接着鼠标滑到最下面点击“ControlNet”,上传指定姿势的照片并点击“启用”,在“预处理器”和“模型”里选择“openpose”,点击“预览预处理结果”,最后点击生成照片。
2025-02-28
生成漫画动作参考图
以下是一些生成漫画动作参考图的方法: 1. 喂参考图:先上传喜欢的参考图,复制其链接。在关键词处填写“图片链接+这张图的关键词”,例如“链接图片.png,a Super cute sports girl,wearing a basketball vest,blueshortsbig watery eyes,clean bright basketball court background,super cute boy IP by pop mart,Bright color,mockup blind box toydisney stylefine luster,3D render,octane render,best quality,8k brightfront lightingFace Shot,fine luster,ultra detail,ar 9:16”。还可以通过修改关键词改变服装颜色等细节。 2. 使用 panels 命令:此命令可生成连续的动作和表情设计,将模型设置改为 niji mode 画动漫角色效果更好。例如“a Super cute sports anime girl,style by Miyazaki Hayao,6 panels with different poses 8K”,也可以使用“continuous running”生成更稳定的连续动作,甚至做成 gif 动画。 3. 利用 character sheet 命令:创建一个角色的多角度以及特写细节,例如“a Super cute sports anime girl,style by Miyazaki Hayao,character sheet,full body,8k”。 4. 使用 emoji、expression sheet:emoji 代表表情包,expression sheet 代表各种表情组合,可用此核心关键词设计出表情包。例如“图片链接.png a Super cute sports anime girl,style by Miyazaki Hayao,emoji,expression sheet,8k”。 另外,使用 ControlNet 插件也能生成漫画动作参考图。首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高,对图片的参考越强。可以通过添加关键词的方式给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等。这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。
2025-02-11
我想知道目前最新、效果最好、代码和模型开源的动作捕捉算法,也叫做人体姿态估计,是哪篇文章
目前最新、效果较好且代码和模型开源的人体姿态估计(动作捕捉算法)相关的研究有以下两篇: 1. 【SD】最强手部识别,controlnet 新预处理器 dw openpose 作者:白马少年|公众号:【白马与少年】 发布时间:20230813 20:00 原文网址:https://mp.weixin.qq.com/s/_RiKxWy9MXt4DUJIKH5w 介绍:在 controlnet 中,手部识别一直使用的是 openpose 预处理器,但复杂手势有时无法识别。新的 dw openpose 预处理器能完美解决手部识别问题,将其放入特定目录即可使用。但需说明的是,目前这个 DW Pose 只是更精确的 openpose 预处理器,未对 ControlNet 的 openpose 模型做改动。 2. YOLONAS Pose:一个开源的实时人体姿态估计模型 应用场景:基于骨骼标记为基础,适用于智慧体育等场景,可对训练过程的姿态、数据、状态等进行统计和管理。 技术类型:视频、AI 学习模型 简介:主要功能是识别图片和视频中人的姿势,能快速处理图像并实时返回姿态数据,适应不同场景和设备。 主要特点: 实时性能:旨在提供实时的姿态估计,适用于需要即时反馈的应用。 高精度:利用神经网络架构搜索(NAS)提高姿态估计的准确性。 优化的网络结构:NAS 自动测试不同网络结构,找到最优模型。
2024-12-31
midjourney中如何结合A图片的人物和B图片的动作和内容
在 Midjourney 中结合 A 图片的人物和 B 图片的动作和内容,可以使用新上线的“Character Reference”(cref)功能。以下是一些关键方法和示例: 1. 锚定细节:您可以掌控姿势、表情、情感、服装、道具、场景、动作等细节。例如:“Jo is a young woman with blue curly hair, pink sunglasses, and a colorful scarf around her neck. She waits in line at the bank. cref https://my.image.host/joisstanding.jpg”。 2. 让 cref 处理大部分工作:提示无需加强标志性细节,只是“操纵”或“定位”角色。例如:“有人正在银行排队等候。 cref https://my.image.host/joisstanding.jpg”。 3. 只提供场景:如果您的 cref 图像已包含想要的姿势和其他细节,您可以仅描述环境、周围环境、背景或情境,Midjourney 将努力将角色融入场景中。但可能会出现不连贯的结果,此时可尝试使用更高值的样式化,如“s 800”。 需要注意的是,此功能在使用 Midjourney 生成的图像人物时效果最佳,不太适用于真实人物或照片。同时,在 Midjourney V6 的 Web Alpha 版本中,您可以通过拖放或粘贴图像到想象栏,并选择相应图标来设置图像为图像提示、风格参考或角色参考。
2024-11-18
视频导出动作的AI
以下是关于视频导出动作的 AI 相关信息: AI 视频导出方面:普通社交媒体分享选 1080P,需放大选 720P,码率越高越好,可自定义最高 5 万。 Move AI 推出的 Move API 能从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据,相关链接为 https://move.ai/api 。
2024-11-05
动作姿态生成的网站
以下为一些关于动作姿态生成的网站相关信息: 在 Stable Diffusion 中,ControlNet 是一个强大的控制插件。对于姿态约束,您可以通过以下方式操作: 1. 国风 3 模型点击生成姿势,但 AI 识别可能不准确,需耐心刷图和调整参数。 2. 若要细化图片,可使用扩展图片的方法,将图发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再用 ControlNet 中的 tile 模型细化,最后使用 SD 放大插件。 3. 当找不到满足需求的动作图片时,可以自定义动作骨架。在【扩展】【加载扩展列表】中搜索【posex】安装插件(若安装不了,可将分享的插件文件夹拷贝至...\\sdwebuiakiv4\\extensions 目录,确保软件为最新版本后重启)。重启后来到首页,点击“将图片发送至 ControlNet”,可通过鼠标操作调整视角。如调一个玛丽琳梦露的经典动作,右边可调整出图尺寸,启用 ControlNet 时,若骨架图来自 posex 链接,无需添加图片和预处理器,直接加载 openpose 模型即可。 另外,公众号【白马与少年】有不同 pose 的骨架图可供参考,回复【SD】获取。该公众号还分享 Stable Diffusion、Blender 等学习心得,有 139 篇原创内容持续更新。
2024-11-01