Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

能够用ai控制电脑打游戏

Answer

AI 在游戏中的应用已经有了很大的发展。生成式 AI 是一种机器学习类别,计算机能根据用户提示生成新内容,目前在文本和图像领域应用较成熟,在其他创意领域如动画、音效、音乐、虚拟角色等也有进展。

在游戏中,早期如雅达利的 Pong 就有计算机控制的对手,但它们只是简单脚本程序,不能学习,能力取决于程序员。如今,由于更快的微处理器和云技术,有了更多计算能力,能构建大型神经网络,在复杂领域识别模式和表示。

在游戏音频方面,生成式 AI 带来了实时生成对话,角色能说任何话并完全响应玩家行为;有助于玩家扮演幻想角色,维持幻觉;能控制声音细微差别;还能实现本地化,将对话翻译成任何语言并以相同声音发音,像 Deepdub 这样的公司专注于此领域。

Content generated by AI large model, please carefully verify (powered by aily)

References

游戏中的生成式 AI 革命

生成性AI是一种机器学习类别,计算机可以根据用户的提示生成原始的新内容。目前,文本和图像是这项技术的最成熟应用,但几乎在每一个创意领域都有工作在进行,从动画、音效、音乐,甚至到创造具有完整性格的虚拟角色。当然,AI在游戏中并不是什么新鲜事。即使是早期的游戏,如雅达利的Pong,也有计算机控制的对手来挑战玩家。然而,这些虚拟的敌人并不是我们今天所知道的AI。它们只是由游戏设计师制定的简单脚本程序。它们模拟了一个人工智能对手,但它们不能学习,它们的能力只取决于创建它们的程序员。现在与以前的不同之处在于,由于更快的微处理器和云技术,我们有了更多的计算能力。有了这种能力,我们可以构建大型的神经网络,这些网络可以在高度复杂的领域中识别模式和表示。这篇博文分为两部分:第一部分包括我们对游戏领域的生成性AI的观察和预测。第二部分是我们对该领域的市场地图,概述了各个细分市场并确定了每个市场的关键公司。

生成式AI在游戏领域的机会(市场假设+预测)

什么是生成式AI?生成式AI是机器学习的一个类别,计算机可以根据用户的输入/提示,生成原创的新内容。目前这项技术最成熟的应用主要在文本和图像领域,不过几乎所有的创意领域都有类似的进步(生成式AI的技术应用),覆盖动画、声音效果、音乐,甚至是对具备完整个性的虚拟人物进行原创。当然,人工智能在游戏中并不新鲜。即使是早期的游戏,如雅达利的《Pong》早就有计算机控制的对手和玩家进行对战。(笔者注:游戏开发商雅达利,创办时期在微处理器诞生后不久,在1972年推出首款街机Pong,奠定街机鼻祖地位。1974年,苹果的乔布斯加入雅达利,负责开发电子游戏)然而这些计算机中的虚拟对手和我们今天讲的生成式人工智能并不一样,这些计算机对手只是游戏设计师精心设计的脚本程序,它们确实模拟了一个人工智能的对手,但它们不能学习和迭代,水平和编写它们的工程师一样。

游戏中的生成式 AI 革命

实时生成对话。游戏中的语音通常是由配音演员预先录制的,但这些都局限于预录制的固定语句。借助生成性AI对话,角色可以说任何话——这意味着他们可以完全响应玩家正在做的事情。结合更智能的NPC AI模型(虽然不在本博客的讨论范围内,但目前同样是一个令人兴奋的创新领域),完全对玩家作出反应的游戏将很快成为现实。角色扮演。许多玩家希望扮演与他们现实世界身份相去甚远的幻想角色。然而,一旦玩家用自己的声音发言,这种幻觉就会破裂。使用与玩家的虚拟形象匹配的生成声音可以维持这种幻觉。控制。由于语音是生成的,你可以控制声音的细微差别,比如它的音色、抑扬、情感共鸣、音素长度、口音等等。本地化。允许对话被翻译成任何语言,并以相同的声音发音。像[Deepdub](https://deepdub.ai/)这样的公司专注于这个特定的领域。

Others are asking
ai教程
以下为为您提供的 AI 教程相关内容: 1. 五步学会用 AI 制作动画视频播客:五个步骤教您从零到一制作动画版视频播客,适合有一定技术基础的朋友,轻松上手创作动画视频!相关链接: 2. Poe AI 平台:这是一个支持与多个智能 AI 机器人(如 GPT4 等)进行实时在线交流的聊天网站。注册账号后可免费使用,部分功能需付费订阅。不同 AI 机器人有不同特点,可按需选择。官网地址是:https://poe.com/ ,可在官网帮助中心找到具体教程。 此外,还有以下 AI 相关信息: 1. Hailuo AI 推出 I2V01Live 新功能:能让静态 2D 插画“活”起来,从静态到动态为 2D 插画加入流畅动画,赋予角色生命力,支持多风格,动作细节表现细腻自然。相关链接: 2. 腾讯 Hunyuan:130 亿参数开源视频模型,能高质量生成视频,动作连贯自然,镜头切换灵活,具备强大语义跟随能力,适配新一代语言模型作为文本编码器,采用类似 Sora 的 DiT 架构,显著提升影视级动态表现力。相关链接:
2025-03-04
请问如何将AI与WPS结合
以下是关于将 AI 与 WPS 结合的一些信息: WPS Office 中的一些功能,如智能排版、语法检查等,利用 AI 技术帮助用户快速完成文档处理工作,提高办公效率。 金山软件宣布 WPS AI,将把大模型(LLM)能力嵌入四大组件:表格、文字、演示、PDF,支持桌面电脑和移动设备。 WPS 的文档翻译功能可以利用 AI 技术快速翻译办公文档,如 Word、Excel、PPT 等,方便用户进行跨国业务交流。
2025-03-04
请问如何将AI与办公结合
将 AI 与办公结合可以从以下几个方面考虑: 1. 提高工作效率:AI 可以帮助处理单调重复的任务,如数据输入、文档填写和信息检索等,让员工有更多时间从事专业工作。 2. 智能推荐与规划:例如,利用 AI 为办公提供最佳的工作流程规划、资源分配建议等。 3. 风险识别与应对:通过 AI 识别办公中的潜在风险,并提供相应的解决方案。 4. 教育领域结合:提前收集教育领域的需求,针对性地开发产品和服务。包括办公提效的具体场景、家校沟通、个性化教育、心理疏导、备课体系、作业批改、出题建议、学生行为分析等。 5. 技术应用:如使用飞书的多维表格、蚂蚁的智能体、Coze 的智能体等提高办公协作效率。 6. 创新应用:例如利用 AI 进行咖啡、奶茶等的调配(需相应资质)。 同时,相关法律法规如《促进创新的人工智能监管方法》也指出,要在支持创新的同时提供监管框架,确保风险得到识别和处理,以实现 AI 在办公领域的健康发展。
2025-03-04
我是一名视频博主,我想知道我的视频如何测试它的流量是否会好,以及ai怎么能够辅助我完成高质量的视频脚本
以下是关于您作为视频博主测试视频流量以及利用 AI 辅助完成高质量视频脚本的相关内容: 测试视频流量: 目前没有直接针对测试视频流量是否会好的特定方法,但您可以通过以下方式进行预估和分析: 1. 参考同类热门视频的数据和特点,了解大致的流量表现范围。 2. 观察视频发布初期的点击量、播放时长、点赞、评论、分享等数据的增长趋势。 利用 AI 辅助完成高质量视频脚本: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。您可以把想写的选题告诉 ChatGPT,数十秒时间它就能生成一条完整的视频脚本,包括具体场景和转场画面。虽然在创意上可能不够出色,但对于非专业人士入手视频创作有一定帮助。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。您还可以让 ChatGPT 为您在海量背景音乐中筛选适合视频情绪的 BGM。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-04
有可以在微信端调用的AI智能体吗?
目前有以下几种在微信端调用 AI 智能体的方式: 1. 通过 chatgptonwechat(简称 CoW)项目: 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 点击“Docker”中的“项目模板”中的“添加”按钮,按照相关步骤进行操作。 项目模板代码示例如下:将编译好的内容复制进来。 在容器中创建容器,选择容器编排,填入模板和名称,确定。 点击容器后,可以看到运行的是两个服务。 点击“wcandyaibot”后面的日志按钮,用提前预备好的微信进行扫码。手动刷新查看是否成功,若看到“WeChat login success”,则接入成功。 2. 智普工作流: 新用户有 1 元及 5 元的资源包可供购买。 工作流具备文章、文件、网页总结,生成图片、视频和文字版日报等功能,通过意图识别跳转节点,使用了多个 agent。 在控制台的自动体中心,右键创建智能体,可选择对话型或文本型,创建后在空旷画布的左下角添加节点,节点包括 agent、LM、工具、代码、数据提取、分支判断和问答等,agent 通过跳入跳出条件与其他节点交互,LM 通过工作流连线执行功能。 文档可在 vtoagi.com 首页的 banner 获取,飞书群也可获取。 接入微信时,准备了云服务器和本地电脑两种版本,可按需选择。 需要注意的是,不同的方式可能存在一定的技术门槛和配置要求。
2025-03-04
用AI帮我写报告及ppt
以下为使用 AI 工具生成报告及 PPT 的相关内容: 熊猫 Jay 的思路和指南: 背景:因企业内部要求编写文章做培训并公开分享,旨在帮助不同水平的用户通过 AI 工具更高效制作 PPT。 介绍 5 款受欢迎的 AI PPT 工具:MindShow、爱设计、闪击、Process ON、WPS AI。 卓 sir 的制作经历: 出于对 AI 提效的好奇,在短时间内用 AI 完成了电子商务组队的 PPT 汇报作业。 用到的 AI 工具只有 3 个。 Process ON 的使用方法: 网址:https://www.processon.com/ 输入大纲和要点: 导入大纲和要点:有手动复制和导入方式两种,导入方式需将大纲内容复制到本地 txt 文件并改为.md 后缀,通过 Xmind 软件导入到 Process ON 中。 输入主题自动生成大纲和要求:新增思维导图,输入主题点击 AI 帮我创作。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版后下载。若喜欢使用且没有会员,可在某宝买一天会员。
2025-03-04
如何在电脑上用chatbox框架,使用ollama搭建deepseek模型
在电脑上使用 Chat Box 框架,通过 Ollama 搭建 DeepSeek 模型的步骤如下: 1. 阿里云百炼平台: 百炼平台的模型广场有各种模型,包括音频理解、视频理解等,通义的一些强模型也在其中。 百炼平台无需部署,可直接使用 DeepSeek R1 模型。 DeepSeek R1 模型的价格与各大平台差不多,有大量免费额度,如 100 万 token,不同版本的模型如 7B、14B、32B 等也送了 100 万 token,LLAVA 限时免费。 使用 DeepSeek R1 模型需要解锁和授权,没有授权按钮的需要对阿里云进行实名认证,可通过支付宝扫码或在右上角头像处进行,共学群里有相关指引。 在首页体验模型页面可对比不同模型的效果,如 V3 和 R1,R1 会先思考,速度较快。 多模态可以识别更多输入信息,如读文件、图片等,而 DeepSeek R1 本身不是多模态模型。 通过模型广场的 API 调用示例获取链接,截断后粘贴到 Chat Box 的设置中,添加自定义提供方,设置模型名称为 DeepSeek R1,并获取 API key。 API key 可删除旧的并重新创建,方便本地软件连接。 2. Docker + RAGFlow + Ollama 搭建: 返回 RAGFlow 中,打开右上角设置,进入模型提供商。 选择 Ollama,配置相关信息,模型取决于运行的模型。 配置基础 URL。 导入一个 embedding 模型,用于文本向量化。 设置系统模型设置。 进入数据集,导入文件,可设置文件夹当作知识库。 对文件进行解析,解析速度取决于本机 GPU 性能。 解析好之后,进入检索测试。 测试没问题,可进入聊天界面,助理设置可自行设置。 对于开源模型,如 DeepSeek、Llama 等,可以使用以下方式: 1. Inference Provider:使用 Together AI 等推理服务提供商,在线体验和调用各种开源模型。 2. LM Studio:使用 LM Studio 等本地应用程序,在个人电脑上运行和部署较小的开源模型。
2025-03-03
DeepSeek的V3版本适合那些配置的电脑使用
DeepSeek 的 V3 版本在以下云计算厂商中的使用情况如下: 腾讯云(调用 API):API 调用 DeepSeek 系列模型限时免费,包括 DeepSeekV3。即日至北京时间 2025 年 2 月 25 日 23:59:59,所有腾讯云用户均可享受 DeepSeekV3 模型限时免费服务,单账号限制接口并发上限为 5。在此之后,模型价格将恢复至原价。 京东云:未提及 DeepSeekV3 版本的相关配置和使用情况。 Gitee AI:未提及 DeepSeekV3 版本的相关配置和使用情况。 需要注意的是,不同云计算厂商的配置和价格可能会有所变化,建议您在实际使用时进一步了解和确认。
2025-02-22
Ai生图和生视频和电脑算力的关系
AI 生图和生视频与电脑算力密切相关。 在生成图像和视频的过程中,需要强大的算力来处理复杂的计算任务。例如,像 PIKA1.0 这样的模型,在文生图和文生视频方面表现出色,其高质量和稳定性的输出依赖于足够的算力支持。 拥有大规模 GPU 集群、超算集群、云渲染平台等强大算力资源的企业或个人,能够更高效地完成生图和生视频的任务。 同时,未来算力的重点将从训练模型转向增强推理能力,这也将对 AI 生图和生视频的发展产生重要影响。 此外,一些新的模型和技术不断涌现,如 o1 推理模型,其在给出最终结果前会反复推演和验证,以提供更准确的结果。而像 OpenAI 发布会公布的 Sora v2 功能,能够生成 1 分钟长度的视频,并支持多种形式的转换,提升了多媒体创作的灵活性。 总之,电脑算力是实现高质量 AI 生图和生视频的重要支撑和保障。
2025-02-17
我要配置一台跑ComfyUI的电脑,请给我最具性价比的推荐
以下是为您推荐的跑 ComfyUI 最具性价比的电脑配置: 系统:Windows 7 以上。 显卡:建议使用 6GB 以上显存的 NVIDIA 显卡(N 卡),最低要求 NVDIA 独立显卡且显存至少 4G 起步。SDXL 出来后,最低需要 8GB 显存+32GB 运行内存,12GB 可流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配可能会经常爆显存。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。最好把软件和模型部署在 SSD(固态硬盘)上,以提高加载模型的速度。 CPU:无特别要求,但如果您的电脑能顺畅清晰地玩 3A 游戏,那运行 ComfyUI 通常也没问题。 需要注意的是,ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。配置上不封顶,您可以根据自己的需求和预算来选择。
2025-02-15
deepseek怎么在电脑本地部署使用
以下是在电脑本地部署 DeepSeek 的步骤: 1. 拥有扣子专业版账号:如果您还是普通账号,请自行升级或注册专业号后使用。开通成功的样子如相关说明。 2. 开通 DeepSeek R1 大模型:访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze 。打开火山方舟,找到开通管理,找到 DeepSeek R1 模型,点击开通服务。添加在线推理模型,添加后在扣子开发平台才能使用,具体添加过程包括添加模型和完成接入。 3. 创建智能体:点击创建,先完成一个智能体的创建。 此外,您还可以参考以下文章获取更详细的教程:《张梦飞:15 分钟零基础个人电脑部署 DeepSeekR1(无限制版)智能助手保姆级教程!》(https://waytoagi.feishu.cn/wiki/NjKBw4n8HikDZBkeyB4cDQVynKh?useEs6=0 ),该教程适用于完全没有 AI 部署经验的小白,详细介绍了如何在个人电脑上快速搭建 DeepSeekR1 本地 AI 助手,包括 Ollama 安装、DeepSeekR1 模型下载与运行、显存检查、终端指令操作、网页插件使用等环节,并提供了清晰的步骤图,确保 15 分钟内完成部署。
2025-02-12
通义千问电脑版安装
以下是通义千问电脑版的安装步骤: 1. 回到宝塔,选择 Docker。如果显示“当前未安装”,则进行安装,点击确定,等待安装完成。安装完成后,刷新当前页面,看到相应的样子即表示安装成功。 2. 打开左侧【终端】,粘贴以下两行,验证 Docker 是否可用。看见版本号则没问题。 3. 一条一条复制以下命令,依次粘贴进入。 4. 访问 OneAPI,访问地址:http://这里改成你自己宝塔左上角的地址:3001/(举例:http://11.123.23.454:3001/),账号默认 root,密码 123456。 5. 点击【渠道】,类型选择阿里通义千问,名称随意,类型不用删减。 6. 把千问里创建的 API Key 粘贴到秘钥里中,点击确认。 7. 点击【令牌】【添加新令牌】,名称随意,时间设为永不过期、额度设为无限额度,点击【提交】。 8. 点击【令牌】,会看到自己设置的,点击复制,出现 key,然后在标红那一行中,自己手动复制下来。 另外,您还可以通过以下步骤获取通义千问的模型 key:先去,点击创建 API key,复制保存即可。
2025-02-10
如何控制图生图的形象和动作呢
要控制图生图的形象和动作,可以参考以下方法: 1. 使用 ControlNet 插件: 姿态约束类预处理器:包含了所有人物信息的预处理器,可将图片发送到图生图,通过“缩放后留白”和提高重绘幅度改变背景,再次发送到图生图使用 ControlNet 中 tile 模型细化,最后使用 SD 放大插件。 自定义动作骨架:在【扩展】【加载扩展列表】中搜索【posex】安装插件,或将插件文件夹拷贝至指定目录,确保软件是最新版本并重启。重启后点击“将图片发送至 ControlNet”,可通过拖动鼠标左键旋转视角、中键缩放视角、右键拖动视角,玩坏了可点击重置镜头和动作。 2. 参考风格 reference:首先进入文生图,填写提示词生成一张图。然后将图片拖入到 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。可以通过添加关键词的方式来改变人物的服装、表情、动作等。 3. 利用 ControlNet 控制姿势:大模型和关键词正常填写生成想要的小姐姐照片,接着鼠标滑到最下面点击“ControlNet”,上传指定姿势的照片并点击“启用”,在“预处理器”和“模型”里选择“openpose”,点击“预览预处理结果”,最后点击生成照片。
2025-02-28
生成视频不受提示词控制怎么办
如果生成视频不受提示词控制,可以考虑以下方法: 1. 向提示添加其他描述符,以便更好地控制生成的视频内容,例如: 电影摄影术语,如浅景深、胶片拍摄和电影。 构图术语,如广角、特写、从上方拍摄和从下方拍摄。 照明术语,如背光、柔光和硬光等。 颜色分级术语,如饱和色、高对比度以及暖色调或冷色调。 情绪或语气术语,如 somber、tense、euphoric 和 mysterious。 摄像机移动术语,如向右或向左平移、向上或向下倾斜以及推拉或向外移动。 2. 对于海螺 AI: MiniMax 视频模型不仅可以准确识别用户上传的图片,并确保所生成视频在形象保持上与原输入图像高度一致,且光影、色调完美嵌入新场景的设定,为创作者提供连贯、深度创作的空间。 在指令响应方面,还能理解超出图片内容之外的文本,解构指令框架和深层语义并在视频生成中整合,实现“所写即所见”。 只依靠模型综合能力,就能实现最顶级的影视特效。 人物表情控制力强,5 秒钟内实现从开怀大笑到掩面哭泣,让视频表达更能深入人心。 近期,海螺 AI 视频同步上线了提示词优化功能,即使在大家对特定的构图、氛围、动作或运镜没有特殊指定要求时,建议开启此功能,聪明的海螺 AI 会结合原始 Prompt 扩展视频的美学呈现。同时,对于更专业的创作者,开放 2000 字的提示词空间,让创作更加精准。 3. 使用 Camera Motion 时: 点击“AddImage”上传图片。 在“Prompt”中输入提示词。 选择您想要的运镜方向,输入。 运动幅度和画面主体运动幅度有关,与运镜大小无关,可以设置成您想要的任意值。 选择好种子(seed),是否高清(HD Quality),是否去除水印(Remove Watermark)。 点击“create”,生成视频。
2025-02-18
使用O1来控制智能硬件
O1 是一个完全开源的可以控制家里电脑的 AI 语音智能助手。它能够看到您的屏幕内容,学习使用您常用的应用,无论您身在何处,都能通过按下按钮、讲话让它帮您操作电脑完成任务。其 CAD 文件、电路设计、代码完全开源,有能力的开发者可以直接制作该设备。灵感来自 Andrej Karpathy 的 LLM 操作系统,10 月份他的 LLM 科普视频含金量仍在上升。O1 运行一个代码解释语言模型,并在计算机内核发生特定事件时调用它。项目地址:https://github.com/OpenInterpreter/01
2025-02-05
控制模特的姿势
以下是关于控制模特姿势的方法: 在使用相关 AI 工具时,如 Stable Diffusion 等,有以下几种控制模特姿势的方式: 1. 使用蒙版和提示词:输入相关提示词,如“蓝色毛衣”,处理蒙版区域内容为“填充”,调整尺寸与图像一致,重绘幅度为 1。但可能会出现衔接问题,此时可降低重绘幅度或添加 openpose 来控制人物身体,获得正确姿势。 2. 利用 ControlNet 功能: 正常填写大模型和关键词生成照片。 鼠标滑到最下面,点击“ControlNet”。 点击空白处上传指定姿势的照片,并点击“启用”。 在“预处理器”和“模型”里选择“openpose”,用于让计算机识别人物姿势。 点击“预览预处理结果”,最后点击生成照片,即可得到指定姿势的照片。 在 ControlNet 参数配置方面: tile 用于对整体画面的控制,可选择分块+固定颜色+锐化,以保证颜色统一降低后续闪烁,不需要全过程引导,仅在开始时固定画面。 lineart 用于提取人物线条,保证人物整体不跑偏,权重给到 0.6 以控制整体画面输出稳定。 openpose 用于控制人物的姿态、表情和动作,推荐使用 DWpose 处理器,其对面部和手部的识别效果较好。
2025-01-17
MJ中如何精准控制颜色
以下是关于在 Midjourney 中精准控制颜色的一些方法和相关信息: 1. 在使用 MJ 生成兔子贴纸的过程中,关键词中限制了颜色,生成的图片会一种情绪对应一种颜色。若不想让模型把情绪和颜色做挂钩,同一种情绪可多生成几张不同色系的;若需要挂钩,也可反其道而行之。 2. 进行 SD 上色时,正关键词主要前面添加了增加照片质感常用的+mj 生成线稿的关键词调整(去掉 mj 里线稿的关键词,一开始嘴巴效果不好,添加了张开嘴巴等关键词,颜色都是可以单独调整控制)+风格参数。负关键词看自己的效果添加,添加一切不想要的东西。 3. 在 MJ 的公式方面: 角色人物公式:人物姓名(命名)+描述词(重要描述词和人物特征描述词)+风格+官方命令词。 3D 公式:主体+描述词(重要描述词和物体特征描述词)+风格+灯光+官方命令词。 插画公式:主题描述词语+风格(风格名称或画家)+描述+颜色灯光+官方命令。 特定公式: 连续场景变化公式: 角色/场景公式:上传图片(喂图)+人物描写(融入其他场景需要关键词 white background,结合场景后换成 walking in a futuristic cyberpunk city)+场景风格描写+官方命令。 木偶公式:人物图片+场景+人物+动作+风格+官方命令。 等距粘土公式: 等距+物体+max emoji(表情符号),soft(柔和)lighting soft(柔和光线)pastel colors/pastel background(背景)+3Dicon+clay(粘土)+blender 3d+背景颜色=等距粘土物体。 安子布莱斯娃娃/也可以换成其他知道的娃娃名称+灯光/颜色/背景/材质+clay(粘土)+良奈吉友画风/或者其他名人风格=人。 3D 图标公式(未测试,可用):喂图(1~3 张相似的风格)+描述的 icon(和喂图一致的关键词)+颜色(和喂图颜色一致的)+渲染词+官方命令。 通用公式:角色/物体描述+背景描述+灯光风格+官方命令。
2025-01-17
图的角色 用 cref 去控制一致性 风格可以用 sref 去控制
在 Midjourney 中,cref 和 sref 是用于引用图片的功能,它们有以下区别和使用方法: 1. 角色参考(cref): 作用:保持图像角色的一致性。 使用方法:在提示后添加“cref”,紧接着指向人物参考图像的 URL。例如:/imagine prompt beautiful girlcref。可以使用“cw”调整参考图像对生成图像的影响程度,数值范围从 0 到 100。强度 100(“cw 100”)是默认值,会使用面部、头发和衣服,cw 为 0 的话仅保证脸部一致。基础格式为“cref 图片链接,cw 100”。 参考链接: 2. 风格参考(sref): 作用:生成类似风格的图片,保持画风的一致性。 使用方法:在提示后添加“sref”,紧接着指向风格参考图像的 URL。例如:/imagine prompt beautiful girlsref。可以使用“sw”调整参考风格对生成图像的影响程度,数值范围从 0 到 1000。基础格式为“sref 图片链接,sw 100”。 参考链接: 如果想引用一张图,但只是把它作为新图的一部分,可以使用“sref”或“cref”,并通过调整“sw”或“cw”的值来控制引用图像的影响程度。例如:/imagine prompt beautiful girlsrefsw 500。这样,生成的图像将会在保持原有风格的同时,融入一部分引用图像的风格。
2025-01-13