直达「 通往AGI之路 」飞书知识库 →
首页
AI 活动
AI 网站
AI 智能体
AI 提示词
与知识库对话
知识库精选
登录
首页
/
问答列表
/
问答详情
有没有类似游戏情境创设的闯关游戏,人物与虚拟角色在文生视频搭建的环境中进行智能对话的案例
回答
《Im Here2》就是一个利用文生视频搭建游戏环境,通过人物与虚拟角色进行智能对话来解谜的游戏案例。
内容由 AI 大模型生成,请仔细甄别(powered by aily)
参考资料
游戏实操| 利用LLM进行环境叙事和解谜——《Im Here2》
游戏中的生成式 AI 革命
问:具身智能是什么?
质朴发言:吐血整理:AI 大模型浪潮涌动游戏范式革新|Z 沙龙第 9 期
谷歌发布世界模型Genie
Sora 原理解释
重新提问
其他人在问
ai如何变革文化传媒游戏行业的生产关系与生产资料
AI 正在对文化传媒游戏行业的生产关系和生产资料带来多方面的变革: 1. 生成式 AI 为游戏创建 2D 艺术、纹理、3D 模型,并协助关卡设计,在营销中也有望取代部分传统内容。其应用已拓展至网页、室内和景观设计等领域,只要涉及创造性内容生成,AI 都可能成为流程的一部分甚至颠覆整个流程。 2. 游戏行业中,学会有效使用生成式 AI 将成为一项有市场价值的技能。懂得与 AI 工具最有效、最协同地合作的艺术家会变得稀缺,使用生成式 AI 进行生产艺术作品面临连贯性和风格统一等挑战。 3. 降低门槛将导致更大的冒险和创造性的探索,进入游戏开发的新“黄金时代”,更低的准入门槛将促使更具创新性和创造性的游戏大量涌现。 4. AI 辅助“微型游戏工作室”的崛起,配备生成式 AI 工具和服务,由 1 或 2 名员工组成的“微型工作室”能生产更多具有商业可行性的游戏。 5. 在 AIGC 的新世界,游戏开发变得更简单,互联网浪潮推动游戏产业分工成熟,门槛降低,GPT 等技术使编程等基础工作被替代,内容生产效率提高,想象力和热情成为新的杠杆力。
2024-12-19
适合游戏设计的aigc平台
以下是一些适合游戏设计的 AIGC 平台及相关案例: 1. 上海人工智能实验室旗下的 OpenInnoLab平台:北京市新英才学校的“AI 创作家”课程中,学生使用该平台的文生图 AI 工具生成桌游卡牌背后的图案。 2. 在“DragonX”宠物龙养成游戏中,Demo 的原则为 AIGC 的最大化,玩法内容基本都使用 AIGC 来生产游戏内容,包括世界观、核心循环、核心玩法等方面。 3. 关于游戏设计与 AIGC 的相关讨论:“质朴发言:吐血整理:AI 大模型浪潮涌动游戏范式革新|Z 沙龙第 9 期”涵盖了游戏与生成式 AI 的发展趋势、游戏+AI 制作的讨论、资本市场对 AI+游戏的看法、AI 对游戏领域带来的变革以及新 AI 游戏面临的问题等多方面内容。
2024-12-18
请将以下提示词改写为markdown格式:“请为我生成一个五子棋游戏的代码,其中,棋盘的大小是10*10”
以下是为您改写的 Markdown 格式的提示词: ``` 请为我生成一个五子棋游戏的代码,其中,棋盘的大小是 1010 ```
2024-12-06
改写提示词:“请为我生成一个五子棋游戏的代码,其中,棋盘的大小是10*10”
以下是为您改写的提示词:“请帮我生成一个棋盘大小为 10×10 的五子棋游戏的代码。”
2024-12-06
AI做小游戏工具
以下是关于利用 AI 做小游戏工具的相关内容: 游戏制作过程:通过向 AI 描述需求生成游戏代码,如赛车或平台跳跃类游戏,还可逐步添加功能和调整图像。 工具使用对比:cloud 3.5 比 GPT 在制作小游戏时更方便,GPT 有时会改坏游戏。 图像托管网站:介绍了无需登录、兼容性强的图片托管网站用于上传游戏中的图片。 开发游戏及发布到 GitHub 的经验分享:国内网站托管游戏连接可能更稳定,国外托管图片可能存在显示问题。AI 处理图片与代码时,让 AI 替换图片,若代码出错可让其重新编写,但可能反复出 bug。角色形象可让 AI 直接绘制,更稳定且不存在外部链接问题。游戏文件为 H7ML 格式,托管到 GitHub 要改文件名,后缀为 html 且名为 index。注册 GitHub 账号,设置游戏名,选择公共或锁定,上传文件,可迭代版本并有记录。可让 AI 将整合的 html 文件拆分成固定格式的三个文件。 游戏类型与优化:AI 可编写基础小游戏,如弹珠打砖块,还能尝试多种创意游戏,如 horror game 等。对生成的游戏觉得难玩可让 AI 调整,如控制重力、管道间隙和移动速度等。制作增量游戏,包含升级选项和涅槃系统等机制。介绍肉鸽游戏模式,具有随机性和永久死亡特点。 游戏设定与调整:开发一款被包围主题的游戏,具有永久死亡机制,玩家操纵角色,敌人从四面八方涌来,被敌人碰到即失败。可对玩法进行调整,如子弹发射方式、敌人速度、增加功能等,设定道具掉落概率,变更游戏主题和头像,修改游戏中图案。
2024-11-05
如何借鉴“决战拜年之巅”:这是一款基于 GLM 大模型开发的微信小程序游戏,玩家在 10 个 AI 角色组成的家人群里,面对“七大姑八大姨”的连环拷问,自由对话打出属于自己的结局。实现一个工作场合的游戏
以下是借鉴“决战拜年之巅”实现一个工作场合游戏的相关要点: 1. 开发背景:“决战拜年之巅”是参加 Globalgamejam 游戏比赛时,在 48 小时内开发的,主题源于“make me laugh”,产品负责人谐音想到江浙沪孝子排行榜的“孝”,结合春节想到做类似拜年的东西。 2. 火爆情况:在参赛群发布半成品后,在 QQ、微信迅速火爆,两天内有 200 万用户,最高峰同时在线 6 万人,服务器一度支持不了,凌晨才做好调整,后续有厂商赞助服务器,上线约一周。 3. 游戏特点:基于 GLM 大模型开发,又称过年模拟器,玩家在 10 个 AI 角色组成的家人群里,面对“七大姑八大姨”的连环拷问自由对话打出结局。 4. 借鉴要点: 明确创新主题和玩法,结合特定场景和需求。 注重用户体验,及时应对服务器等技术支持问题。 利用 AI 技术实现角色互动和自由对话。 需要注意的是,“决战拜年之巅”被认为可能是一个 chatbot 而非严格意义上的游戏。在设计工作场合的游戏时,要明确以下三个点:(具体要点未在提供的内容中明确)
2024-11-02
中国大陆能用的文生视频免费ai
以下是一些在中国大陆可用的文生视频免费 AI 工具: 1. Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以。文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 2. ETNA(国内):https://etna.7volcanoes.com/ 。Etna 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,文生视频支持中文,时空理解。 3. Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频、视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以。文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持多种尺寸,默认生成 3s 的视频。 4. 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文。文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸,默认生成 5s 的视频。 此外,还有一些国内外提供文生视频功能的产品推荐: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-20
中国大陆能用的文生视频免费ai工具
以下是一些在中国大陆可用的文生视频免费 AI 工具: Hidreamai(国内,有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以,文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 ETNA(国内):https://etna.7volcanoes.com/ 。Etna 是一款由七火山科技开发的文生视频 AI 模型,它可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps,文生视频支持中文,时空理解。 Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频,视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以,文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持多种尺寸,默认生成 3s 的视频。 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文,文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸,默认生成 5s 的视频。 此外,还有一些国内外提供文生视频功能的产品,如: Pika:擅长动画制作,并支持视频编辑。 SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。 Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但收费。 Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-12-20
文生视频,谁比较强?
目前在文生视频方面,PIKA1.0 表现较为出色。它启用全新模型,文生视频质量大幅提升,3D 和 2D 动画效果吊炸天,稳定性强,神情表现出色,在处理各种场景和提示词时都有惊艳的效果。例如,输入“Cinematic,happy laughing girl in office,Pixar style”瞬间就能匹配出皮克斯水平的镜头,而且在处理不规则构图的汽车行驶等场景时,光影表现极好。同时,可灵在文生视频方面也有一定特点,在多对象场景中能保持较好的形体轮廓,在处理偏真实场景的视频,如吃东西、老人神情和皮肤细节等方面表现出色,地面光影变化处理恰当,但在处理远距离和密集人群时有局限,在动画方面不是强项,处理稍长动作时会遇到挑战。
2024-12-19
文生图
以下是关于文生图的相关知识: 简明操作流程: 定主题:明确生成图片的主题、风格和要表达的信息。 选择基础模型 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 ControlNet:可控制图片中特定的图像,如人物姿态、特定文字等,属于高阶技能。 局部重绘:下篇再教。 设置 VAE:选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写要避免产生的内容,单词和短语组合,用英文半角逗号隔开。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据喜好和需求选择,注意尺寸并非越大越好。 提示词: 分为内容型提示词和标准化提示词,用于描述想要的画面。例如选择 anythingV5 大模型,输入“1 个女孩,黑发,长发,校服,向上看,短袖,粉红色的花,户外,白天,蓝色的天空,云,阳光,上身,侧面”等描述。 采样迭代步数通常控制在 20 40 之间,步数越高绘画越清晰,但速度越慢。 采样方法常用的有 Euler a、DPM++2S a Karras、DPM++2M Karras、DPM++SDE Karras、DDIM 等,有的模型有指定算法,搭配更好用。 比例设置为 800:400,模型练图基本按 512x512 框架,太大数值可能导致奇怪构图,可通过高清修复放大图像倍率。 文生图工具: DALL·E:OpenAI 推出,可根据文本描述生成逼真图片。 StableDiffusion:开源,能生成高质量图片,支持多种模型和算法。 MidJourney:图像生成效果好,界面设计用户友好,在创意设计人群中流行。 更多工具可在 WaytoAGI 网站(https://www.waytoagi.com/category/104 )查看。
2024-12-19
目前我已经有了一个可以文生视频或者图生视频的模型但是只能6秒,我要如何利用agent自动流实现这个模型可以生成更长,更可靠质量的视频呢
要利用 agent 自动流实现生成更长、更可靠质量的视频,您可以参考以下几种模型和方法: 1. PixVerse V2 模型: 8 秒的视频生成需要花费 30 Credits,5 秒的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。 目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,视频时长。图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. Meta Movie Gen 模型: Movie Gen 由视频生成和音频生成两个模型组成。 Movie Gen Video:30B 参数 Transformer 模型,可以从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens。对于精确视频编辑,它可以执行添加、删除或替换元素,或背景替换、样式更改等全局修改。对于个性化视频,它在保持角色身份一致性和运动自然性方面取得 SOTA 性能。 Movie Gen Audio:13B 参数 Transformer 模型,可以接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。 Movie Gen Video 通过预训练微调范式完成,在骨干网络架构上,它沿用了 Transformer,特别是 Llama3 的许多设计。预训练阶段在海量的视频文本和图像文本数据集上进行联合训练,学习对视觉世界的理解。微调阶段研究人员精心挑选了一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。为了进一步提高效果,模型还引入了流匹配(Flow Matching)作为训练目标,这使得视频生成的效果在精度和细节表现上优于扩散模型。 3. Sora 模型: 文生视频,图生视频,视频生视频,支持多种视频定制选项,如分辨率(从 480p 到 1080p)、视频长度(从 5 秒到更长时间)和视频风格。用户可以浏览社区共享的视频,获取灵感和学习技巧(直接抄别人 prompt)。 故事板:允许用户通过时间线指导视频中的多个动作,创建更加复杂的视频序列。 混音和编辑:提供视频混音功能,允许用户将视频转换成新的风格。支持视频的延伸和剪辑,以及创建循环视频。 高级功能:包括混合功能,可以将两个视频场景合并成一个新的场景。 对于已经拥有 OpenAI Plus 或 Pro 账户的用户,Sora 的使用是包含在现有订阅中的,无需额外支付费用。OpenAI Plus 订阅每月 50 次视频生成次数;OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可以根据需要选择更高分辨率的视频生成,但这可能会减少每月的使用次数。Sora 的发布初期,对于某些地区(如欧洲和英国)可能会有延迟。
2024-12-19
nova有个图生视频的功能,但是只能生成6秒钟,我要如何组合服务去实现可以文生长视频并且也可以图生长视频呢
以下是一些实现文生长视频和图生长视频的方法: 1. 使用 PixVerse V2 模型: 单个视频生成(8s):8s 的视频生成需要花费 30 Credits,5s 的视频生成需要花费 15 Credits,且只能使用 PixVerse V2 模型,生成时请注意模型选择。目前仅支持 16:9 画面比例的视频生成。 文生视频:点击“Text to Video”,在“Model”选择“PixVerse V2”,视频时长。PixVerse V2 支持多风格的视频生成,您可以通过在提示词中加入“Anime”,“Realistic”等词语做到这点。 图生视频:点击“Image to Video”,在“Model”选择“PixVerse V2”,图生视频暂不支持“Magic Brush”、“Camera Motion”、“Motion Strength”等功能,如需要使用上述功能,请将模型切换至“PixVerse V1”。 2. 利用 runway: 视频的大部分片段用 runway(https://app.runwayml.com/)制作,少数的片段用的是即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。 以汽车内饰这一片段为例,登录 runway 账户后,在首页的左侧点击“Text/Imagine to Video”,中文即是“文生视频/图生视频”。点击 2 处将汽车内饰的图片上传到 runway 中。其中 1 处可以更改生成图片所用到的大模型版本,数字越大代表模型越强。目前只有 Gen2 每天有免费额度。3 处用于输入提示词。4 处可以修改生成的视频时长为 5s 或 10s,时长越长,生成的效果可能越不稳定。5 处可以看到生成的结果。提示词方框中输入的运镜方式“Roll Clockwise Shot slowly”是,即摄像机围绕垂直轴顺时针旋转,常用于创造动态的、有时令人眩晕的视觉效果。不想动脑的话,每个片段的运镜方式根据分镜表的建议来即可。运镜提示词该如何填写呢?可以参照:。runway 对于这些专有的运镜方式理解的很好。其他的提示词可以不填,先看看效果,如果效果不好,再补充简短的提示词重新生成视频。很多时候提示词过多,生成的视频就很怪异,像吃了毒蘑菇后看到的幻觉一样。改变提示词,改变生成时长,多抽卡几次,毕竟 runway 会员可以无限抽卡。 3. 海外产品 viva: viva 发布了首个开放给全部用户使用的 Sora 同架构视频生成模型,而且现阶段免费。支持文本生成视频、图片生成视频以及 4K 分辨率放大功能,另外也支持提示词的自动优化。文生视频单次可以生成一条 5 秒的视频,图生视频是 4 秒视频。
2024-12-19