Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

core案例拆解教程

Answer

以下为为您提供的几个案例拆解教程:

Coze 应用实战指南 - 吐槽心灵鸡汤

  • 核心功能说明:一个允许用户输入心灵鸡汤类内容,AI 生成对应的反心灵鸡汤,并展示在前端页面的应用。
  • 核心操作流程拆解:
    1. 用户在页面输入指定文本。
    2. 用户在页面点击【开喝】按钮。
    3. Coze 后台调用工作流生成对应内容。
    4. 工作流生成的内容展示在前端界面内。
  • 核心前端设计拆解:
    1. 用户界面提供一个元素 A(Coze 中称作组件),让用户输入内容。
    2. 用户界面提供一个按钮 A,让用户点击后调用工作流。
    3. 用户界面提供一个元素 B,向用户展示工作流的结果。
  • 核心业务逻辑拆解:
    1. 读取元素 A 的用户输入。
    2. 将用户输入传递给 AI 大模型。
    3. AI 大模型按照提示词设定生成指定内容。
    4. 在元素 B 展示 AI 大模型生成的内容。基于上述业务逻辑,只需要设计一个简单的工作流即可,该工作流由【开始】节点(用户输入)、【大模型】节点(AI 生成内容)、【结束】节点构成(内容输出)。

Pika 新功能“Pikadditions” - 厕所开门见猴

  • 原视频:人物推开厕所门→空马桶镜头。
  • 角色图片:一张猴子坐在马桶上的图片。
  • 提示词:“When the door opens in the video,we see a monkey with reading glasses sitting in the toilet reading a book.”
  • 拆解逻辑:
    1. 时间触发:When the door opens→绑定视频动态事件(门开合过程)。
    2. 空间绑定:sitting in the toilet→将猴子坐标锁定在马桶实体上。
    3. 行为设计:reading a book→赋予角色符合场景逻辑的行为(厕所常见活动)。
    4. 细节强化:with reading glasses→用视觉符号增强角色合理性(模仿人类行为)。

首尾帧循环视频制作 - 宇航员案例

  1. MJ 生成宇航员近照。
  2. 截取头盔中反射的宇航员作为第 3 步垫图和 sref 使用。
  3. 生成与头盔中宇航员接近的半身像。
  4. 打开即梦,选择使用尾帧。重点:一般情况可以不选择运镜控制,但这张图需要选择变焦推进,控制镜头推进到头盔里,不然 AI 会自己选择更容易实现的后拉运镜。
  5. 得到。
  6. 同样的做法得到尾帧回到首帧的视频,再用剪映拼接一下两段视频即可得到在他人与自己中无限轮回(有时候起始或结束有停顿,保证整条视频衔接流畅可以掐掉)。
Content generated by AI large model, please carefully verify (powered by aily)

References

健健: Coze应用实战指南 -- 吐槽心灵鸡汤

[coze应用案例视频.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/N0mmbMJ28oUzIPxZriMcddRrnHb?allow_redirect=1)案例核心功能说明一个吐槽心灵鸡汤的应用,允许用户输入心灵鸡汤类内容,ai生成对应的反心灵鸡汤,并展示在前端页面。案例应用体验地址https://www.coze.cn/s/iDGHwn8t/[heading2]核心操作流程拆解[content]1、用户在页面输入指定文本2、用户在页面点击【开喝】按钮3、Coze后台调用工作流生成对应内容4、工作流生成的内容展示在前端界面内[heading2]核心前端设计拆解[content]1、用户界面提供一个元素A(Coze中称作组件),让用户输入内容2、用户界面提供一个按钮A,让用户点击后调用工作流3、用户界面提供一个元素B,向用户展示工作流的结果上述三个元素(组件)是实现用户交互和结果展现的核心[heading2]核心业务逻辑拆解[content]1、读取元素A的用户输入2、将用户输入传递给ai大模型3、ai大模型按照提示词设定生成指定内容4、在元素B展示ai大模型生成的内容基于上述业务逻辑,只需要设计一个简单的工作流即可。该工作流由【开始】节点(用户输入)、【大模型】节点(ai生成内容)、【结束】节点构成(内容输出)。

? Pika来整活了,新功能「Pikadditions」一键让虚拟主角「活」进你的视频!

接下来我把文章开头官方提供的案例模版拆解下,可以帮助你更好的理解如何用提示词实现「角色融入场景」效果原视频:人物推开厕所门→空马桶镜头角色图片:一张猴子坐在马桶上的图片提示词:“When the door opens in the video,we see a monkey with reading glasses sitting in the toilet reading a book.”?拆解逻辑:|要素|解析||-|-||时间触发|When the door opens→绑定视频动态事件(门开合过程)||空间绑定|sitting in the toilet→将猴子坐标锁定在马桶实体上||行为设计|reading a book→赋予角色符合场景逻辑的行为(厕所常见活动)||细节强化|with reading glasses→用视觉符号增强角色合理性(模仿人类行为)|?现在就动手!快速开启你的第一个Pikadditions作品吧!

首尾帧循环视频制作

1、MJ生成宇航员近照2、截取头盔中反射的宇航员作为第3步垫图和sref使用3、生成与头盔中宇航员接近的半身像4、打开即梦,选择使用尾帧重点!:一般情况可以不选择运镜控制,但这张图需要选择变焦推进,控制镜头推进到头盔里,不然AI会自己选择更容易实现的后拉运镜5、得到[imageinput_镜头推近到头盔里反射的宇航员_2024-07-11 22_27_28(1).mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/YG93bjVzVoYNgUxjS1Vc9rofnKe?allow_redirect=1)6、同样的做法得到尾帧回到首帧的视频,再用剪映拼接一下两段视频即可得到在他人与自己中无限轮回(有时候起始或结束有停顿,保证整条视频衔接流畅可以掐掉)[宇航员啊.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Wn1WbriYgoUFffxGuNMcXtIzndh?allow_redirect=1)本期活动参赛作品:[挑战报名表](https://waytoagi.feishu.cn/wiki/PNQrwruv7iOMgykstRNcaE88nKf)

Others are asking
RuntimeError: Couldn't clone Stable Diffusion. Command: "git" clone --config core.filemode=false "https://github.com/Stability-AI/stablediffusion.git" "/Users/lichenhui/stable-diffusion-webui/repositories/stable-diffusion-stability-ai" Error code: 12
以下是关于您遇到的“RuntimeError: Couldn't clone Stable Diffusion”错误的分析和解决建议: 这个错误通常表示在克隆 Stable Diffusion 时出现问题。可能的原因包括: 1. 库的某些文件或依赖项已更改或已移除,导致无法找到所需的提交。 2. Git 存储库的状态不正确。 3. 网络连接存在问题。 解决方法如下: 1. 尝试清除本地库并重新克隆 Stable Diffusion,然后再次运行代码。 2. 运行以下命令来检查网络连接:ping files.pythonhosted.org
2025-02-12
f1 score的定义
F1 值是一种综合考虑准确率和召回率的平衡指标。准确率是指正确预测的样本数占总样本数的比例;召回率是指真正例被正确预测出来的比例。F1 值通过结合准确率和召回率来更全面地评估模型的性能。
2024-12-27
【深度拆解】ChatGPT-4o背后的技术革新:从语言模型到多模态跨越
ChatGPT4o 背后的技术革新具有重要意义。人类的感知多样,仅靠语言描述世界远远不够,多模态理解非常有用,能更全面学习世界、理解人类需求等。2023 年 9 月 GPT4v 发布,将大语言模型竞赛带入多模态模型时代,如 ChatGPT 能看图说话、画图,Google 的 Gemini 支持多种模态,但 OpenAI 常抢先发布。今年 5 月 OpenAI 发布 GPT4o,向智能体方向迈进,其是之前技术的集大成者,通过端到端神经网络混合训练视觉、语音和文本数据,平均音频输入反应时间为 300 毫秒,能感悟人类表达的情绪等。OpenAI 未公开 GPT4o 技术细节,唯一线索来自内部炼丹师的博客 AudioLM。此外,GPT4 是 OpenAI 的多模态工具,在编程任务中表现出色,ChatGPT 是用户友好界面,可与高级语言模型交互。2024 年 5 月 14 日 OpenAI 发布 GPT4o,效率高、价格降低、延迟缩短。9 月 16 日 OpenAI 推出 o1 系列模型,在复杂任务中表现优异,o1mini 适合编码任务,两个模型已在 ChatGPT 中提供,有免费或收费版本。
2025-03-09
02-21 | 哪吒爆款AI视频制作拆解
以下是对哪吒爆款 AI 视频制作拆解的相关内容: 视频创作流程: 包括脚本制作、图片生成、视频生成和视频剪辑,使用的工具分别为豆包、利不利不、可灵和海螺、剪映。 爆火原因分析: 1. 爆款 IP 带来热度和流量,如哪吒。 2. 反差作用,如神话人物与现代生活的反差,好玩有趣吸引停留。 3. 共鸣作用,如职业选择大众化、接地气且贴合角色形象性格并有槽点,引发讨论和分享。 主要角色职业设定: 根据哪吒、敖丙、敖光、敖润、申公豹、太乙真人、吴亮先尊等角色的性格和形象特点,为其设定了快递小哥、咖啡店员、水产店老板等贴合又有槽点的职业。 视频传播情况: 新华社官媒编辑索要并传播了有趣且火的哪吒相关视频。 相关案例特点: 列举了宠物走秀、打工猫等案例,指出其具有反差、萌系、贴近生活等特点。 短视频创作要点: 形式在短视频中可稍大于内容,如开花、冰冻、毛茸茸等风格,但要成热门爆款需内容大于形式,具备反差、共鸣等,且热门爆款有难度,小爆款也不错。 哪吒主题 VB 先导片制作: 周四定方案,周六、周天制作,周天晚上上线。未看片子不耽误制作,用可灵多图参考生成角色、道具等,用集梦生成场景等,还可用可灵 AI 换装设定角色服装。 利用多图生成 AI 视频的创作实践: 1. 哪吒角色创作:通过提供多张零碎照片,参考牙齿等细节,设定现代版哪吒形象,考虑其走位和行为进行场面调度。 2. 成年哪吒合成:将哪吒的头颅与他人身子结合,先给手部特写再揭示人物,提示词思路技巧需统一。 3. 申公豹角色处理:与哪吒类似的处理方式,先交代环境,再展现人物动作。 4. 其他角色创作:包括敖丙、大厨、美丽姑娘、土拨鼠、石姬娘娘等角色,根据不同需求设定形象和动作。 工具特点对比: 可灵能满足需求但生成时间长,微度 AI 生成速度快但结果有区别。 会议主题:0221|哪吒爆款 AI 视频制作拆解 会议时间:2 月 21 号(周五)19:58 22:21(GMT+08) 主讲老师:@小龙问路、@子豪插画
2025-03-07
拆解agent
AI Agent 的拆解是指如果单次请求不能很好地遵循并完成所有事情,就将其拆分为一步一步的子任务。比如用户表达目标后,让大模型根据目标拆分出逐步的子任务,再通过工程方式循环请求子任务(可能会插入新任务),直至所有子任务完成。例如去年的 AutoGPT 就是这种方式(Planning and excute),但它只是学术界的探索,难以落地,除了一些 demo 产品,只在实在智能的 RPA 上见过。难以落地的原因有很多,如计划赶不上变化,提前规划的任务难以保证正确执行;大模型并非全知全能,规划的任务不一定正确;工程化执行时,循环的进入和退出时机也是问题。后来大家都在解决这些问题,思路和解法不同,比如 OpenAI 搞 Tools,FastGPT 搞可视化的 workflow 编排,大家逐渐意识到 workflow 是短期最优解,于是纷纷开始做。 判断自己的任务/Prompt 是否需要拆解为工作流,构建稳定可用的 AI Agent 是不断调试和迭代的过程,通常从性能最强的 LLM 着手,先用单条 Prompt 或 Prompt Chain 测试任务执行质量和稳定性,再根据实际情况和最终使用的 LLM 逐步拆解子任务。一般对于场景多样、结构复杂、输出格式要求严格的内容,基本可预见需要拆解为工作流。此外,鉴于 LLM 只能处理文本输入输出,涉及多媒体内容生成或从网络自主获取额外信息等能力时,必然需要通过工作流调用相应插件。只用一段 Prompt 的 Agent 也算 AI Agent。
2025-01-05
有没有能分析拆解腾讯视频的AI工具?
目前有使用 Gemini 1.5 Pro 来分析和拆解腾讯视频的工具。以下是一些相关信息: 大家可以放自己的案例,本文档可编辑。 郑跃葵:拿个库布里克的电影来分析,连大师手法都学会了。 大峰 AI 绘画:太酷啦又多了一个 AI 视频创作助手。 Jones:b 站大学复习有救了。 对!:拉片太方便了。 Shock:而且可以干掉人工标注了,安徽那边数据标注众包要失业了。 清慎:1. 影视二创长剪短,一键生成小帅、小美、大壮、丧彪的故事;2. 警察叔叔查监控,一句话找出监控中的可疑现象;3. 替代 Opus 等长剪短工具。 测试者阿强:好用,准确度很高,把前几天用 AI 做的功夫熊猫之离谱村版丢进去分析,效果很好。拆解作品。 测试者张余和 Ling、洋洋也有拆解结果,Gemini 1.5 Pro 给出了全文。 您可以尝试使用 Gemini 1.5 Pro 来满足您对腾讯视频的分析拆解需求。
2024-12-11
将活动主题拆解为大量结构化提示词,用于文生视频
以下是将活动主题拆解为大量结构化提示词用于文生视频的相关内容: 技巧 1:提示词的结构 当提示词有清晰的结构时,提示效果最有效。可使用简单公式:。 例如:无结构提示词“小男孩喝咖啡”,有结构的提示词“摄影机平移(镜头移动),一个小男孩坐在公园的长椅上(主体描述),手里拿着一杯热气腾腾的咖啡(主体动作)。他穿着一件蓝色的衬衫,看起来很愉快(主体细节描述),背景是绿树成荫的公园,阳光透过树叶洒在男孩身上(所处环境描述)”。 技巧 2:提示词的优化 有三个原则: 1. 强调关键信息:在提示的不同部分重复或强化关键词有助于提高输出的一致性。 2. 聚焦出现内容:尽量让提示集中在场景中应该出现的内容上。 3. 规避负面效果:在提示词中写明不需要的效果。 写提示词时,首先要明确场景中的人物和冲突,其次是对场景进行详细描述,包括地点、人物形象、任务动作等细节,使用生动的动词营造动态和戏剧化氛围,第三要加强镜头语言,如推、拉、摇、移、升、降等,每种镜头运动都有其特定作用和效果。 PixelDance V1.4 提示词指南 图生视频的基础提示词结构为:主体+运动。当主体有突出特征时可加上,需基于输入图片内容写,明确写出主体及想做的动作或运镜,提示词不要与图片内容/基础参数存在事实矛盾。
2024-12-09
拆解 通往AGI之路 知识付费运营体系
通往 AGI 之路的知识付费运营体系可以从以下几个方面来拆解: 1. 课程特点: 【野菩萨的 AIGC 资深课】由工信部下属单位【人民邮电出版社】开设,是全网技术更新最快的课程之一。 课程内容涵盖 AI 绘画、视听语言和 ChatGPT 等多个体系的知识,能满足不同阶段学习者的需求。 2. 付费与开源的比较: 开源社区资源丰富,适合自律的自主学习者。 知识付费课程提供系统结构、专业指导、针对性计划和互动反馈,是高效的学习途径。 3. 社区需求: 新同学加入时,对适合小白新手入门的课程有需求,相比啃知识库的图文,更愿意接受老师手把手的教学。 4. 个人经历:创建者在希望快速入门 AI 绘画时,投入金钱学习了许多付费的 AI 课程,并最终选择了野菩萨的课程。 通往 AGI 之路本身不仅是开源的 AI 知识库,还是连接 AI 学习者、实践者、创新者的社区,具有以下特点: 1. 共同建设:由一群热爱 AI 的专家和爱好者共同贡献并整合各种 AI 资源。 2. 丰富内容:提供一系列开箱即用的工具,文生图、文生视频、文生语音等详尽的教程。 3. 紧跟前沿:追踪 AI 领域最新的进展,时刻更新。 4. 活动多样:包括东京的 confii 生态大会、AI 文旅视频、娃卡奖、李普村共创故事、AI 春晚等社区共创项目,以及 AIPO 活动、共学活动等。 5. 扶持与奖励:在小红书发布活动内容带特定标签有流量扶持,设有最佳创业奖和最佳投资奖等。
2024-11-25
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12
请找到 AI 用于知识管理的案例
以下是一些 AI 用于知识管理的案例: 1. 在法学领域,当模型培训针对组织内特定的基于文本的知识体系进行微调时,生成式人工智能可以有效地管理组织的知识。例如摩根士丹利正在与 OpenAI 的 GPT3 合作,微调财富管理内容的培训,以便财务顾问既可以搜索公司内部的现有知识,又可以轻松地为客户创建量身定制的内容。 2. 在构建高效的知识管理体系方面,可以通过一系列创新的 AI 应用来实现。比如,AI 可以通过分析工作模式和内容类型,自动生成提示词,帮助将信息和知识分类到 PARA(项目、领域、资源、档案)的相应部分,还能帮设计笔记标签系统。此外,知识助手 Bot 可以根据学习进度和兴趣点,定期推送相关的文章、论文和资源,实现渐进式积累领域知识。 3. 在代码库相关的知识管理中,Cursor 有针对大代码库精准找到相关函数,并利用其信息帮助撰写代码的功能。对于非开发性质的问答,它是一个天然的 RAG 引擎。在问答窗口使用特定操作时,它会先在当前文件夹下搜索并显示相关文档和相关度,最后用这些信息构建提示词完成生成。而且,它能与私有文档自然结合进行问答,并将新生成的见解沉淀成新文档,形成知识闭环,提高知识检索和管理的效率。
2025-04-14
飞书+AI的应用案例
以下是飞书+AI的应用案例: 在企业运营方面,包括日常办公文档材料撰写整理、营销对话机器人、市场分析、销售策略咨询,以及法律文书起草、案例分析、法律条文梳理和人力资源简历筛选、预招聘、员工培训等。 在教育领域,协助评估学生学习情况,为职业规划提供建议,针对学生情况以及兴趣定制化学习内容,论文初稿搭建及论文审核,帮助低收入国家/家庭通过 GPT 获得平等的教育资源。 在游戏/媒体行业,有定制化游戏、动态生成 NPC 互动、自定义剧情、开放式结局,出海文案内容生成、语言翻译及辅助广告投放和运营,数字虚拟人直播,游戏平台代码重构,AI 自动生成副本。 在零售/电商领域,包括舆情、投诉、突发事件监测及分析,品牌营销内容撰写及投放,自动化库存管理,自动生成或完成 SKU 类别选择、数量和价格分配,以及客户购物趋势分析及洞察。 在金融/保险行业,有个人金融理财顾问、贷款信息摘要及初始批复、识别并检测欺诈活动风险、客服中心分析及内容洞。 线下活动方面: 活动宣传:用飞书文档制作活动宣传页面,用 AI 快速制作海报,用 GPTs 写人员分配和主持人台词,活动从策划到开始仅用 2 天时间。 活动报名:使用飞书的多维表格完成报名表及数据统计。 活动过程:大家在线协同,一起编辑文档,演示时共同展示一个文档。 活动记录:有相关的记录页面。 办活动的初衷是宣扬 AI 不只是降本增效的工具,还有很多乐趣等待挖掘,例如大理户外圆桌讨论、清迈的 AI 逛古城、杭州的 AI 玄学小组。
2025-04-13
有AI在各个行业的案例吗
以下是 AI 在各个行业的一些应用案例: 汽车行业: 1. 自动驾驶技术:利用 AI 进行图像识别、传感器数据分析和决策制定,如特斯拉、Waymo 和 Cruise 等公司在开发和测试自动驾驶汽车。 2. 车辆安全系统:AI 用于增强自动紧急制动、车道保持辅助和盲点检测等系统,通过分析数据预防事故。 3. 个性化用户体验:根据驾驶员偏好和习惯调整车辆设置,如座椅位置、音乐选择和导航系统。 4. 预测性维护:分析车辆实时数据预测潜在故障和维护需求,减少停机时间和维修成本。 5. 生产自动化:在汽车制造中用于自动化生产线,提高生产效率和质量控制。 6. 销售和市场分析:汽车公司用 AI 分析市场趋势、消费者行为和销售数据,制定营销策略和优化产品定价。 7. 电动化和能源管理:在电动汽车的电池管理和充电策略中发挥作用,提高能源效率和延长电池寿命。 8. 共享出行服务:如 Uber 和 Lyft 等,使用 AI 优化路线规划、调度车辆和定价策略,提高服务效率和用户满意度。 9. 语音助手和车载娱乐:AI 驱动的语音助手允许驾驶员通过语音控制车辆功能、获取信息和娱乐内容。 10. 车辆远程监控和诊断:AI 系统远程监控车辆状态,提供实时诊断和支持。 其他行业: 1. 企业运营:包括日常办公文档材料撰写整理、营销对话机器人、市场分析和销售策略咨询等。 2. 教育:协助评估学生学习情况,为职业规划提供建议,定制化学习内容,论文初稿搭建及审核,帮助低收入国家/家庭获得平等教育资源。 3. 游戏/媒体:定制化游戏、动态生成 NPC 互动、自定义剧情、开放式结局,出海文案生成、语言翻译及辅助广告投放和运营,数字虚拟人直播,游戏平台代码重构,AI 自动生成副本。 4. 零售/电商:舆情、投诉、突发事件监测及分析,品牌营销内容撰写及投放,自动化库存管理,自动生成或完成 SKU 类别选择、数量和价格分配,客户购物趋势分析及洞察。 5. 金融/保险:个人金融理财顾问,贷款信息摘要及初始批复,识别并检测欺诈活动风险,客服中心分析及内容洞察。
2025-04-12
用AIGC生成的单镜头循环视频案例
以下是一些用 AIGC 生成的单镜头循环视频的案例: OpenAI 的 Sora 视频生成模型:能够生成长达 1 分钟的视频,在时长、稳定性、一致性和运动幅度上表现出色。它可以根据提供的图像和提示生成视频,还能在时间上向前或向后扩展视频以产生无缝的无限循环。此外,能零镜头地改变输入视频的风格和环境,在两个输入视频之间逐渐进行插值创建无缝过渡,也能够生成图像。 Luma 视频生成工具 Dream machine 增加了尾帧生成视频的功能和循环视频生成功能。 智谱 AI 发布的 DiT 视频生成模型“智谱清影”,支持文生和图生视频,目前免费使用,加速生成需要付费。 此外,还有一些其他相关项目: Google 的 Genie 采用 STtransformer 架构,包括潜在动作模型、视频分词器与动力学模型,拥有 110 亿参数。 DeepMind 的 WaveNet 是一种生成模型,可以生成非常逼真的人类语音。 OpenAI 的 MuseNet 是一种生成音乐的 AI 模型,可以在多种风格和乐器之间进行组合。 ElevenLabs 的 Multilingual v2 是一种语音生成模型,支持 28 种语言的语音合成服务。 Stability 发布了 Stable Video 4D 模型,可以从视频中生成更多角度的新视频。 Pixverse 更新了 V2 版本 DiT 视频模型,支持 8 秒时长视频生成、细节和动作增强、支持最多 5 段内容一次性生成,无缝衔接。
2025-04-10
推荐知识库中用ai做学术的案例
以下是知识库中与用 AI 做学术相关的案例和信息: B 站 up 主的课程:每节 15 分钟,免费且内容好,涵盖 AI 艺术字等。 炼丹操作:16 号晚上中老师会带大家动手炼丹,炼丹需提前准备一些图,会让老师提前发布内容让大家准备。 高效 PB 及相关案例:高效 PB 投入力度大,有厉害的伙伴,案例在社区,有多种 battle 方式,会有菩萨老师专门介绍。 初学者入门推荐:推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 经典必读文章:如介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,还包括软件 2.0 时代相关内容。 历史脉络类资料:整理了 open AI 的发展时间线和万字长文回顾等。 6 月 29 日更新:翻译完 a16z 推荐的 AI 典藏文章其中两篇:。
2025-04-01
有AI+游戏的最新案例吗
以下是一些 AI+游戏的最新案例: 由 5 人独立游戏工作室 Proxima 开发的 AI 冒险独立游戏 Suck Up!上线三周油管播放超千万。这是一款沙盒社交冒险游戏,团队尝试加入了名为 Nemo 的 AI NPC,基于 LLM 驱动,Nemo 能在接收到用户命令或其他线索后,调动感知、记忆,并转化为可执行的游戏行动。去年上半年,该工作室因获得 160 万美元投资引起轰动,上线后也受到资本关注。玩家对其玩法和模式提出了很多创意想法,如设计成就系统、上线多人模式等。 开发者正在使用 AI 生成音乐来填充游戏过程与游戏 UI 中需要使用到的各类音效、不同游戏场景中用以渲染氛围的各种音乐。像 MusicLM 等模型已经支持生成多音轨的作品。 2023 年 Genfun.ai 和 Meshy 联合制作的游戏《Soul Chronicle》,是首款实时 3D+AIGC+UGC 的 MMO 手游,最大突破是制作出了与游戏完美融合的 3D AIGC 技术,可在游戏中实时生成角色皮肤。 2024 年 Bitmagic 释出的《Roleverse》平台,可在平台内使用提示在游戏内定制角色,对角色进行缩放、挤压和拉伸,也能轻松对游戏世界进行编辑。 AI 技术在游戏行业的应用由来已久,且不断发展。从最初的简单内容和随机元素生成,到辅助游戏设计,再到如今能够生成更复杂的游戏内容,如动态场景、智能 NPC 行为等。AI 对游戏创作的影响包括美术与风格、剧情与叙事、关卡与玩法、音效与音乐、测试与优化等方面。同时,AI 能基于玩家游戏行为评估玩家技能水平和游戏风格,动态调整游戏难度等,提升玩家体验。此外,游戏还能成为 AI 模型能力的最佳试验场。
2025-04-01