Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何让agent协作起来

Answer

要让 Agent 协作起来,可以参考以下方法:

  1. 了解不同的产品设计模式:生成式 AI 的人机协同分为 Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理)这 3 种模式,每种模式下人与 AI 的协作流程有所差异。其中 Embedding 模式人类完成大多数工作,Copilot 模式人类和 AI 协同工作,Agents 模式 AI 完成大多数工作。
  2. 采用 Multiagent Collaboration 的方法:让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。例如作为产品经理,可将产品功能设计需求通过 Agents 拆解成多个独立任务,遵循不同工作流,生成初步结果后再修改完善。
  3. 从原子能力层思考:抽象化拆解大模型的底层能力,如翻译、识别、提取、格式化等,围绕“输入”“处理”“输出”“反馈”构建最底层的信息处理逻辑。
  4. 重塑获取信息的方式:搜索引擎和基于大模型的聊天机器人的目标从根本上一致,可根据需求选择。
  5. 注意多 Agent 模式中的设置:分为全局设置和节点设置。全局设置中更应注意角色定义和人物刻画,节点设置更关注单个智能体中要详细执行的逻辑。
  6. 合理编排智能体:将智能体编排首尾相连,避免成为线性工作流。
  7. 明确跳转模式和适用场景:单个 Agent 中两种跳转模式分别适用于通用和复杂的意图识别和跳转,一般场景下前者效果更好,后者适用更复杂的意图识别情景。同时,编排时应明确单个 Agent 的名称和适用场景,以便节点跳转模型更好地识别触发条件。
Content generated by AI large model, please carefully verify (powered by aily)

References

Inhai: Agentic Workflow:AI 重塑了我的工作流

AI与人的协同关系生成式AI的人机协同分为3种产品设计模式:Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理),在这3种模式下,人与AI的协作流程也是有所差异。Embedding模式:人类完成大多数工作。Copilot模式:人类和AI协同工作。Agents模式:AI完成大多数工作。Agentic Workflow驱动角色工作流变革使用Multiagent Collaboration的方法,让不同角色的Agent按照根据任务要求自主规划选择工具、流程进行协作完成一件任务。我作为一个产品经理角色,我的诉求很简单,需要完成某一个产品功能设计,这个时候通过Agents拆解成多个独立的任务,然后遵循不同的工作流,最后给我生成一份在大体上符合我期望的输出结果,我再修修改改就能够达到可用的阶段了。所以,我从原子能力层重新思考,面对这个快速变化的时代,我该如何去重塑我自己的工作流,以不变应万变呢?我抽象化拆解了大模型的一些底层能力,例如:翻译、识别、提取、格式化等等,其实所有的一些都会围绕几个词“输入”、“处理”、“输出”、“反馈”。“输入”、“处理”、“输出”、“反馈”构建了我最底层的信息处理逻辑,我把它比作四个齿轮,齿轮之间通过不同的衔接工具逐步推动运转,从需求作为输入、结果作为输出,围绕着信息加速,不断驱动我向前。重塑获取信息的方式搜索引擎作为互联网基础设施,同时也是互联网的入口,对于用户而言,从解决问题出发,搜索引擎和基于大模型的聊天机器人的目标从根本上是一致的。自2022年底ChatGPT发布,其通过问答形式被认为将对传统搜索引擎带来颠覆。

一文读懂扣子上的多 Agent 模式

最后,让我们一起对整个流程进行测试。首先我们按照预定流程来,即:景点推荐——>路线规划——>食宿安排这个顺序来进行常规路线的跑通。在跑通常规路线后,我们希望再做一些其它的景点推荐,于是我向其发出指令,其成功跳转回了起始点。最后,再来试一下让其跳转到旅游路线规划节点。OK,看起来算是初步成形了,接下来就是按需做进一步的调整和优化了。[heading1]四、总结[content]文章的最后,让我们快速对多Agent模式做一个小结,以便加深印象:1.多Agent模式中的设置分为全局设置和节点设置。在全局设置中,更应该注意角色定义和人物刻画,而后者更关注单个智能体中要详细执行的逻辑。2.要想让Agent达到互相协作的目的,应该在智能体编排中将首尾相连,不然就会成为线性工作流。3.单个Agent中两种跳转模式分别适用于通用和复杂的意图识别和跳转,一般的场景下,前者的效果更好,而后者适用更复杂的意图识别情景。4.在编排时,单个Agent的名称和适用场景应该明确设定好,以让节点跳转模型更好的识触发条件。

一文读懂扣子上的多 Agent 模式

最后,让我们一起对整个流程进行测试。首先我们按照预定流程来,即:景点推荐——>路线规划——>食宿安排这个顺序来进行常规路线的跑通。在跑通常规路线后,我们希望再做一些其它的景点推荐,于是我向其发出指令,其成功跳转回了起始点。最后,再来试一下让其跳转到旅游路线规划节点。OK,看起来算是初步成形了,接下来就是按需做进一步的调整和优化了。[heading1]四、总结[content]文章的最后,让我们快速对多Agent模式做一个小结,以便加深印象:1.多Agent模式中的设置分为全局设置和节点设置。在全局设置中,更应该注意角色定义和人物刻画,而后者更关注单个智能体中要详细执行的逻辑。2.要想让Agent达到互相协作的目的,应该在智能体编排中将首尾相连,不然就会成为线性工作流。3.单个Agent中两种跳转模式分别适用于通用和复杂的意图识别和跳转,一般的场景下,前者的效果更好,而后者适用更复杂的意图识别情景。4.在编排时,单个Agent的名称和适用场景应该明确设定好,以让节点跳转模型更好的识触发条件。

Others are asking
如何把coze的agent发布到微信公众号上
要把 Coze 的 agent 发布到微信公众号上,您可以按照以下步骤进行操作: 1. 组装和测试“AI 前线”Bot 机器人: 返回个人空间,在 Bots 栏下找到刚刚创建的“AI 前线”,点击进入。 将写好的 prompt 粘贴到【编排】模块,prompt 可随时调整。 在【技能】模块添加需要的技能,如工作流、知识库。 在【预览与调试】模块,直接输入问题,即可与机器人对话。 2. 发布“AI 前线”Bot 机器人: 测试 OK 后,点击右上角“发布”按钮,即可将“AI 前线”发布到微信、飞书等渠道。 3. 发布到微信公众号上: 选择微信公众号渠道,点击右侧“配置”按钮。 根据相关截图,去微信公众号平台找到自己的 App ID,填入确定即可,不用解绑。 4. 体验: 最后去自己的微信公众号消息页面,就可以使用啦。 另外,还有一种方法是在 Coze 发布页面的发布平台的微信客服这里,显示“已配置”后,进行勾选并点击发布。发布成功后,可以点击微信客服旁边的立即对话、复制 Bot 链接,会弹出该微信客服的二维码,扫码即可立即体验。
2025-02-19
agent训练
在人工智能领域中,AI Agent 的训练具有以下特点: 传统强化学习中,Agent 训练往往需大量样本和时间,且泛化能力不足。 为突破瓶颈,引入了迁移学习:通过促进不同任务间知识和经验迁移,减轻新任务学习负担,提升学习效率和性能,增强泛化能力,但当源任务与目标任务差异大时,可能无法发挥效果甚至出现负面迁移。 探索了元学习:核心是让 Agent 学会从少量样本中迅速掌握新任务最优策略,能利用已有知识和策略调整学习路径适应新任务,减少对大规模样本集依赖,但需要大量预训练和样本构建学习能力,使开发通用高效学习策略复杂艰巨。 时间:21 世纪初至今 特点:迁移学习是将一个任务学到的知识迁移到其他任务;元学习是学习如何学习,快速适应新任务。 技术:迁移学习如领域自适应;元学习如 MAML、MetaLearner LSTM。 优点:提高学习效率,适应新任务。 缺点:对源任务和目标任务的相似性有一定要求。 此外,智谱 AI 开源的语言模型中与 Agent 相关的有: AgentLM7B:提出了 AgentTuning 方法,开源了包含 1866 个高质量交互、6 个多样化真实场景任务的 Agent 数据集 AgentInstruct,基于上述利用 Llama2 微调而成,上下文 token 数为 4K。 AgentLM13B:上下文 token 数为 4K。 AgentLM70B:上下文 token 数为 8K。
2025-02-18
agent和copilot的区别
Copilot 和 Agent 主要有以下区别: 1. 核心功能: Copilot 更像是辅助驾驶员,依赖人类指导和提示完成任务,功能局限于给定框架内。 Agent 像初级主驾驶,具有更高自主性和决策能力,能根据目标自主规划处理流程并自我迭代调整。 2. 流程决策: Copilot 处理流程依赖人类确定,是静态的,参与更多在局部环节。 Agent 解决问题流程由 AI 自主确定,是动态的,能自行规划任务步骤并根据反馈调整流程。 3. 应用范围: Copilot 主要用于处理简单、特定任务,作为工具或助手存在,需要人类引导监督。 Agent 能够处理复杂、大型任务,并在 LLM 薄弱阶段使用工具或 API 增强。 4. 开发重点: Copilot 主要依赖 LLM 性能,开发重点在于 Prompt Engineering。 Agent 同样依赖 LLM 性能,开发重点在于 Flow Engineering,把外围流程和框架系统化。 此外,Agent 具备“决策权”,可自主处理问题,无需确认;Copilot 需要人类确认才能执行任务。业界普遍认为,Copilot 更适合各行业现有软件大厂,而 AI Agent 为创业公司提供了探索空间。
2025-02-18
AI agent 是什么?
AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 AI Agent 包括以下几个概念: 1. Chain:通常一个 AI Agent 可能由多个 Chain 组成。一个 Chain 视作是一个步骤,可以接受一些输入变量,产生一些输出变量。大部分的 Chain 是大语言模型完成的 LLM Chain。 2. Router:我们可以使用一些判定(甚至可以用 LLM 来判定),然后让 Agent 走向不同的 Chain。例如:如果这是一个图片,则 a;否则 b。 3. Tool:Agent 上可以进行的一次工具调用。例如,对互联网的一次搜索,对数据库的一次检索。 总结下来我们需要三个 Agent: 1. Responser Agent:主 agent,用于回复用户(伪多模态) 2. Background Agent:背景 agent,用于推进角色当前状态(例如进入下一个剧本,抽检生成增长的记忆体) 3. Daily Agent:每日 agent,用于生成剧本,配套的图片,以及每日朋友圈 这三个 Agent 每隔一段时间运行一次(默认 3 分钟),运行时会分析期间的历史对话,变更人物关系(亲密度,了解度等),变更反感度,如果超标则拉黑用户,抽简对话内容,提取人物和用户的信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。 此外,心灵社会理论认为,智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。心灵社会将智能划分为多个层次,从低层次的感知和反应到高层次的规划和决策,每个层次由多个 Agent 负责。每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务,如视觉处理、语言理解、运动控制等。智能不是集中在单一的核心处理单元,而是通过多个相互关联的 Agent 共同实现。这种分布式智能能够提高系统的灵活性和鲁棒性,应对复杂和多变的环境。同时,在《心灵社会》中,还存在专家 Agent(拥有特定领域知识和技能,负责处理复杂的任务和解决特定问题)、管理 Agent(协调和控制其他 Agent 的活动,确保整体系统协调一致地运行)、学习 Agent(通过经验和交互,不断调整和优化自身行为,提高系统在不断变化环境中的适应能力)。 从达特茅斯会议开始讨论人工智能(Artificial Intelligence),到马文·明斯基引入“Agent”概念,往后,我们都将其称之为 AI Agent。
2025-02-17
有关agent的介绍
AI Agent 是当前 AI 领域中较为热门的概念,被认为是大模型未来的主要发展方向之一。 从原理上看,中间的“智能体”通常是 LLM(语言模型)或大模型。为其增加的四个能力分别是工具、记忆、行动和规划。目前行业中主要使用 langchain 框架,将 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。例如,给大模型提供长期记忆,相当于给予一个数据库工具让其记录重要信息;规划和行动则是在大模型的 prompt 层进行逻辑设计,如将目标拆解并输出不同的固定格式 action 指令给工具。 从产品角度,Agent 可以有不同的设定。比如是一个历史新闻探索向导,身份为历史新闻探索向导,性格知识渊博、温暖亲切、富有同情心,角色是主导新闻解析和历史背景分析,还可以为其设计背景故事使其更加生动。 在人工智能领域,Agent 智能代理是一种能够感知环境并根据感知信息做出决策以实现特定目标的系统,能够自动执行任务,如搜索信息、监控系统状态或与用户交互。
2025-02-16
AIagent的发展方向
AI Agent 被认为是大模型未来的主要发展方向之一,其发展具有以下特点和阶段: 从原理上看,中间的“智能体”通常是 LLM 或大模型,为其增加了工具、记忆、行动、规划四个能力。目前行业里主要用到的是 langchain 框架,它通过代码或 prompt 的形式将 LLM 与 LLM 之间以及 LLM 与工具之间进行串接。 在人工智能的发展历程中,AI Agent 并非一蹴而就,其发展可分为几个阶段,并受到符号主义、连接主义、行为主义的影响。在人工智能的黎明时期,符号人工智能作为主导范式,以对符号逻辑的依赖著称,代表之作是基于知识的专家系统。其特点是基于逻辑和规则系统,使用符号来表示知识,通过符号操作进行推理。优点是推理过程明确、可解释性强,缺点是知识获取困难、缺乏常识、难以处理模糊性。时间为 20 世纪 50 70 年代。 近期出现的各类 AI 搜索引擎不断颠覆传统搜索引擎,如 perplexity.ai、metaso、360 搜索、ThinkAny 等。AI Agent 在辅助高效处理信息和简便信息表达方面表现出色,例如智能摘要能辅助快速筛选信息,自然语言描述可生成美观可用的图片。在工作流方面,每个人应根据自身情况找到适合的工具,如产品经理可使用 AI 进行用户画像、竞品调研、设计产品测试用例、绘制产品功能流程图等。关于 AI Agent 的未来,曾被认为异想天开的想法都可能成为现实,技术迭代会不断向前。
2025-02-15
写一篇关于个人AI生存协作的探索指南
以下是一篇关于个人 AI 生存协作的探索指南: 一、相关研究和报告 1. 平安证券发布的《AI 系列深度报告(六):AI 智能眼镜:AI 技术应用落地新风口,25 年有望迎来新品密集发布》指出,AI 技术推动终端创新,AI 智能眼镜成为新风口,具有轻薄、功能聚焦视听、佩戴舒适等特点,预计 2025 年新品将密集发布,销量有望翻倍。 2. 腾讯研究院发布的《2025 年 AI 转型的进展洞察报告》深入探讨了 AI 转型的定义、内涵、应用现状、投资情况、挑战与风险以及未来展望。报告指出企业对生成式 AI 的探索集中在核心业务环节,但在职能性环节成熟度更高,应用时以多目标为导向,优先聚焦提升核心能力和优化现有业务。 二、基础篇 过去一年持续进行了关于 AI 协作探索的研究和分享,包括 AI 产品的流量和竞争视角分析等。 三、协同智能的七种武器 1. 认知层/武器一:As Team,Be Leader 2. 视角层/武器二:AI as Person 3. 视角层/武器三:AI as ME 4. 视角层/武器四:AI as Alien 5. 实践层/武器五:AI as Tool 6. 实践层/武器六:AI as Mirror&Coach 7. 实践层/武器七:AI as Coworker&Friend 四、拓展阅读 包括 Gamma embed、AIGC 行业、AI 变革、公司/产业实践等方面的内容。 五、人类价值的低替代、提升方向和方式重塑 在领导决策、创新思维、沟通能力等方面,思考和创新占 70%,想法的实现执行和与 AI 协作执行占 30%。
2025-02-12
大模型和小模型如何协作
大模型和小模型的协作方式主要体现在以下几个方面: 在人机协同模式方面: 1. 模式一:以人为主导,大模型提供建议(copilot 阶段),如同副驾驶,开车时提供建议,决定权在人手上。 2. 模式二:人和大模型协同工作,合作完成同一工作(embedding 阶段),实际工作场景中,一些小环节可由大模型完成,融入工作流程提高效率。 3. 模式三:人指挥大模型工作(数字员工阶段),但此阶段目前少见,大模型还不能完全独立完成具体工作,可能是工程问题或自身能力欠缺。 在 AI 绘图方面:大模型如同主菜或主食,小模型(如 Lora)如同佐料或调料包,Lora 能帮助快速实现特定风格或角色的绘制。并且大模型和 Lora 要基于同一个基础模型才能搭配使用,以生成各种风格的图片。 个人观点认为,当下应努力让大模型深度融入工作流,而数字员工阶段尚不成熟,可让其他大厂和学界先多尝试。
2025-01-05
智能鸿沟和国际协作写认识理解、研究方向、未来
以下是关于智能鸿沟和国际协作的认识理解、研究方向及未来的相关内容: 认识理解: 目前对于智能鸿沟的研究主要集中在人工智能、自动化等相关趋势在不同行业中对劳动力的影响,包括其造成的劳动力跨部门的变化,以及由此产生的劳动力需求和就业机会。 研究方向: 研究不同行业因人工智能的广泛采用所带来的劳动力影响。 探索人工智能在各行业广泛应用所产生的劳动力需求和就业机会。 明确更好地理解和追踪劳动力影响、需求及机会方面存在的研究差距和所需数据。 提出应对上述挑战和机遇的建议。 未来: 在未来的研究中,需要进一步深入探讨智能鸿沟在全球范围内的演变和影响,以及国际协作在应对智能鸿沟方面所能发挥的作用。通过国际间的合作,共同制定策略,以缩小不同国家和地区在人工智能应用和发展方面的差距,促进全球的平衡发展。同时,持续关注人工智能技术的新发展和其对劳动力市场的动态影响,及时调整应对策略。
2024-12-18
多智能体协作
多智能体协作是指多个智能体协同工作以解决任务的系统。 CAMEL 框架新增了多智能体协作 Workforce 模块。Workforce 是一个让多个 Agent 协同工作以解决任务的系统,采用分层架构,包含多个工作节点,每个工作节点可以包含一个或多个 Agent 作为工作者,由协调 Agent 进行管理,还有任务规划 Agent 负责将任务分解和组合。 选择 Workforce 的原因在于其具有动态问题解决能力,与传统 Workflow 工作流不同,能实时适应,自动分解问题、重新启动新的 Agent 并持续迭代,直到任务完全解决,这种灵活性使其在大规模解决复杂问题时成为改变游戏规则的工具。详情可在官网的 Doc 中查看:https://docs.camelai.org/key_modules/workforce.html 。 多智能体(MultiAgent)是由多个自主、独立的智能体(Agent)组成的系统,每个智能体都能感知环境、决策并执行任务,且能信息共享、任务协调和协同行动以实现整体目标。随着大型语言模型(LLM)的出现,以 LLM 为核心构建的 Agent 系统受到广泛关注,目前常见框架有单 Agent 和多 Agent 场景。单 Agent 核心在于 LLM 与工具的协同配合,多 Agent 会为不同 Agent 指定不同角色并通过协作完成复杂任务。构建多 Agent 框架需要考虑环境(所有 Agent 处于同一环境,环境包含全局状态信息,Agent 与环境有信息交互与更新)、阶段(采用 SOP 思想将复杂任务分解为多个子任务)、控制器(可以是 LLM 或预先定义好的规则,负责环境在不同 Agent 和阶段之间的切换)和记忆(多 Agent 框架中由于 Agent 数量增多,消息数量增多,每条消息可能需记录更多字段)等组件。 在工作流 Workflow 方面,也可以理解为多智能体协作。以“什么值得买”智能体为例,通过多个智能体的组装解决复杂场景的搜索问题,如给新产品取名,涉及多个步骤和智能体的协作,还需要有调度中枢协调工作和做决策。
2024-11-25
Agents协作的系统架构图应该怎么画
以下是关于绘制 Agents 协作的系统架构图的一些参考信息: 首先,了解 Agent 的基本框架,即“Agent = LLM + 规划 + 记忆 + 工具使用”。其中大模型 LLM 扮演了 Agent 的“大脑”。 规划方面,主要包括子目标分解、反思与改进。子目标分解能将大型任务分解为较小可管理的子目标来处理复杂任务,反思和改进则可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。 记忆分为短期记忆和长期记忆。短期记忆是将所有的上下文学习看成利用模型的短期记忆来学习;长期记忆提供了长期存储和召回信息的能力,通常通过利用外部的向量存储和快速检索来实现。 工具方面,不同的任务和场景需要选择合适的工具。 在生成式 AI 的人机协同中,分为 Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理)3 种产品设计模式,人与 AI 的协作流程有所差异。在 Agents 模式下,AI 完成大多数工作。 可以通过 Multiagent Collaboration 的方法,让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。例如,作为产品经理角色,可将产品功能设计需求通过 Agents 拆解成多个独立的任务,然后遵循不同的工作流,最后生成一份大致符合期望的输出结果,再进行修改完善。 此外,还可以参考一些实例探究,如提示 LLM 提供 100 个最新观察结果,并根据这些观测/陈述生成 3 个最重要的高层次问题,然后让 LLM 回答这些问题。规划和反应时要考虑主体之间的关系以及一个主体对另一个主体的观察,环境信息以树形结构呈现。
2024-08-18
AI在协作办公中的应用场景
以下是 AI 在协作办公中的一些应用场景: Saga AI: 是一个协作工作空间,用于笔记、文件和任务。 内部的创意助手可帮助起草内容、生成创意、修复语法错误,并一键翻译成 20 多种语言。 直接集成到工作空间,无需在应用程序间切换和不断复制粘贴,还能同时进行多个与 AI 的对话。 官网:https://saga.so/ai Sembly AI: 高效会议:简化会议过程,允许与会人员专注于讨论,同时捕捉所有重要信息。 高效协作:自动化和集成能力简化了会后跟进和任务管理。 企业解决方案:与多个平台和应用程序兼容,适用于各种规模的企业。 ChatOrg: 在 AI 项目上进行协作,利用 ChatGPT 进行实时讨论和构思。 组织聊天和文件夹,以简化沟通并确保易于访问相关讨论。 在团队内部共享提示和知识,提高工作效率并加速协作过程。 通过 Markdown 和代码语法高亮改善技术讨论的可读性。 编辑和改进消息,提高协作过程中的准确性和清晰度。
2024-08-13
生成3d模型可以让模型动起来吗?
生成 3D 模型后是可以让模型动起来的。例如,通过以下工具和流程可以实现: 工具链:Midjourney(生成等距图像)→Trellis(图像转 3D 模型)→Browser Lab(浏览器内 3D 编辑器)。 步骤: 使用 Midjourney 生成等距 3D 场景,提示词示例:3D isometric bedroom with a bed and desk。(DALLE 3 也可测试) 用 Trellis 工具将图像转为 3D 模型(支持 Tripo 3D 等其他工具)。工具地址: 下载生成的 3D 模型(GLB 文件或高斯分布文件),然后导入 Browser Lab 编辑器中进一步编辑。编辑器地址: 结合可灵 AI、Hailuo AI、Runway 等工具可让场景中的人物动起来。 对于文物雕塑上色,可使用 runway 让固有想法的物体变得动态,runway gen3 的 V2V 可以让物体重新建模、重新上色,再把背景上个色,传到剪映,加上 BGM。 先上传图片,运用提示词,只要让物体动起来就行,一次可能不成功,可以多次抽卡(分够的话)。 生成好的视频的左下方,点击“Reuse”,再点击上方出现的“Video to Video”,视频就会跳转到我们的工作台。 再在下方输入提示词“3D modeling with vibrant colors”等待生成。 再重复上面一个步骤,把提示词换成“Changing the background to the universe,the body emits light”。 最后导入剪映,按照自己喜欢的风格,剪成一个小短片。 另外,可以用即梦 S2.0(或其他可以动效的工具)出动态视频,在剪映提前转成 9:16 或 16:9 的大小,否则 runway 会裁剪尺寸。
2025-02-20
如何让老照片动起来
以下是一些让老照片动起来的方法和相关信息: 1. 参加“时光印记”AI 公益挑战赛:该挑战赛采集了杨浦 20 位老一辈建设者老照片与故事,期望用 AIGC 技术创作影视频、AIMV、动图。作品要求任选百年主题,创作视频短片、音乐 AIMV 或动态老照片,AI 制作内容不低于 70%,视频短片时长 60 秒以上,音乐 AIMV 至少 30 秒,图片组让老照片动起来 5 10s。报名及创作时间为即日起至 2024 年 11 月 20 日。参赛方式为填写报名问卷和进群获取素材。 2. 使用 Dreamina 即梦工具:不需要🪜,每天有免费额度。注册可用抖音号或手机号,上传照片即可尝试让老照片动起来。 3. 使用 Sora 工具:优点是发布的成果好,集成在 openai 一套里可用,但需要🪜,需要 gmail 注册,需要订阅后才能使用。
2025-02-14
我想让公司做内容的同时用起来AI工具做好小红书和公众号的内容
以下是关于在公司做小红书和公众号内容时使用 AI 工具的相关信息: 1. 卓 sir 利用 AI 工具完成 PPT 作业的经验: 卓 sir 在时间紧迫的情况下,出于对 AI 提效的好奇,决定自己先用 AI 工具完成电子商务组队的 PPT 汇报作业。 探索写 prompt 花费了 3 个小时,但最终成功完成了包括大纲内容、排版、动画等的 PPT,认为加上企业背景图片即可提交。 用到的 AI 工具为 GPT4、WPS AI 和 chatPPT。 2. 12 月 25 日的 AI 资讯: Recraft AI 更新了 60 种新的图像风格,是一款可用于生成和编辑插画、海报、产品周边等的 AI 平面设计工具,对所有用户每日都有免费试用点数,并允许对生成的图像进行商业使用。地址:https://www.recraft.ai/ AI 公文智能体“学习强国公文助手”在文小言 APP 正式上线,可以帮助用户进行文汇检索、AI 公文书写、AI 公文润色等。使用方式:下载文小言 APP,找寻学习强国公文助手。 3. 关于生成式 AI 内容的思考: 汉青老师分享提到生成式 AI 的内容仍和传统社交媒体内容共存,短期内可能因新鲜感获流量红利,但人们最终在意的仍是高质量内容。 虽掌握了各种先进工具,但应更关注内容,认真感受真实世界和身边普通人。对于如何与 AI 结合还没想好,需慢慢思考。 希望以上信息对您在公司利用 AI 工具做小红书和公众号内容有所帮助。
2025-02-08
我在一周前的文章[1]里说对 DeepSeek-R1 只需要说大白话,但在三天前的文章[2]里又用了看起来还挺复杂的结构化提示词。有伙伴问我到底咋回事。这就来解释下喽。
以下是关于 DeepSeekR1 提示词的相关信息: 历史更新: 字节跳动推出新技术 OmniHuman,利用单张图片和音频生成生动视频。 DeepSeek 的出现标志着算力效率拐点显现,其优化算法架构提升算力利用效率,AI 基础大模型参数量迎来拐点,2025 年是算法变革元年,其训练过程聚焦强化学习提升推理能力。 提示词方法论: 核心原理认知:包括多模态理解、动态上下文、任务适应性等 AI 特性定位,以及采用意图识别+内容生成双通道处理等系统响应机制。 基础指令框架:包括四要素模板、格式控制语法等。 进阶控制技巧:如思维链引导、知识库调用、多模态输出。 高级调试策略:包括模糊指令优化、迭代优化法。 行业应用案例:涵盖技术开发场景、商业分析场景。 异常处理方案:如处理信息幻觉、格式偏离、深度不足等情况。 效能监测指标:包括首次响应准确率、多轮对话效率、复杂任务分解等。 在 R1 时代,使用 AI 提示词关键在于提供足够背景信息,简单大白话有效但信息量不足难达理想结果,示例和框架可助理清思路,最终影响在于思考和表达,利用乔哈里视窗分析信息需求,避免过度指令化,让 AI 自由思考以激发更高创意和效果。
2025-02-07
让图片动起来
以下是关于让图片动起来的相关内容: 关于生成式 AI 的内容承载,短期内可能因新鲜感获流量红利,但人们最终在意的仍是高质量内容。我们掌握了各种先进工具,如让老照片动起来等,但关键是如何更好地结合两张照片。 实现让图片中人物动起来及两张照片更好结合的方法: 方法一:利用 MJ 画图得到想要的底图,使用 InsightFaceSwap 插件处理脸部(因对多人脸部同时处理效果不好,需先分割裁剪图片分别处理再缝合),最后用可灵或其他软件让图片动起来。 方法二:在网上寻找能直接融合两张照片的软件或项目,若没有则纯 P 图,然后用图生视频的项目完成。 使用 Camera Motion 让图片动起来的步骤: 上传图片:点击“AddImage”。 输入提示词:在“Prompt”中输入。 设置运镜方向:选择想要的方向,输入运镜值。 设置运动幅度:与画面主体运动幅度有关,可任意设置。 其它:选择好种子、是否高清、是否去除水印。 生成视频:点击“create”。
2025-01-12
你能让图片动起来么?
要让图片动起来,可以通过以下几种方法: 1. 方法一: 利用 MJ 画图绘制想要的底图。 使用 InsightFaceSwap 插件进行换脸或让脸部更像,但因该插件对多人脸部同时处理效果不佳,需先对图片进行分割裁剪,分别处理后再缝合。 最后使用可灵或其他软件让图片动起来。 2. 方法二: 在网上寻找能够融合两张照片的软件或项目,直接对图片进行融合。若没有,则进行纯 P 图处理,然后利用图生视频的项目完成。 此外,还有一些相关的工具和技巧: 工具“清影”:输入一张图片和相应提示词,清影大模型会将图片转变为视频画面。也可以只输入图片,让模型自行发挥想象力生成有故事的视频。 技巧 1:选用清晰的图片,上传图片比例最好为 3:2(横版),支持上传 png 和 jpeg 图像。若原图不够清晰,可使用分辨率提升工具。 技巧 2:提示词要简单清晰。可以选择不写 prompt,让模型自行操控图片动起来;或者明确想动起来的主体,并以“主体+主题运动+背景+背景运动”的方式撰写提示词。 工具“Camera Motion”: 上传图片:点击“AddImage”。 输入提示词:在“Prompt”中输入。 设置运镜方向:选择想要的运镜方向。 设置运动幅度:与画面主体运动幅度有关,与运镜大小无关,可设置任意值。 其他:选择好种子(seed)、是否高清(HD Quality)、是否去除水印(Remove Watermark)。 生成视频:点击“create”。
2025-01-08