直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

多Agent之间的调用教程

回答

以下是关于多 Agent 之间调用的教程:

《执笔者》中的多 Agent 模式操作步骤

  1. 多 agent 模式切换:在 bot 编排页面点选多 agent 模式,页面将自动切换为多 agent 调试状态,相比单 agent,多了中间的 agent 连接区。
  2. 添加合适节点:有两种方式选择节点,即使用已发布的 bot 或创建新的 agent,按需选取,添加的 agent 直接连接在默认的总管 agent(“执笔者”)后面,无结束节点。
  3. 添加合适的 prompt:在多 agent 模式下,为每个 agent 填写合适的 prompt,外围的人设填写该 bot 的主要功能,内部的 bot 填写各个 bot/agent 的应用场景。
  4. 调试与美化:经过以上三步,一个多 agent 的 bot 基本搭建完成,之后是漫长的调试过程,若输出与设想有差异,可不断调整外围和内部 bot 的提示词,提升命中率,优化交互。

沉浸式单机剧本杀 Bot 中的多 Agent 协作: 单机剧本杀 Bot 由多个 agent 共同协作完成,主要包括:

  1. 主持人 Agent:通过对话引导玩家,通过提示和发放道具帮助玩家推进情节,像全知全能的主持人帮助玩家在游戏过程中前进。
  2. 条件判断 Agent:负责解析玩家输入,判断是否达到触发下一情节的条件,若条件符合,把相应情节传递给主持人 Agent 继续讲解。
  3. 情节向量化处理与索引构建:对剧本内容进行向量化处理,自动分段并构建索引,使主持人和判断 Agent 能迅速、准确地检索所需内容,让剧情展开更流畅。

关于 Multi-Agent 的介绍: 随着大型语言模型(LLM)的出现,以 LLM 为核心构建的 Agent 系统近期受到广泛关注。Agent 系统旨在利用 LLM 的归纳推理能力,为不同的 Agent 分配角色和任务信息,并配备相应的工具插件,以完成复杂的任务。 目前常见框架主要集中在单 Agent 场景下,其核心在于 LLM 与工具的协同配合,LLM 根据用户任务的理解,推理出需要调用的工具,并根据调用结果向用户提供反馈,在任务完成过程中,Agent 可能需要与用户进行多轮交互。 同时,越来越多的 Agent 框架开始关注多 Agent 场景,为完成任务,为不同的 Agent 指定不同角色,并通过 Agent 之间的协作来完成复杂任务,与单 Agent 相比,在任务完成过程中,与用户的交互可能会减少一些。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

《执笔者》:基于多Agent模式的全能写手

1.多agent模式切换在bot编排页面点选多agent模式,页面将会自动切换为多agent调式状态,相比单agent,主要是多了中间一块的agent连接区。切换多agent后的默认页面1.添加合适节点节点这里有两种方式可以选择,用已发布的bot,或者创建一个新的agent,大家按需选取。添加的agent直接连接在默认的总管agent(“执笔者”)后面即可,无结束节点。1.添加合适的prompt在多agent模式下,我们需要为每个agent填写合适的prompt。外围的人设填写该bot的主要功能,内部的bot填写各个bot/agent的应用场景。1.调试与美化经过以上简单三步,一个多agent的bot就基本搭建完成,接下来就是漫长的调试过程,如果输出与自己设想有差异,可以不断调整外围和内部bot的提示词,提升命中率,优化交互。

沉浸式单机剧本杀Bot

我们的单机剧本杀Bot由多个agent共同协作完成,其中主要包括:1.主持人Agent:这个Agent主要通过对话引导玩家,通过提示和发放道具帮助玩家推进情节。它就像一个全知全能的主持人,帮助玩家在游戏过程中不断前进。2.条件判断Agent:负责解析玩家输入,判断是否达到了触发下一情节的条件。如果条件符合,它会把相应的情节传递给主持人Agent继续讲解。3.情节向量化处理与索引构建:通过对剧本内容进行向量化处理,我们将其自动分段,并构建索引。这样主持人和判断Agent可以迅速、准确地检索所需内容,使得剧情展开更加流畅。

问:Multi-Agent是什么

随着大型语言模型(LLM)的出现,以LLM为核心构建的Agent系统近期受到了广泛关注。Agent系统旨在利用LLM的归纳推理能力,为不同的Agent分配角色和任务信息,并配备相应的工具插件,以完成复杂的任务。目前,更常见的框架主要集中在单Agent场景下。单Agent的核心在于LLM与工具的协同配合。LLM根据用户任务的理解,推理出需要调用的工具,并根据调用结果向用户提供反馈。在任务完成过程中,Agent可能需要与用户进行多轮交互。与此同时,越来越多的Agent框架开始关注多Agent场景。为了完成任务,多Agent会为不同的Agent指定不同的角色,并通过Agent之间的协作来完成复杂的任务。与单Agent相比,在任务完成过程中,与用户的交互可能会减少一些。

其他人在问
有为AI电商准备的Prompt或者Agent吗
以下是为您整理的关于 AI 电商的 Prompt 或 Agent 的相关信息: 在 Prompt 精选网站中新增了网站,介绍了大语言模型相关的论文研究、学习指南、模型、讲座、参考资料、大语言模型能力以及与其他与提示工程相关的工具。 在 toB 领域,智能客服产品通常借助 agent 来实现,接入企业的 QA 知识库,对用户的信息予以回应,并依据用户的回答下达诸如取消订单、催快递之类的 action 指令。 新增了《》,作者为了让更多人理解 Agents 的可能性,分享了十篇具有较高可读性的关于 AIAgents 论文。 在之前的讨论中提到,AI Agent 的“大脑模块”激活关键之一是 Prompt,但单纯通过 Prompt 构建大脑模块(Prompttuning)一般适合“无趣的灵魂”,拟人化不那么重的情况,而对于“有趣的灵魂”,最直接的解决方式是通过微调一个定向模型(Finetuning),一般创建方式是 Prompttuning + Finetuning 相结合。
2024-10-17
创建自己的ai agent
创建自己的 AI Agent 可以参考以下内容: AI Agent 是拥有各项能力来帮我们做特定事情的“打工人”。目前有不少大厂推出相关平台,如字节的扣子、阿里的魔搭社区等。AI 智能体包含自己的知识库、工作流、还能调用外部工具,结合大模型的自然语言理解能力可完成复杂工作。 扣子(Coze)是字节跳动旗下的新一代一站式 AI Bot 开发平台,无论是否有编程基础,都能在该平台上迅速构建基于 AI 模型的各类问答 Bot,并可发布到社交平台和通讯软件上。通过简单 3 步创建智能体:首先起一个智能体的名称,然后写一段智能体的简单介绍,最后使用 AI 创建一个头像。 对于国内版扣子,暂时只支持使用“云雀大模型”作为对话引擎,携带上下文轮数默认为 3 轮,可根据业务需求在 0 到 30 之间修改。在 Bot 编排页面的“技能”区域可为 Bot 配置所需技能,不懂插件可选择“优化”按钮让 AI Bot 自动选择,也可自定义添加。还可根据需求配置知识库、数据库、工作流等操作,测试 Bot 可在“预览与调试”区域进行。
2024-10-16
什么ai agent
AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 AI Agent 包括以下几个概念: 1. Chain:通常一个 AI Agent 可能由多个 Chain 组成。一个 Chain 视作一个步骤,可以接受一些输入变量,产生一些输出变量。大部分的 Chain 是大语言模型完成的 LLM Chain。 2. Router:可以使用一些判定(甚至可以用 LLM 来判定),然后让 Agent 走向不同的 Chain。例如:如果这是一个图片,则 a;否则 b。 3. Tool:Agent 上可以进行的一次工具调用。例如,对互联网的一次搜索,对数据库的一次检索。 总结下来需要三个 Agent: 1. Responser Agent:主 agent,用于回复用户(伪多模态)。 2. Background Agent:背景 agent,用于推进角色当前状态(例如进入下一个剧本,抽检生成增长的记忆体)。 3. Daily Agent:每日 agent,用于生成剧本,配套的图片,以及每日朋友圈。 这三个 Agent 每隔一段时间运行一次(默认 3 分钟),运行时会分析期间的历史对话,变更人物关系(亲密度,了解度等),变更反感度,如果超标则拉黑用户,抽简对话内容,提取人物和用户的信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。 AI Agent 也就是 AI 智能体,简单来说就是拥有各项能力的打工人来帮我们做特定的事情。目前有不少大厂推出自己的 AI 智能体平台,像字节的扣子,阿里的魔搭社区等等。体验过 GPT 或者文心一言大模型的小伙伴应该都知道,现在基本可以用自然语言来编程了,相当于降低了编程的门槛。另外之前在使用 GPT 或者文心一言大模型的时候会出现胡编乱造的情况以及时效性、无法满足个性化需求等问题,而 AI 智能体的出现正是解决这些问题的绝佳方式,AI 智能体包含了自己的知识库、工作流、还可以调用外部工具,再结合大模型的自然语言理解能力,就可以完成比较复杂的工作。所以 AI 智能体的出现就是结合自己的业务场景,针对自己的需求,捏出自己的 AI 智能体来解决自己的事情。 例如,扣子(Coze)是字节跳动旗下的新一代一站式 AI Bot 开发平台,无论用户是否具备编程基础,都能在该平台上迅速构建基于 AI 模型的各类问答 Bot。这些 Bot 的功能涵盖了从解决简单问答到处理复杂逻辑对话的广泛范围。当开发完成后,还可以将自己构建的 Bot 发布到各种社交平台和通讯软件上,让更广泛的用户群体能够与这些 Bot 进行交互聊天。 创建智能体可以通过简单 3 步:首先起一个智能体的名称,然后写一段智能体的简单介绍,最后使用 AI 创建一个头像即可。
2024-10-16
如何创建一个AI agent
创建一个 AI agent 可以参考以下内容: AI agent 即 AI 智能体,是拥有各项能力来帮我们做特定事情的“打工人”。目前有不少大厂推出了自己的 AI 智能体平台,如字节的扣子、阿里的魔搭社区等。 以字节的扣子为例,其官网为。在扣子平台上,无论用户是否具备编程基础,都能迅速构建基于 AI 模型的各类问答 Bot,并可将其发布到各种社交平台和通讯软件上进行交互聊天。 创建智能体通常可以通过简单 3 步:首先起一个智能体的名称,然后写一段智能体的简单介绍,最后使用 AI 创建一个头像。 制作 AI Agent 一般有两种方式:单纯通过 Prompt 来构建大脑模块(Prompttuning),适合“无趣的灵魂”,即拟人化不是那么重的情况;针对“有趣的灵魂”,最直接的解决方式是通过微调一个定向模型,一般创建方式是 Prompttuning + Finetuning 相结合。
2024-10-15
我想要自己搭建一个自己的agent,应该怎么做
要搭建自己的 agent ,您可以参考以下步骤: 1. 熟悉工具: 了解通常 Agent 框架中自带的工具,比如大聪明的插件:webcopilot 。 关注 Coze.cn 插件列表,可采用罗文提供的提示词获取插件说明: 。 了解互联网 API ,如 Jina (https://jina.ai/)、高德 API ()等。 熟悉本机软件。 2. 从案例入门: 三分钟捏 Bot : Step 1 :(10 秒)登录控制台,使用手机号或抖音注册/登录扣子控制台(coze.cn)。 Step 2 :(20 秒)在我的空间创建 Agent ,在扣子主页左上角点击“创建 Bot ”,选择空间名称为“个人空间”、Bot 名称为“第一个 Bot ”,并点击“确认”完成配置。如需使用其他空间,请先创建后再选择;Bot 名称可以自定义。 Step 3 :(30 秒)编写 Prompt ,填写 Prompt ,即自己想要创建的 Bot 功能说明。第一次可以使用一个简短的词语作为 Prompt 提示词。 Step 4 :(30 秒)优化 Prompt ,点击“优化”,使用来帮忙优化。 Step 5 :(30 秒)设置开场白。 Step 6 :(30 秒)其他环节。 Step 7 :(30 秒)发布到多平台&使用。 进阶之路: 15 分钟:查看下其他 Bot ,获取灵感。 1 小时:找到和自己兴趣、工作方向等可以结合的 Bot ,深入沟通,阅读相关文章。 一周:了解基础组件,寻找不错的扣子,借鉴&复制,加入 Agent 共学小组,尝试在群里问第一个问题。 一个月:合理安排时间,参与 WaytoAGI Agent 共学计划,自己创建 Agent ,并分享自己捏 Bot 的经历和心得。 3. 了解智能体相关知识: 智能体大多建立在大模型之上,从基于符号推理的专家系统逐步演进而来。 基于大模型的智能体具有强大的学习能力、灵活性和泛化能力。 智能体的核心在于有效控制和利用大型模型,提示词的设计直接影响智能体的表现和输出结果。 4. 动手实践: 基于公开的大模型应用产品(如 Chat GLM 、Chat GPT 、Kimi 等),尝试开发属于自己的智能体。 比如,在相关平台上: Step.1 点击“浏览 GPTs ”按钮。 Step.2 点击“Create ”按钮创建自己的智能体。 Step.3 使用自然语言对话进行具体设置或手工设置。 Step.4 开始调试您的智能体并发布。
2024-10-15
什么是AI agent
AI Agent 是基于大型语言模型(LLM)和其他技术实现的智能实体,其核心功能在于自主理解、规划决策、执行复杂任务。 AI Agent 包括以下几个概念: 1. Chain:通常一个 AI Agent 可能由多个 Chain 组成。一个 Chain 视作一个步骤,可以接受一些输入变量,产生一些输出变量。大部分的 Chain 是大语言模型完成的 LLM Chain。 2. Router:可以使用一些判定(甚至可以用 LLM 来判定),然后让 Agent 走向不同的 Chain。例如:如果这是一个图片,则 a;否则 b。 3. Tool:Agent 上可以进行的一次工具调用。例如,对互联网的一次搜索,对数据库的一次检索。 总结下来需要三个 Agent: 1. Responser Agent:主 agent,用于回复用户(伪多模态)。 2. Background Agent:背景 agent,用于推进角色当前状态(例如进入下一个剧本,抽检生成增长的记忆体)。 3. Daily Agent:每日 agent,用于生成剧本,配套的图片,以及每日朋友圈。 这三个 Agent 每隔一段时间运行一次(默认 3 分钟),运行时会分析期间的历史对话,变更人物关系(亲密度,了解度等),变更反感度,如果超标则拉黑用户,抽简对话内容,提取人物和用户的信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。 另外,AI Agent 也就是 AI 智能体,简单来说就是拥有各项能力的打工人来帮我们做特定的事情。目前有不少大厂推出自己的 AI 智能体平台,像字节的扣子,阿里的魔搭社区等等。体验过 GPT 或者文心一言大模型的小伙伴应该都知道,现在基本可以用自然语言来编程了,相当于降低了编程的门槛。之前在使用 GPT 或者文心一言大模型的时候会出现胡编乱造的情况以及时效性、无法满足个性化需求等问题,而 AI 智能体的出现正是解决这些问题的绝佳方式,AI 智能体包含了自己的知识库、工作流、还可以调用外部工具,再结合大模型的自然语言理解能力,就可以完成比较复杂的工作。所以 AI 智能体的出现就是结合自己的业务场景,针对自己的需求,捏出自己的 AI 智能体来解决自己的事情。 例如,字节的扣子(Coze),作为字节跳动旗下的新一代一站式 AI Bot 开发平台,无论用户是否具备编程基础,都能在该平台上迅速构建基于 AI 模型的各类问答 Bot。这些 Bot 的功能涵盖了从解决简单问答到处理复杂逻辑对话的广泛范围。当开发完成后,还可以将自己构建的 Bot 发布到各种社交平台和通讯软件上,让更广泛的用户群体能够与这些 Bot 进行交互聊天。创建智能体可以通过简单 3 步,首先起一个智能体的名称,然后写一段智能体的简单介绍,最后使用 AI 创建一个头像即可。
2024-10-13
controlnet教程
以下是关于 ControlNet 的教程: ControlNet 是 Stable Diffusion 中的一个功能,能够让用户更精确地控制出图结果。比如可以控制人物的动作、建筑物的线条等。 在使用时,大模型和关键词正常填写生成所需照片。然后鼠标滑到最下面点击“ControlNet”: 1. 点击空白处上传指定姿势的照片。 2. 点击“启用”。 3. 在“预处理器”和“模型”里选择“openpose”,这用于让计算机识别人物姿势。 接着点击“预览预处理结果”,原照片右边会出现人物姿势的线条,最后点击生成照片即可得到指定姿势的图片。 另外,如果是用秋叶大佬的整合包,会自带 ControlNet 插件。若没有,可去扩展中搜索安装。 其使用逻辑是通过预处理器将图片提取特征并转换为 AI 可识别的形式,再通过模型进行图像生成。例如绘制女孩打篮球模仿库里动作的图片,输入相关关键词,选择大模型,在 ControlNet 中导入库里照片,选择合适的预处理器和模型,调试参数后生成。 在 ControlNet 中还可以尝试不同的预处理器,如 softedge_pidinet、depth、canny、tile 等,可能会得到不错的效果。同时要注意电脑配置,避免出现显存不足等问题。
2024-10-18
suno教程
以下是关于 Suno 的教程信息: Suno 是一家研究驱动型的人工智能公司,其专门研发的生成式 AI 模型为创意工作者提供强大的创作工具。公司推出的 Chirp 模型,通过文字描述就能实现逼真的音乐和声音效果,包括配乐、人声、音效等,可广泛用于游戏、短视频、播客等领域。 目前,Chirp V2 版本模型的最大生成时长为 1 分 20 秒,延续的最大生成时长为 60 秒。 去年制作过一期 Discord 版本的 Suno 操作教程。 在自定义模式(Custom Mode)下,有两个主要的输入窗口:音乐风格(Style of Music)与歌词(Lyrics)。音乐风格(Style of Music)需要填写一些 tag 来描述整首音乐的风格和感觉,多个 tag 之间用“,”进行分隔。根据 Suno 的官方文档和测试,可以识别的 tag 包括音乐类型/流派、人声/乐器、情绪/氛围、节奏、场景、混响、其他和声/音效等。 音乐生成使用 Suno 时,和大语言模型一样具有很强的随机性,并且输入(prompt/tag)质量往往决定了输出(生成音乐)质量,想要避免无谓的抽卡,让生成结果无限地靠近自己的想法,就需要使用一些提示词技巧。 您可以通过以下链接获取更多相关内容: PS:使用以下内容需要科学上网,请自行解决。此外,还建立了一个微信群【通往 AI 音乐之路】,可以填写问卷:https://waytoagi.feishu.cn/share/base/form/shrcnuLtIpBNzE5bcQtZbS8UEjh 或添加 AJ(微信号 AAAAAAAJ)备注您的音乐成就,拉您进群。右侧可以扫码关注公众号“智音 Brook”,方便更充分的探讨交流。
2024-10-16
comfyui 教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户。网址:https://www.comfyuidoc.com/zh/ 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容。网址:https://www.uisdc.com/comfyui3 3. 知乎:有用户分享了部署教程和使用说明,适合有一定基础并希望进一步了解的用户。网址:https://zhuanlan.zhihu.com/p/662041596 4. Bilibili:提供了从新手入门到精通各个阶段的系列视频教程。网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 的基础界面和操作方面: 1. 熟悉 ComfyUI 的基本界面和操作。 2. Comfyui 工作区介绍。 3. 基础节点介绍。 4. KSampler: seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 cfg:一般设置为 6 8 之间较好。 sampler_name:可设置采样器算法。 scheduler:控制每个步骤中去噪的过程,可选择不同调度算法。 denoise:表示要增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2024-10-15
话说你知不知道有没有靠谱的promot engineer教程适合小学生和中学学习的?
以下是一些适合小学生和中学生学习的 prompt engineer 教程: 1. 李继刚的结构化 prompt 方法论:最早接触 Prompt engineering 时的常见技巧有所提升,可通过原文链接查看。其学到的第一个 Prompt engineering 技巧是结构化 Prompt。 2. 小七姐的 Prompt 喂饭级系列教程小白学习指南(二):可以结合自己的生活或工作场景想一个能简单自动化的场景,比如自动给班级孩子起昵称等。选一个好上手的提示词框架,如情境。 3. 吴恩达讲 Prompt:谷歌/百度 AI 部门负责人吴恩达和 OpenAI 合作推出了免费的 Prompt Engineering 课程。原版网址: 。
2024-10-15
comfyui使用教程
以下是 ComfyUI 的使用教程: 1. 学习资料获取: ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验用户,网址:https://www.comfyuidoc.com/zh/ 。 优设网:有详细的入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,网址:https://www.uisdc.com/comfyui3 。 知乎:有用户分享部署教程和使用说明,适合有一定基础并希望进一步了解的用户,网址:https://zhuanlan.zhihu.com/p/662041596 。 Bilibili:提供了从新手入门到精通的系列视频教程,网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。 2. 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够空间,最低 100G 起步(包括模型)。 注:mac 系统、AMD 显卡、低显卡的情况也可安装使用,但功能不全,出错率偏高,建议升级设备或采用云服务器。 下载并更新 Nvidia 显卡驱动,下载地址:https://www.nvidia.cn/ geforce/drivers/ 。 下载并安装所需环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装时选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 3. 直接在 Comfy UI 中训练 LoRA 模型: 按 Enter 键安装所有所需依赖项,使其与 ComfyUI 兼容。若使用虚拟环境,需先激活。 注意事项: 图像必须放在以“”命名的文件夹中,数字应较小,如 5,且下划线必须有,其余部分不重要。 对于 data_path,必须写入包含数据库文件夹的文件夹路径。 参数: 第一行可从 checkpoint 文件夹中选择任何模型,但据说进行 LoRA 训练需选择一个基本模型。 选择一个名字为您的 LoRA,可更改默认值(epochs 数应接近 40),然后启动工作流程。 点击 Queue Prompt 后,所有事情会在命令提示符中发生,可查看训练进度。
2024-10-13
AI艺术照视频教程
以下为您提供一些 AI 艺术照相关的视频教程: 「AI 绘画」软件比较与 stable diffusion 的优势: 「AI 绘画」零基础学会 Stable Diffusion: 「AI 绘画」革命性技术突破: 「AI 绘画」从零开始的 AI 绘画入门教程——魔法导论: 「入门 1」5 分钟搞定 Stable Diffusion 环境配置,消灭奇怪的报错: 「入门 2」stable diffusion 安装教程,有手就会不折腾: 「入门 3」你的电脑是否跑得动 stable diffusion?: 「入门 4」stable diffusion 插件如何下载和安装?: SD 新手从 0 入门 AI 绘画教程: 神级教程: 第一节课:AI 绘画原理与基础界面 第二节课:20 分钟搞懂 Prompt 与参数设置,你的 AI 绘画“咒语”学明白了吗? 第三节课:打破次元壁!用 AI“重绘”照片和 CG 第四节课:AI 绘画模型,“画风”自由切换 第五节课:提高 AI 绘画分辨率的方式 第六节课:LoRa | Hypernetwork 概念简析 第七节课:定向修手修脸,手把手教你玩转局部重绘! 第八节课:提示词补全翻译反推,“终极”放大脚本与细节优化插件 第九节课:LoRA 从原理到实践 第十节课:零基础掌握 ControlNet! 教程:SD 做中文文字 持续更新中 制作思路: 【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ 1.将中文字做成白底黑字,存成图片样式 2.使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置 3.输入关键词,如奶油的英文单词,Cream + Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 4.同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering 5.如果希望有景深效果,也可以打开 depth(增加阴影和质感) 6.打开高清修复,分辨率联系 1024 以上,步数:29 60
2024-10-13
openai的接口怎么调用,提示词怎么写
以下是关于 OpenAI 接口调用和提示词编写的相关知识: OpenAI 接口调用: OpenAI API 可应用于众多涉及生成自然语言、代码或图像的任务。提供了不同能力级别的模型,适用于不同任务,还能微调自定义模型。这些模型可用于内容生成、语义搜索、分类等众多领域。 提示词编写: 1. 设计提示词本质上是对模型进行“编程”,通常通过提供指令或示例完成,与多数专为单个任务设计的 NLP 服务不同,补全和聊天补全几乎可用于任何任务,如内容或代码生成、摘要、扩展、对话、创意写作、风格转换等。 2. 遵循最简化原则: 不需要包含作者信息,如“author”“version”等不相关信息。 避免分类错误,将输出错误分类到目标中,如“提供改进建议,以及改进原因”和“对用户的 Prompt 进行评分 1~10 分,10 分为满分”应明确区分。 注意拼写正确,如“Constraints”的正确拼写。 常见的限制条件包括内容长度限制、内容类型限制、逻辑和一致性限制、风格和语调限制。 避免无意义或重复的描述,如“理解中文语义”“评估和打分文本质量”“提供文本改进建议”等。 注意 Markdown 格式的正确使用,如“ Profile: Goals:”的结构错误,应将 Goals 放到“ Role”层级下面。 在给定的 API 请求中处理的 Token 数量取决于输入和输出长度。对于英文文本,1 个 Token 大约相当于 4 个字符或 0.75 个单词。您的文本提示词和生成的补合起来不能超过模型的最大上下文长度(对于大多数模型,这是 2048 个 Token,或大约 1500 个单词)。可以查看 OpenAI 的分词器工具来了解有关文本如何转换为 Token 的更多信息。
2024-10-17
在外层bot,能100%调用工作流的方法
在外层 bot 中封装工作流的步骤如下: 1. 点击「发布」发布工作流后,创建一个 bot。 2. 填写 Bot 介绍。 3. 切换 Bot 模式为“单 Agent(工作流模式)”,因为此 Agent 只需在输入英文文章时返回精读结果,无需外层 bot 对输入进行其他任务理解,可直接调用工作流。 4. 将配置好的工作流添加到 Bot 中。 5. 填写开场白,引导用户使用,并附上开场白文案。 6. 关闭开场白预置问题,因为使用流程中用不到。 完成封装后,可在「预览与调试」区进行最终体验与调试。如果一切正常,就能获得成功结果。但在发布文章时,外层 bot 可能存在未知 bug,同一段 USER_INPUT 在工作流编辑面板中试运行正常,但在外层 bot 运行时可能报错。暂时无法确定原因,猜测可能是外层 bot 的并发不够稳定,此时可直接在工作流编辑面板中获取精度结果。若自行实验时多次报错且无法定位原因,不要急于怪自己,作者已将相关 bug 提交给 Coze 团队,期待优化。 另外,您还可以为 Bot 设置触发器(Triggers),使 Bot 在特定时间或接收到特定事件时自动执行任务。可配置的触发器类型有定时触发、事件触发。定时触发让 Bot 在指定时间执行任务,无需编写代码;事件触发的触发器会生成 Webhook URL,当服务端向其发送 HTTPS 请求时触发任务执行。 触发器触发时的执行任务方式有 Bot 提示词、调用插件、调用工作流。Bot 提示词需通过自然语言设置提示词,触发时提示词自动发送给 Bot,Bot 根据提示词向用户发送提醒消息;调用插件需为触发器添加一个插件,触发时 Bot 调用插件获取返回结果并发送给用户;调用工作流需为触发器添加一个工作流,若工作流有输入参数则需传入参数值,触发时 Bot 调用工作流获取返回结果并发送给用户。 此外,Coze 支持用户在与 Bot 聊天时设置定时任务,当用户在会话内点击推荐任务后,Bot 将会确认并创建定时任务。需要注意的是,一个 Bot 内的触发器最多可添加 10 个,且触发器仅当 Bot 发布飞书时生效。
2024-10-10
现在的大模型应用都没有记忆能力需要在每次调用时输入上下文?
目前的大模型应用本质上通常没有直接的记忆功能。以 ChatGPT 为例,它能理解用户的交流内容并非因为自身具备记忆能力,而是每次将之前的对话内容作为新的输入重新处理。这种记忆功能实际上是通过在别处进行存储来实现的。 对于大模型的工作原理,在回复时是一个字一个字地推理生成内容,会根据输入的上下文来推测下一个字。但大模型的学习数据规模庞大,若每次计算都带入全量数据,算力难以承受,且仅算字的概率容易受不相干信息干扰,词向量机制和 transformer 模型中的 attention 自注意力机制解决了这些难题。 另外,系统的内存是大模型的上下文窗口,如 Google Gemini 1.5 Pro 实验版已将其提升到一千万。但窗口越大推理越慢,且模型可能失焦降低准确度,研发团队需平衡吞吐量、速度和准确度。在模型外,操作系统的其他部件如文件系统能让模型具备无限记忆的能力,而大模型应用领域常用的方法如 RAG 能让模型用自定义数据生成结果,处理无尽的私有数据。
2024-10-08
如何在coze中调用bot商店中未公开配置的bot?
在 Coze 中调用 bot 商店中未公开配置的 bot,您可以参考以下步骤: 1. 访问。 2. 在页面的搜索框中,输入您想要的 bot 名称,然后单击展示的相应 bot。 3. 您会被引导至该 bot 的编排页面,编排页面分为以下 4 个区域: 顶部区域:显示 bot 所用的大型语言模型。 人设与回复逻辑区域:设置 bot 的人物设定与回复逻辑。 技能区域:展示 bot 配置的功能,例如插件、工作流、开场白等。 预览与调试区域:展示与 bot 交互的运行结果。 4. 在预览与调试区域中发送一条消息,查看 bot 的回复效果。 此外,如果您想复制一个预置的 bot 在此基础上进行修改来创建自己的 bot,可以按照以下步骤操作: 1. 访问,单击目标 bot。 2. 在 bot 的编排页面右上角,单击创建副本。 3. 在弹出的对话框中,设置 bot 名称、选择 bot 的所属团队,然后单击确定。 4. 您可以在新打开的配置页面修改复制的 bot 配置。 在人设与回复逻辑区域,调整 bot 的角色特征和技能。您可以单击优化使用 AI 帮您优化 bot 的提示词,以便大模型更好的理解。 在技能区域,为 bot 配置插件、工作流、知识库等信息。 5. 在预览与调试区域,给 bot 发送消息,测试 bot 效果。 6. 当您完成调试后,可单击发布将 bot 发布到社交应用中,在应用中使用 bot。 另外,关于 API 授权,然后再点击右上角发布,这里会发现多了一个 Bot as API,意思就是自己定义的 API 发布取到了。勾选 Bot as API 并确定应用已经成功授权 Bot as API 。创建了一个机器人、这个机器人是画小二的(令牌),画小二下面有很多个应用,您想调用的是“画小二智能小助手(Bot ID)”。
2024-09-26
这个对话,是怎么调用WaytoAGI知识库的?
在 WaytoAGI.com 网站,新增了智能对话功能,您可以在首页输入 AI 相关问题,系统会迅速提供答案要点和参考文章。在导航目录下,还能看到别人在问的 AI 问题。该功能的上线离不开飞书 Aily 团队的支持。
2024-09-19
如何在coze的bot中调用工作流?
在 Coze 的 bot 中调用工作流的方式如下: 采用 32K 的 kimi 模型,只有一条工作流。该工具有 5 个按钮:A、B、C、重新开始、结束并总结。按 A/B/C 时,会直接输入对应的字母文字。按结束并总结时,输入的依旧只是文字:“结束并立即总结医学知识点”。点击“重新开始”时,会直接调用一个工作流“emergency”,且这个工作流有两个必选参数:“疾病设置”和“难度设置”。在实际体验过程中,仅在提供“疾病设置”和“难度设置”时,工作流被调用,其他时候没有触发任何工具和工作流。 在外层 bot 中封装工作流的步骤为:点击「发布」发布工作流后,创建一个 bot 进行最终的工作流封装。具体过程包括:创建 Bot;填写 Bot 介绍;切换 Bot 模式为“单 Agent(工作流模式)”,因为此 Agent 只需在每次输入英文文章时返回精读结果,所以不需要用外层 bot 对输入进行其他任务理解,可直接调用工作流;把配置好的工作流添加到 Bot 中;填写开场白,引导用户使用,并关闭开场白预置问题,因为使用流程里用不到。
2024-09-15
文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些AI工具之间有什么不同,各自擅长哪些领域
以下是文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些 AI 工具的不同之处及各自擅长的领域: Kimi 智能助手:由 Moonshot AI 出品,有着超大“内存”,可以一口气读完二十万字的小说,还会上网冲浪。 文心一言:百度出品的 AI 对话产品,定位为智能伙伴,能写文案、想点子,陪聊天、答疑解惑,与搜索有较好的结合。 通义千问:由阿里云开发的聊天机器人,能够与人交互、回答问题及协作创作,与钉钉有结合应用。 腾讯混元:相对较为低调,公司文化特点及目前尚未有明确亮点可能是其受到关注较少的原因。 讯飞星火:暂未提及具体特点和擅长领域。 抖音豆包:字节旗下产品,字节在 AI 领域有较大投入和决心,如推出多种相关产品和应用。 智普清言:暂未提及具体特点和擅长领域。 需要注意的是,这些 AI 工具的性能和擅长领域可能会随着不断的更新和优化而发生变化。
2024-08-18
不同大模型之间会相互串联吗?
目前不同大模型之间一般不会直接相互串联。 大模型的发展仍在不断演进中。在语言模型方面,Token 被视为模型处理和生成的文本单位,输入文本会被分词数字化形成词汇表,为便于计算机处理,还会将 Token 表示成稠密矩阵向量,即 embedding,常见算法包括基于统计、深度网络和神经网络的多种方式。以 Transformer 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 多模态大模型方面,虽然取得了重大进展,但面临着巨大的计算量问题。研究重点在于各模态的连接,合理利用现成的训练好的单模态基础模型,减少训练费用并提升效率。不同模态的模型通常是分开训练的,如何将它们连接起来实现协同推理是核心挑战,主要通过多模态预训练和多模态的指令微调来实现模态之间以及模型输出与人类意图的对齐。 在企业应用中,大模型还未发展到通用人工智能阶段,不能期望一个大模型解决所有问题。在企业内部,更可能是多个专注于不同专业的大模型通过协作和组合来工作。
2024-07-21
大语言模型,AI,AIGC和AGI他们之间是什么关系?
大语言模型、AI、AIGC 和 AGI 是人工智能领域中常用的几个概念,它们之间的关系如下: 1. AI(人工智能):是指能够执行人类智能任务的计算机程序,例如推理、学习、感知和行动。AI 是一个广泛的概念,包括机器学习、深度学习、自然语言处理、计算机视觉等多个领域。 2. AIGC(生成式人工智能):是指利用 AI 技术,特别是深度学习,来生成新的文本、图像、音频或视频等内容的过程。AIGC 是 AI 的一个子集,专注于生成式任务。 3. LLM(大型语言模型):是一种特殊类型的 AI 模型,专门用于处理自然语言处理(NLP)任务。LLM 是一种基于深度学习的模型,通过在大量文本数据上进行无监督学习,来学习语言的模式和结构。LLM 可以用于各种 NLP 任务,例如文本生成、机器翻译、问答系统等。 4. AGI(通用人工智能):是指能够执行人类智能任务的计算机程序,并且具有人类智能的一些关键特征,例如理解、学习、推理和行动。AGI 是 AI 的一个理想目标,目前还没有实现。 总的来说,AI 是一个广泛的概念,包括 AIGC 和 LLM 等子集。AIGC 是 AI 的一个子集,专注于生成式任务,而 LLM 是 AI 的一个子集,专注于 NLP 任务。AGI 是 AI 的一个理想目标,目前还没有实现。
2024-05-10