Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)

Answer

以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法:

  1. 样例驱动的渐进式引导法
    • 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。
    • 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。
    • 用例测试,看看 AI 是否真正理解:找 1-3 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。
  2. Coze 全方位入门剖析
    • 标准流程创建 AI Bot(进阶推荐)
      • 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。
      • 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
Content generated by AI large model, please carefully verify (powered by aily)

References

一泽 Eze:样例驱动的渐进式引导法——利用 AI 高效设计提示词 ,生成预期内容

单凭个人努力,想独自产出一个高质量的样例并非易事。就如我在构建上面的初始样例后,不确定它与优秀的知识卡片还有多大差距。幸运的是,我们可以借助擅长扮演专家角色的AI来改进初始的正向样例。我选择使用Claude 3.5进行对话(读者也可以尝试GPT-4等其他AI工具),输入以下的初始指令:以下是AI返回的内容:我们可以通过AI的回复,侧面印证AI当前对样例的理解与建议。[heading4]提炼初始模板[content]当确保AI基本理解了我们的样例与需求目标时,我们就进入下一步”提炼初始模板”:[heading4]多轮反馈,直至达到预期[content]不过AI可能仍然会犯错,输出要求外的内容,这是很正常的情况。所以需要发起多轮的对话引导,使得AI不断修正自己的理解,直至双方达成共识。[heading4]用例测试,看看AI是否真正理解[content]找1~3个用例,让AI根据模板,尝试生成对应的知识卡片:以下是AI的回复:在这一步,需要读者根据自身需要,根据结果验证AI是否能够按照预期生成目标内容。如果不能,则需要我们和AI继续探讨不符合预期的地方,并要求调整(比如:我想要能够生成3-5个关联知识;渐进式原理说明,我觉得需要更加的通俗易懂;请你根据我的反馈再调整一下)。注:用例测试和多轮反馈的步骤比较灵活,你可以根据需要,在这两个环节内自由进行反馈,调整AI的理解与输出。像图中金字塔原理的知识卡片生成结果,已经非常符合我的预期,所以就可以进行下一步指令。

一泽 Eze:样例驱动的渐进式引导法——利用 AI 高效设计提示词 ,生成预期内容

单凭个人努力,想独自产出一个高质量的样例并非易事。就如我在构建上面的初始样例后,不确定它与优秀的知识卡片还有多大差距。幸运的是,我们可以借助擅长扮演专家角色的AI来改进初始的正向样例。我选择使用Claude 3.5进行对话(读者也可以尝试GPT-4等其他AI工具),输入以下的初始指令:以下是AI返回的内容:我们可以通过AI的回复,侧面印证AI当前对样例的理解与建议。[heading4]提炼初始模板[content]当确保AI基本理解了我们的样例与需求目标时,我们就进入下一步”提炼初始模板”:[heading4]多轮反馈,直至达到预期[content]不过AI可能仍然会犯错,输出要求外的内容,这是很正常的情况。所以需要发起多轮的对话引导,使得AI不断修正自己的理解,直至双方达成共识。[heading4]用例测试,看看AI是否真正理解[content]找1~3个用例,让AI根据模板,尝试生成对应的知识卡片:以下是AI的回复:在这一步,需要读者根据自身需要,根据结果验证AI是否能够按照预期生成目标内容。如果不能,则需要我们和AI继续探讨不符合预期的地方,并要求调整(比如:我想要能够生成3-5个关联知识;渐进式原理说明,我觉得需要更加的通俗易懂;请你根据我的反馈再调整一下)。注:用例测试和多轮反馈的步骤比较灵活,你可以根据需要,在这两个环节内自由进行反馈,调整AI的理解与输出。像图中金字塔原理的知识卡片生成结果,已经非常符合我的预期,所以就可以进行下一步指令。

安仔:Coze 全方位入门剖析 - 免费打造自己的 AI Agent (国内版)

1.目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为3轮,可修改区间是0到30,具体多少轮主要需要根据你的业务需求来决定,如果业务需求比较复杂,可以适当增加轮数,如果业务需求比较简单则反之,对于不懂的可以直接使用默认值。1.在Bot编排页面的“技能”区域,为Bot配置所需的技能。当然在插件区域,如果你不懂插件的话,可以直接选择区域右上角的“优化”按钮,让AI Bot根据你的提示词自动为你选择插件。1.如果你想自定义添加自己所需的插件,你可以直接点击插件区域的“+”号选择加入具体插件。1.像我的Bot需要获取AI新闻,我就添加一个新闻搜索接口,点击功能对应的“+”图标,选择相应的插件(如“阅读新闻>头条新闻>getToutiaoNews”)并添加。1.在技能的其他区域,你可以根据你的需求来配置知识库、数据库、工作流等操作,可以直接参考上面的相关介绍和我下面的实战操作来加深理解,当然你也可以参考官方文档来学习:https://www.coze.cn/docs/guides/function_overview[heading4]3.4.测试Bot[content]1.在Bot编排页面的“预览与调试”区域,测试Bot是否按照预期工作。你可以清除对话记录以开始新的测试。1.确保Bot能够理解用户的输入并给出正确的回应。

Others are asking
推理类模型,以deepseek为代表,与此前的聊天型ai,比如chatgpt3.5,有什么差异
推理类模型如 DeepSeek 与聊天型 AI 如 ChatGPT3.5 存在以下差异: 1. 内部机制:对于大语言模型,输入的话会被表示为高维时间序列,模型根据输入求解并表示为回答。在大模型内部,是根据“最大化效用”或“最小化损失”计算,其回答具有逻辑性,像有自己的思考。 2. 多模态能力:ChatGPT3.5 是纯语言模型,新一代 GPT 将是多模态模型,能把感官数据与思维时间序列一起作为状态,并装载在人形机器人中,不仅能对话,还能根据看到、听到的事进行判断,甚至想象画面。 3. 超越人类的可能性:有人假设人按最大化“快乐函数”行动,只要“效用函数”足够复杂,AI 可完全定义人,甚至超越人类。如在“短期快乐”与“长期快乐”的取舍上,人类难以找到最优点,而 AI 可通过硬件算力和强化学习算法实现,像 AlphaGo 击败世界冠军,在复杂任务上超越人类。 4. 应用领域:文字类的总结、润色、创意是大语言模型 AI 的舒适区,如从 ChatGPT3.5 问世到 ChatGPT4 提升,再到 Claude 3.5 sonnet 在文学创作领域取得成绩,只要有足够信息输入和合理提示词引导,文案编写可水到渠成。
2025-03-18
ai作图网站复杂吗?
AI 作图网站的使用复杂程度因人而异。一些网站可能具有较为简单直观的界面和操作流程,而另一些可能相对复杂。 例如,ILLUMINARTY 网站通过对大量图片数据的抓取和分析来鉴别图片是否为 AI 生成,但在测试中可能存在误判。 同时,还有一些专门用于绘制示意图的网站,如 Creately、Whimsical 和 Miro 等。Creately 是在线绘图和协作平台,适合绘制多种图表,具有智能绘图、丰富模板库和实时协作等功能。Whimsical 专注于用户体验和快速绘图,界面直观易上手。Miro 是在线白板平台,结合 AI 功能适用于团队协作和各种示意图绘制,具有无缝协作、丰富模板和工具以及与其他项目管理工具集成等功能。使用这些网站绘制示意图的一般步骤包括选择工具、创建账户、选择模板、添加内容、协作和分享等。 对于 Tusiart 这类工具,文生图的操作流程包括确定主题、选择基础模型 Checkpoint(如麦橘、墨幽的系列模型)、选择 lora、设置 VAE(如 840000)、编写 Prompt 提示词和负向提示词 Negative Prompt(均用英文)、选择采样算法(如 DPM++2M Karras)、确定采样次数(如 30 40 次)以及设置尺寸等。
2025-03-18
ai agent和workfolw的差异
AI Agent 和 Workflow 的主要差异如下: 任务编排方式:AutoGPT 的任务由大模型自动编排,而 Workflow 中的子任务是人为编排的。 带来的优化: 流程中可加入人类 Knowhow,弥补模型知识的不足。 专家测试试跑,减少生产环境中的无效反思,提升 Agent 的表现。 引入图的概念,灵活组织节点,连接各类工具,包括套工具、套其他 Agent、写代码用硬逻辑处理、接大模型进行判断等,极大地提高了灵活性和可控性,提升了 Agent 能力的上限。 解决的问题:Agentic Workflow 可以从提升效率、提高质量、节省时间的角度思考,通过将复杂任务分解为小步骤,融入更多人类参与的规划与定义,减少对 Prompt Engineering 和模型推理能力的依赖,提高 LLM 应用面向复杂任务的性能。 涉及的概念: 记忆:分为短期记忆和长期记忆,短期记忆将上下文学习视为利用模型的短期记忆学习,长期记忆提供长期存储和召回信息的能力。 工具:学会调用外部不同类型 API 获取模型缺少的额外信息、代码执行能力、访问专有信息源等。 动作:大模型根据问句、上下文规划、各类工具决策出最终执行的动作。 人机协同关系:生成式 AI 的人机协同分为 Embedding(嵌入式)、Copilot(副驾驶)、Agent(智能代理)3 种模式,不同模式下人与 AI 的协作流程有所差异。 Embedding 模式:人类完成大多数工作。 Copilot 模式:人类和 AI 协同工作。 Agents 模式:AI 完成大多数工作。 工作流变革:使用 Multiagent Collaboration 的方法,让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。 信息处理逻辑:抽象化拆解大模型的底层能力,如翻译、识别、提取、格式化等,围绕“输入”“处理”“输出”“反馈”构建最底层的信息处理逻辑。 对获取信息方式的重塑:搜索引擎和基于大模型的聊天机器人在解决问题方面目标一致,ChatGPT 的发布被认为将对传统搜索引擎带来颠覆。
2025-03-18
一句话阐述ai agent的原理。
AI Agent 的原理主要包括以下几个方面: 1. 其核心通常是大型语言模型(LLM)或大模型。 2. 为 LLM 增加了工具、记忆、行动、规划这四个能力。 工具:如长期记忆,相当于给大模型一个数据库工具来记录重要信息。 记忆:提供长期记忆能力。 行动:将目标进行每一步的拆解,并输出不同的固定格式 action 指令给工具。 规划:在大模型的 prompt 层做逻辑处理,如目标拆解。 3. 目前行业里主要用到的是 langchain 框架,它通过代码或 prompt 的形式将 LLM 与 LLM 之间以及 LLM 与工具之间进行串接。 4. 心灵社会理论认为,智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。 多重层次:从低层次的感知和反应到高层次的规划和决策,每个层次由多个 Agent 负责。 功能模块:每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务。 分布式智能:智能通过多个相互关联的 Agent 共同实现,提高系统的灵活性和鲁棒性。 5. AI Agent 包括 Chain(步骤,可接受输入变量并产生输出变量)、Router(通过判定让 Agent 走向不同的 Chain)、Tool(工具调用)等概念。同时,还需要 Responser Agent(主 agent,用于回复用户)、Background Agent(背景 agent,用于推进角色当前状态)、Daily Agent(每日 agent,用于生成剧本等)等不同类型的 Agent 协同工作。
2025-03-18
ai的定义
AI 是某种模仿人类思维,可以理解自然语言并输出自然语言的东西。它可以被视为一个黑箱,其生态位是一种似人而非人的存在。 AGI 通常被定义为一种能够完成任何聪明人类所能完成的智力任务的人工智能。 从技术角度来看,GenAI 是一种基于深度学习技术,利用机器学习算法从已有数据中学习并生成新的数据或内容的 AI 应用。AIGC 则指利用 GenAI 创建的内容,包括图像、视频、音频、文本和三维模型等。目前国内主要在相关法律法规框架下对 AIGC 行业进行监管。
2025-03-18
微信SVG图文 什么AI可以帮我实现
Jianhua.Art 是一个能够通过自然语言设计图文和动画的浏览器插件。它目前是阉割版本,几乎离线(除大模型调用),无数据库和用户体系,数据存本地。只要有 OpenAI 格式的大模型 key 就能免费使用,能为网页设计生成分享海报。默认模板内置粗糙的网页总结,可生成 SVG 图片,还能对生成内容进行多种操作,如修改 SVG 代码、复制为 PNG 图片或下载 SVG 图片,插入微信、微信公众号、Figma 等地方,插入 Figma 时是分层的方便编辑。作者会考虑增加 SVG 插入微信公众号等更多地方的功能,还建了反馈群,短期内免费使用,只要有 Token 就能白嫖。若想用网页内容提取功能,创建应用时打开提取开关,支持提取的变量都已列出,复制粘贴到提示词里即可。
2025-03-18
AI对话,怎么去AI化
要实现 AI 对话的去 AI 化,可以从以下几个方面入手: 1. 语言风格: 使其具有生活化的语言习惯,使用语气词如嗯、吧、啊、哈哈哈等,增加口语化词语。 塑造搞笑人设,通过设置夸张、比喻、双关、对比、反差等手法实现幽默。 让回答变得不正经、放肆,例如大胆地开一些“玩笑”,但要注意避免侵犯他人。 2. 交流技巧: 像教实习生一样,给 AI 明确的“操作手册”,清晰表达自己的需求。 像拼乐高一样,将复杂任务拆成小模块,逐个击破。 像打乒乓球一样,进行有来有往的多回合交流,不断优化答案。 3. 准备工作: 交流前通过主题阅读相关书籍让大脑进入相关氛围。 清晰表达脑海中的想法,不能放弃指挥权,不能完全依赖 AI 随机生成。 注意框架的使用,将复杂场景拆细,同时根据不同场景灵活调整框架的维度。 4. 提示词运用: 根据场景决定提示词的约束和泛化,如公司固定的 SOP 需强约束,探讨发散场景则利用泛化能力。 练习提示词的压缩表达,先将想法用一段话描述,再浓缩,尝试用一个词或一个字精准概括。 需要注意的是,在让 AI 变得更像人类交流的过程中,最终还是要以内容质量为核心。
2025-03-18
谷歌AI 生成访谈对话
以下是关于谷歌 AI 相关的信息: 谷歌推出的 NotebookLM ,有人称它为笔记工具,有人说它是 AI 学习工具,还有人认为它是播客生成器。体验地址:https://notebooklm.google/ 。只要上传文档、音频或感兴趣的网页链接,如 YouTube 链接,它就能生成专业的播客,其中两个主持人的对话生动自然,包含各种人类的语气和行为。 Character.ai 是一款由 Noam Shazeer 和 Daniel De Freitas 于 2022 年 9 月创建的基于 LLM 的聊天机器人网站。该网站预先创建了许多聊天角色,用户可以与之交流,也能自己创作角色。与 ChatGPT 不同,它更注重人格属性,试图满足社交、情感、陪伴、支持等需求,还支持创建房间,多人可用不同角色聊天。目前没有商业变现途径,但计划在不久的将来推出付费订阅模式,也可能采用广告支持模式。 生成式 AI Studio : 详细功能介绍: 创建对话:包括指定对话上下文、示例、测试对话。 集成到应用程序:提供 API 和 SDK ,需下载适合编程语言(如 Python 或 Curl )的 Vertex AI SDK ,按照示例代码和 API 文档将代码插入应用程序。 调整大型语言模型的挑战与解决方案: 挑战:微小的措辞或词序变化可能影响模型结果,模型响应可能不完全可预测,模型响应质量不一,微调大型模型可能耗时且成本高,为大模型提供服务可能涉及额外麻烦和成本。 解决方案:参数有效调整,通过仅训练一部分参数来减轻微调 LLM 的挑战,这些参数可能是现有模型参数的子集或全新的参数,例如向模型添加额外的层或额外的嵌入到提示中。
2025-03-17
我想用扣子搭建有着我自己思维的智能体,让他能进行日常对话和创作
以下是用扣子搭建具有自己思维的智能体,使其能进行日常对话和创作的步骤: 1. 创建智能体:使用单 Agent 对话流模式。 2. 编排对话流:点击创建新的对话流并与智能体关联,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT,使用代码节点进行数据处理,注意代码节点输出的配置格式。 3. 测试:找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据,同时在智能体的编排页面进行测试,确保对话流执行成功。 4. 发布:点击发布后选择多维表格,进行配置,包括输出类型选文本、输入类型选字段选择器,完善上架信息,填写表格,选发布范围时可选择仅自己可用以加快审核。 此外,扣子的知识库功能强大,可上传和存储知识内容,提供多种查找方法,能解决大模型的知识不足问题。在智能体中可运用自己的知识库,如收集地道口语表达的短句。还可为智能体添加开场白以提升体验。 在多智能体模式设置中,包括全局设置和多个代理之间的编排协调。全局设置涉及角色设定与回复逻辑、记忆管理和对话体验等,在设计智能体交互流程时应形成完整互动链条,采用循环机制而非单向流程,可通过旅游场景中景点推荐、路线规划和食宿安排等智能体的例子来理解。
2025-03-16
如何与AI对话
以下是关于如何与 AI 对话的相关内容: 在 Trae 中指定上下文进行 AI 对话的方式有以下几种: 1. 方式一:将编辑器内的内容作为上下文 当编辑器中有正在编辑的代码文件时,AI 助手默认能看到当前文件,可直接提问与当前文件相关的问题。 若对文件中的某段代码提问:选中代码,点击悬浮菜单中的添加到对话按钮,将选中内容作为上下文添加至侧边对话框。指定的上下文会显示在侧边对话底部的输入框,还可继续添加编辑器中的其他内容片段或其他来源的上下文,然后在上下文旁输入问题并发送给 AI 助手。 2. 方式二:将终端中的内容作为上下文 若对终端中的输出内容提问(如修复报错):在终端中点击输出内容片段,在内容片段区域的右上角点击添加到对话按钮,将选中内容作为上下文添加至侧边对话框。指定的上下文会显示在侧边对话底部的输入框,还可继续添加终端中的其他内容片段或其他来源的上下文,然后在上下文旁输入问题并发送给 AI 助手。 3. 方式三:使用键添加上下文 在侧边对话的输入框中,可通过符号添加多种类的上下文,包括代码、文件、文件夹和工作区。通常情况下,列表中将展示与编辑器中当前打开文件相关的内容作为推荐的上下文,但仍可自行搜索所需的上下文并添加到输入框中。基于问题,可以组合添加各种来源的相关上下文(例如同时添加代码和文件)。 通过Code,可将函数或类的相关代码作为与 AI 助手对话的上下文。列表中默认展示当前编辑器内打开的文件中的函数或类。选择前,可预览列表中推荐的函数或类的相关代码。若推荐的内容非所需,可通过关键词搜索所需的函数或类。 若 Trae 中不存在对应语言的 LSP,请提前安装,否则可能导致无法识别代码符号。具体步骤为:在输入框中输入,或直接点击输入框左下角的引用按钮,输入框上方显示上下文类型选择列表;在列表中选择 Code(或在符号后手动输入 Code),然后按下回车键,列表将展示编辑器中当前打开的文件中存在的函数和类。将鼠标悬浮在列表中的某个条目后,左侧会展示该函数或类的代码内容,供预览;若推荐的函数和类非所需,在Code:后输入想要的函数或类的名称或关键词;从列表中选择需指定为上下文的函数或类,在输入框的代码标识后,输入问题并发送。 此外,关于文本补全(Text completion): API 非常擅长与人类甚至自己进行对话。只需几行指令,就能看到 API 作为智能客服聊天机器人,能智能地回答问题,或作为机智的对话伙伴制造笑话和双关语。关键在于告诉 API 它应该如何行事,然后提供一些例子。创建一个能够进行对话的聊天机器人,要告诉 API 意图和如何行事,还要给 API 赋予一个身份。为创建有趣且有用的聊天机器人,可提供几个问题和答案示例,向 API 展示如何回复。 API 是一种语言模型,熟悉各种用于表达信息的单词和字符的方式,包括自然语言文本、代码以及英语以外的其他语言,还能够理解内容,从而进行总结、转换并以不同的方式表达。在此示例中,展示了如何将 API 从英语转换为法语、西班牙语和日本语。若将英文翻译成 API 不熟悉的一种语言,则需要提供更多示例甚至微调模型才能流利地完成。
2025-03-12
AI赋能办公,包含AI+对话、AI+写作与PPT、图片与视频生成和数据分析,还有面向HR、行政、财务、营销等岗位的AI赋能课
以下是关于 AI 赋能办公的相关内容: GPT 使用场景: 1. 内容生成:可以生成文章、故事、诗歌、歌词等内容。 演示:https://chat.openai.com/ 、https://bard.google.com/extensions 、https://claude.ai/ 2. 聊天机器人:作为聊天机器人后端,提供自然对话体验。 演示: 3. 问答系统:为用户提供准确答案。 4. 文本摘要:生成文本的摘要或概述。 5. 机器翻译:虽非专门设计,但有不错表现。 6. 群聊总结: 7. 代码生成:GPT3 及后续版本可生成代码片段,帮助解决编程问题。 8. 教育:用于教育领域,帮助学生解答问题或提供学习材料。 9. 浏览器插件:webpilot 10. PDF 对话:演示 www.chatpdf.com PPT 相关: 1. 2. AiPPT.cn:爱设计&AiPPT.cn 是一家 AIGC 数字科技企业,致力于打造“下一代个人与组织的 Ai 工作站”。旗下产品包括 AiPPT 等超过 10 余款应用 AI 能力的内容创作工具。23 年在 Ai+办公领域推出 AiPPT.cn/AiPPT.com,帮助用户“一分钟一键生成 PPT”,是国内 AiPPT 赛道创业公司第 1 的产品,全球第 4,国内所有 AIGC 产品 PC 端 Top10。目标市场主要是市场、运营、销售、人力、财务、行政、技术、产品、总助、公务员、学生、老师等基层及中高层管理岗位人员。 3. 在众多的 PPT 工具中,AI 带来便捷高效体验。深入了解了五大 AI PPT 工具:MindShow、爱设计、闪击、Process ON、WPS AI,它们各自有鲜明特色和擅长场景。选择合适工具要根据实际需求调整,试用和体验比盲目跟风更明智。 其他: 1. 音视频提取总结:https://bibigpt.co/r/AJ 2. 播客总结:https://podwise.xyz/dashboard/trending 3. 生成脑图:https://xmind.ai/editor/
2025-03-12
如何对一组对话进行分析,并且进行评分
对一组对话进行分析和评分通常可以遵循以下步骤和依据: 1. 明确任务形式和要求:例如给定一组参考文档和问题,要求模型按照指定格式生成答案,问题包含多种类型。 2. 确定评测指标: 赛事主办方会根据选手提供的回答与参考答案进行对比,并根据关键字段命中情况进行评分。 关键词命中总次数表示在题目中命中 keylist 中元素的总次数(包括多小题)。 关键词总数表示 keylist 中定义的关键字段总数。 小题数指每个题目包含的小题数量。 得分:结果完全正确的回答得满分 1 分,部分正确则根据命中比例计算得分。 3. 示例参考:如在金融行业·大模型挑战赛中,对包含多个小题的多轮对话题目进行评测计算,根据每个小题的回答正确情况给出相应得分,最后计算总得分。 4. 非聊天场景的情绪分析:对于非聊天场景,如情绪分析,可以使用特定的提示,如让助手对语音数据中的情绪进行 110 的评分,并解释评分原因。 5. 问答对话场景:在类似智谱 BigModel 共学营的活动中,根据对问题的理解和准确回答能力、回答的真实性和有趣程度等方面进行评分,还可以使用特定的测试问题如弱智吧问题来评价提示词的生成效果。
2025-03-11
产品经理想进入AI行业,成为AI产品经理,应该怎么准备,能够快速应付面试拿到offer?我的背景是过去3年集中在用户功能产品,有过1份AI多轮对话解决用户求职问题的AI项目经历
如果产品经理想进入 AI 行业成为 AI 产品经理并快速应付面试拿到 offer,可以从以下几个方面准备: 1. 了解 AI 市场: 鱼龙混杂,求职者要做好信息甄别。即使面试通过拿到 offer,除了看 boss 直聘的招聘评价,一定要提前收集其他信息,如在脉脉上搜一下这家公司靠不靠谱。 一些公司实际上没搞懂用 AI 能为自己企业带来什么价值,只是处于焦虑或跟风心态要做 AI,这部分企业可以聊,但要求求职者要有咨询和商业化的思维,能帮公司厘清业务增长机会。 不同公司对 AI 产品经理的定位不同,所以招聘市场上对 AI 产品经理的岗位职责和任职要求也不同,慢慢会统一标准,这也是产品经理转型的机会。 有行业沉淀和认知的产品经理转型会更有机会,类似之前的“互联网+”,目前应用层的机会在“AI+行业”,只懂 AI 或只懂行业是不够的。还有就是业务创新,找到细分的场景痛点并完成 PMF 验证,海外有很多优秀案例。 2. 掌握岗位技能: 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 需要注意的是,观察上面的岗位需求,其实公司并不是需要一个 prompt 工程师,而是一个 AI 互联网产品经理。
2025-02-25
如何利用多轮对话做Agent问答
利用多轮对话做 Agent 问答可以从以下几个方面考虑: 1. 从产品角度: 思考用户为何想使用,例如通过探索历史新闻让用户更好地了解自身背景、成长环境,从中学习成长并获得有趣互动体验。 明确 Agent 是谁及其性格,比如设定为知识渊博、温暖亲切、富有同情心的历史新闻探索向导,负责新闻解析和历史背景分析。 确定提供新闻的时间,如用户出生那天及那一周的重要新闻事件。 规划除新闻外的能力,如提供历史背景分析、相关画作、生活方式分析,甚至加入神秘主义者和心理学家角色回应用户。 设计多 Agent 出场顺序和使用方式,通过多角色互动设计,让用户体验多层次对话,从基本问答到深度讨论,逐步引导用户探索。 2. 基于 LLM 的大脑模块: 自然语言交互方面:LLM 应具备多轮对话能力,能理解自然语言并生成连贯、上下文相关的回复,还应具备出色的生成能力和意图理解能力,但要注意模糊指令可能带来的挑战。 知识方面:包括语言知识(词法、句法、语义学和语用学)、常识知识(如药和伞的用途)、专业领域知识(如编程、医学),但要注意知识可能过时或错误,需通过重新训练或编辑 LLM 解决。 记忆方面:具备记忆机制,存储过去的观察、思考和行动,通过提高输入长度限制、记忆总结、用向量或数据结构压缩记忆等策略提升记忆,Agent 能检索记忆以访问相关信息,包括自动检索和交互式记忆对象。 推理和规划方面:基于证据和逻辑进行推理,这对解决问题和决策至关重要。
2025-01-08
多轮对话怎么做
多轮对话的实现方式如下: 1. 核心思路是让 AI 和您对目标的理解达成共识,保持一致,然后再开始创作,这样能增加创作的可控性。比如通过对生成图像的理解诱导和迭代来实现。 2. 有效的部分包括: 约束的弹性,在探索阶段给 AI 一定自由空间,而 prompt 一般是强约束的,更适合确定性的目标或者用于总结阶段。 情绪,情绪化能局部提升 AI 效能。 共识,您的理解和 AI 的理解要高度一致,在高共识性的背景下,调整和控制会更有效。 3. 注意事项: 如果经历很多轮的对话,可能会导致此次对话超过模型的 token 限制,ChatGPT 会遗忘之前的内容。建议当经历多轮对话后,可以新建一个聊天窗口,把完整的代码和需求背景输入给 ChatGPT,重新开启新的提问。 在自然的人类语言交流中,多轮对话常常伴随着指代问题的产生。为了提升对话系统的性能和用户体验,需要开发提示词来解决多轮对话中的指代消解问题,并确保模型能够在连续的交流中提供准确、连贯的回答。由于“指代消解”需要多轮对话来完成,单次交互无法达成,所以需要将测试形式进行转换,先解决“指代消解”的问题,然后再进行下一轮答复。
2025-01-07
单轮对话与多轮对话调用
单轮对话与多轮对话调用: 聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息格式化,然后交替使用用户消息和助手消息。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 百炼相关 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 记得第一天提到,规定模型不能用搜索和投喂输出文本。比赛是不是只限在提示词调试的范围内呢? 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
单轮对话与多轮对话调用
聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息(“system”)格式化,然后交替使用用户消息(“user”)和助手消息(“assistant”)。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 此外,还存在一些与百炼相关的 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
模型微调怎么解决多轮对话容易受到上轮对话的影响问题
在解决模型微调中多轮对话容易受到上轮对话影响的问题时: 对于多轮对话,现实中常伴随指代问题,如使用“它”“他们”“我们”等代词。若仅依据原始提问检索知识片段,可能导致结果不精确或无法检索到信息。同时,对模型回复内容的限制可能影响多轮对话流畅性甚至中断。 为提升对话系统性能和用户体验,需开发提示词解决多轮对话中的指代消解问题,确保模型能在连续交流中提供准确连贯回答。但由于“指代消解”需多轮对话完成,单次交互无法达成,所以要转换测试形式,先解决“指代消解”问题再进行下一轮答复。 首先准备指代消解所需提示词,这里使用的“指代消解”提示词是用 CoT 写出的思维链,列举不同推理情景,让模型适应并推理出需消解的代词,再根据结果重新组织问题。 接着复现指代消解步骤,如进行第一轮对话,提出问题“尼罗河是什么?”,系统召回相关知识片段并回复,然后开始指代消解。 另外,聊天模型通过一串聊天对话输入并返回生成消息输出。聊天格式虽为多轮对话设计,但对单轮任务也有用。会话通过 messages 参数输入,包含不同角色和内容的消息对象数组。通常会话先有系统消息设定助手行为,再交替使用用户和助手消息。当指令涉及之前消息时,包含聊天历史记录有帮助,若超出模型限制需缩减会话。
2024-11-21
目前支持上下文长度最长的是什么AI
目前支持上下文长度较长的 AI 有以下几种: Kimi:是国内最早支持 20 万字无损上下文的 AI,现在已提升到 200 万字,对长文理解表现出色,适合处理长文本或大量信息的任务,但在文字生成和语义理解、文字生成质量方面可能不如国内其他产品,且不支持用户自定义智能体。 http://X.AI 发布的 Grok1.5:支持 128k 上下文长度,性能翻倍,在 MATH、HumanEval、GSM8K、MMLU 测试中表现出色。 AI21 发布的 Jamba:创新的 SSMTransformer 架构,支持 256K 上下文长度,结合 Joint Attention 和 Mamba 技术,提升长上下文吞吐量。
2025-03-17
我在写小说,怎么让AI在写作时能很好地根据整体故事情节和上下文进行故事的展开和描写
以下是一些让 AI 在写作小说时能很好地根据整体故事情节和上下文进行故事展开和描写的方法: 1. 创作穿越故事的 Prompt 时,明确以下内容: 标题:“generate:小说的标题” 设置:“generate:小说的情景设置细节,包括时间段、地点和所有相关背景信息” 主角:“generate:小说主角的名字、年龄、职业,以及他们的性格和动机、简要的描述” 反派角色:“generate:小说反派角色的名字、年龄、职业,以及他们的性格和动机、简要的描述” 冲突:“generate:小说故事的主要冲突,包括主角面临的问题和涉及的利害关系” 对话:“generate:以对话的形式描述情节,揭示人物,以此提供一些提示给读者” 主题:“generate:小说中心主题,并说明如何在整个情节、角色和背景中展开” 基调:“generate:整体故事的基调,以及保持背景和人物的一致性和适当性的说明” 节奏:“generate:调节故事节奏以建立和释放紧张气氛,推进情节,创造戏剧效果的说明” 其它:“generate:任何额外的细节或对故事的要求,如特定的字数或题材限制” 根据上面的模板生成为特定题材小说填充内容,并分章节,生成小说的目录。 2. 接下来,让 AI 一段一段进行细节描写。为确保文章前后一致,先让 AI 帮助写故事概要和角色背景介绍,并在其基础上按自己的审美略做修改。 3. 可以让 AI 以表格的形式输出细节描述。这样做有三个好处: 打破 AI 原本的叙事习惯,避免陈词滥调。 按编号做局部调整很容易,指哪改哪,别的内容都能够稳定保持不变。 确保内容都是具体的细节,避免整段输出时缩减导致丢光细节只有笼统介绍。 4. 把生成的表格依次复制粘贴,让 AI 照着写文章,偶尔根据需要给 AI 提供建议。 5. 注意小说大赛的要求,如最后的作品必须是 AI 直接吐出来的,不能有任何改动,不能超过规定字数等。如果需要修改,可能会遇到像 GPT4 记性不好或 Claude 改掉关键情节等问题。
2025-01-26
ai能够回复多少内容和它的上下文限制有关吗
AI 能够回复的内容与其上下文限制有关。 首先,上下文在英文中通常翻译为“context”,指的是对话聊天内容前、后的信息。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 不同的 AI 平台有不同的限制方式。例如,Claude 基于 token 限制上下文,简单理解就是每次和 AI 对话,所有内容字数加起来不能太多,如果超过了,它就会忘记一些内容,甚至直接提示要另起一个对话。ChatGPT 则限制会话轮数,比如在一天之中,和它会话的次数有限制,可能 4 个小时只能说 50 句话。 应对这些限制的策略包括将复杂任务分解为小模块、定期总结关键信息以及在新会话中重新引入重要上下文。
2024-11-15
回复限制和上下文限制是一样的吗
回复限制和上下文限制不是一样的概念。 上下文(英文通常翻译为 context)指对话聊天内容前、后的内容信息。使用时,上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 回复限制通常是指对模型生成回复内容的各种约束条件,例如让模型基于一个固定知识片段去回复内容,为避免模型产生幻觉而对提示词进行优化,将 Constraints 前置以更好地控制模型行为。例如在一些测试中,会出现模型在没有上下文时不回复,按照提供的知识准确回复但透露原文,知识片段大小影响回复,以及有错误知识片段时不回复等情况,这表明模型在处理用户输入时会进行一定程度的推理和验证,生成回复时会考虑多种因素,包括上下文的准确性、问题的合理性以及模型内部的约束机制等。
2024-11-15
上下文窗口和 tokens限制
以下是关于上下文窗口和 tokens 限制的详细解释: Token 方面: Token 是大模型语言体系中的最小单元。人类语言发送给大模型时,会先被转换为大模型自己的语言,大模型推理生成答案后再翻译为人类能看懂的语言输出。 不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。 大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 上下文方面: 上下文指对话聊天内容前、后的内容信息,其长度和窗口都会影响大模型回答的质量。 上下文长度限制了模型一次交互中能够处理的最大 token 数量,上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 目前常见模型的 token 限制: Claude 2 100k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT 16k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT 4 32k 模型的上下文上限是 32k Tokens,即 32000 个 token。 Token 限制的影响: 对一次性输入和一次对话的总体上下文长度同时生效。 当达到上限时,不是停止对话,而是遗忘最前面的对话,类似于鱼的短暂记忆。 查看 token 使用量: 对于 GPT,可以打开查看实时生成的 tokens 消耗和对应字符数量。 需注意 GPT3 和 GPT3.5/4 的 token 计算方式不同,且英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。 Token 限制对 Prompt 编写的影响:理解前面的内容后,答案应在您的脑海中有雏形。
2024-11-15
上下文的含义
上下文指对话聊天内容前、后的内容信息。在 AI 领域,其英文通常翻译为 context。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 从算法视角看,更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力有着发展历程:从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token。 从产品视角看,长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。 模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化,这一点值得观察。 在提示词中,上下文包含外部信息或额外的上下文信息,能够引导语言模型更好地响应。
2024-10-26