Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)

Answer

以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法:

  1. 样例驱动的渐进式引导法
    • 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。
    • 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。
    • 用例测试,看看 AI 是否真正理解:找 1-3 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。
  2. Coze 全方位入门剖析
    • 标准流程创建 AI Bot(进阶推荐)
      • 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。
      • 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
Content generated by AI large model, please carefully verify (powered by aily)

References

一泽 Eze:样例驱动的渐进式引导法——利用 AI 高效设计提示词 ,生成预期内容

单凭个人努力,想独自产出一个高质量的样例并非易事。就如我在构建上面的初始样例后,不确定它与优秀的知识卡片还有多大差距。幸运的是,我们可以借助擅长扮演专家角色的AI来改进初始的正向样例。我选择使用Claude 3.5进行对话(读者也可以尝试GPT-4等其他AI工具),输入以下的初始指令:以下是AI返回的内容:我们可以通过AI的回复,侧面印证AI当前对样例的理解与建议。[heading4]提炼初始模板[content]当确保AI基本理解了我们的样例与需求目标时,我们就进入下一步”提炼初始模板”:[heading4]多轮反馈,直至达到预期[content]不过AI可能仍然会犯错,输出要求外的内容,这是很正常的情况。所以需要发起多轮的对话引导,使得AI不断修正自己的理解,直至双方达成共识。[heading4]用例测试,看看AI是否真正理解[content]找1~3个用例,让AI根据模板,尝试生成对应的知识卡片:以下是AI的回复:在这一步,需要读者根据自身需要,根据结果验证AI是否能够按照预期生成目标内容。如果不能,则需要我们和AI继续探讨不符合预期的地方,并要求调整(比如:我想要能够生成3-5个关联知识;渐进式原理说明,我觉得需要更加的通俗易懂;请你根据我的反馈再调整一下)。注:用例测试和多轮反馈的步骤比较灵活,你可以根据需要,在这两个环节内自由进行反馈,调整AI的理解与输出。像图中金字塔原理的知识卡片生成结果,已经非常符合我的预期,所以就可以进行下一步指令。

一泽 Eze:样例驱动的渐进式引导法——利用 AI 高效设计提示词 ,生成预期内容

单凭个人努力,想独自产出一个高质量的样例并非易事。就如我在构建上面的初始样例后,不确定它与优秀的知识卡片还有多大差距。幸运的是,我们可以借助擅长扮演专家角色的AI来改进初始的正向样例。我选择使用Claude 3.5进行对话(读者也可以尝试GPT-4等其他AI工具),输入以下的初始指令:以下是AI返回的内容:我们可以通过AI的回复,侧面印证AI当前对样例的理解与建议。[heading4]提炼初始模板[content]当确保AI基本理解了我们的样例与需求目标时,我们就进入下一步”提炼初始模板”:[heading4]多轮反馈,直至达到预期[content]不过AI可能仍然会犯错,输出要求外的内容,这是很正常的情况。所以需要发起多轮的对话引导,使得AI不断修正自己的理解,直至双方达成共识。[heading4]用例测试,看看AI是否真正理解[content]找1~3个用例,让AI根据模板,尝试生成对应的知识卡片:以下是AI的回复:在这一步,需要读者根据自身需要,根据结果验证AI是否能够按照预期生成目标内容。如果不能,则需要我们和AI继续探讨不符合预期的地方,并要求调整(比如:我想要能够生成3-5个关联知识;渐进式原理说明,我觉得需要更加的通俗易懂;请你根据我的反馈再调整一下)。注:用例测试和多轮反馈的步骤比较灵活,你可以根据需要,在这两个环节内自由进行反馈,调整AI的理解与输出。像图中金字塔原理的知识卡片生成结果,已经非常符合我的预期,所以就可以进行下一步指令。

安仔:Coze 全方位入门剖析 - 免费打造自己的 AI Agent (国内版)

1.目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为3轮,可修改区间是0到30,具体多少轮主要需要根据你的业务需求来决定,如果业务需求比较复杂,可以适当增加轮数,如果业务需求比较简单则反之,对于不懂的可以直接使用默认值。1.在Bot编排页面的“技能”区域,为Bot配置所需的技能。当然在插件区域,如果你不懂插件的话,可以直接选择区域右上角的“优化”按钮,让AI Bot根据你的提示词自动为你选择插件。1.如果你想自定义添加自己所需的插件,你可以直接点击插件区域的“+”号选择加入具体插件。1.像我的Bot需要获取AI新闻,我就添加一个新闻搜索接口,点击功能对应的“+”图标,选择相应的插件(如“阅读新闻>头条新闻>getToutiaoNews”)并添加。1.在技能的其他区域,你可以根据你的需求来配置知识库、数据库、工作流等操作,可以直接参考上面的相关介绍和我下面的实战操作来加深理解,当然你也可以参考官方文档来学习:https://www.coze.cn/docs/guides/function_overview[heading4]3.4.测试Bot[content]1.在Bot编排页面的“预览与调试”区域,测试Bot是否按照预期工作。你可以清除对话记录以开始新的测试。1.确保Bot能够理解用户的输入并给出正确的回应。

Others are asking
推荐一些AI作曲工具
以下是为您推荐的一些 AI 作曲工具: 1. Udio:由前 Google DeepMind 工程师开发,通过文本提示快速生成符合用户音乐风格喜好的高质量音乐作品。网址:https://www.udio.com/ 2. Suno AI:是一款革命性的人工智能音乐生成工具,它通过先进的深度学习技术,能够将用户的输入转化为富有情感且高质量的音乐作品。网址:https://suno.com/ 需要注意的是,内容由 AI 大模型生成,请仔细甄别。在使用 AI 作曲工具时,掌握一些基本的音乐知识,如基本的节拍参数、基础乐器的描述和组合、主歌副歌的结构常识等,对于创作制作至关重要。同时,要避免一些不切实际的想法,如传一首周杰伦的歌上去复制一堆周杰伦风格的歌等。另外,对于 AI 音乐 MV 的制作,建立角色资产可以考虑使用 AI 绘画平台,如 Midjourney(条件允许时的首选)、可灵 AI、即梦 AI 等成熟的综合类工具,或者 Krea 之类的集成平台。
2025-03-18
我准备用无影云电脑部署一个独属于我们公司的AI,在大模型方面我准备用deepseek的满血版,你有什么建议吗
以下是关于您准备用无影云电脑部署公司专属 AI 并使用 deepseek 满血版大模型的一些建议: 1. 本地部署方面:如果拥有云服务器,要了解如何进行本地部署以及满血版本地部署的实际情况。 2. 免费额度:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 3. 平台服务差异:了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。 4. 模型蒸馏微调:可以学习并实践模型的蒸馏和微调相关知识。 5. 获取 DeepSeekR1 满血版密钥: 注册并登录火山引擎,点击立即体验进入控制台。 创建一个接入点,点击在线推理创建推理接入点。 为接入点命名为 DeepSeekR1。 若有提示未开通模型,点击“立即开通”,勾选全部模型和协议一路开通。 确认无误后点击“确认接入”按钮。 复制推理点的 ID 并保存。 点击【API 调用】按钮,复制 API Key 并保存。 6. 模型选择与配置:可以参考理想的配置,如推理模型选择 gemini2.0flashthinking,代码模型选择 claude3.5sonet 或 gpt4omini,多模态模型选择 gemini2.0flash,常规模型选择 DeepSeek V3。同时,了解 OpenRouter 新发布的 BYOK 功能,它能集成第三方 Key,整合免费额度并解放更多槽位。若对现有供应商支持的模型不满意,还可考虑 simpleoneapi。
2025-03-18
在国内用什么ai生成ppt更好一些
在国内,以下两款 AI 生成 PPT 的工具值得推荐: 1. 爱设计 PPT: 拥有实力强大的团队,技术过硬且对市场需求有敏锐洞察力,能持续推动产品创新和进步。 成功把握住 AI 与 PPT 结合的市场机遇,迅速开发出产品。 已在国内 AI 生成 PPT 产品中确立市场领先地位,代表了当前国内 AI 辅助 PPT 制作的最高水平,能大大提高制作效率并保证高质量输出。 2. 闪击: 网址:https://ppt.isheji.com/?code=ysslhaqllp&as=invite ,国内网站,不需要魔法。 选择模版,输入大纲和要点(可参考官方使用指南:https://zhuanlan.zhihu.com/p/607583650 ),将大纲转换成适配闪击的语法,点击文本转 PPT 并确定,在线编辑,导出(PPT 需要会员才能导出)。
2025-03-18
ai进行需求评审
AI 进行需求评审包括以下方面: AI Review(测试版):这是一项能让您查看代码库中近期更改以捕获潜在错误的功能。您可以单击审阅项查看编辑器中的完整上下文,并与 AI 聊天获取更多信息。为让其更有利,您能提供自定义说明让 AI 专注,比如关注性能相关问题。目前有几个审核选项,如查看工作状态、查看与主分支的差异、查看上次提交。 在 AI 编程中,需求梳理极为重要: 明确要解决的问题,从用户角度出发,清晰定义痛点和期望,如用户希望通过图像识别解决的具体问题。 明确 AI 在问题中的角色和作用,评估其能力边界。 制定明确可量化的评估指标,如准确率、召回率等,衡量 AI 系统性能和效果。 规划好数据的来源、质量和数量。 要在需求梳理和界面交互上花费最多时间。 周周黑客松中关于 AI 编程的需求拆解: 让 Claude 帮忙拆解需求,如插件自动读取网页主要内容并传输给 LLM agent bot,bot 处理为 HTML 代码返回,插件渲染,提供保存为图片选项等。 进行方案设计和分工,使用 AI 编码工具开发,确保程序架构良好,分离为主要模块放在不同文件夹,定义好接口,开发完成后拼接测试,有问题或新需求修改开发文档,尽量多打印日志方便 debug。 具体分工如元子负责内容提取模块,实现网页内容提取、清理格式化和优化提取算法;lark 负责 API 通信模块,实现与 LLM agent bot 的通信及相关处理和错误处理重试机制。
2025-03-18
请推荐一个中文版的AI编程助手以及编程工具
以下为您推荐一些中文版的 AI 编程助手及编程工具: 1. AIXcoder:是 AI 驱动的编程助手,支持 Java、Python 和 JavaScript 等语言,提供自动任务处理、智能代码补全等功能,目前只有中文版,价格暂无信息。 2. Windsurf:提出了 Agent IDE 这种新的开发范式,Cascade 功能对应 Cursor Composer,在体验上有提升,包括深入理解现有代码库等,但有程序员反馈其 tab 自动补全不如 Cursor。 希望这些推荐对您有所帮助。
2025-03-18
请推荐1~2款适合初学者的AI编程助手和编程学习工具
以下是 1 2 款适合初学者的 AI 编程助手和编程学习工具: v0:适合初学者,能为编程提供一定的辅助和支持。 Bolt:对新手友好,有助于初学者在编程过程中获得帮助和指导。 此外,还有一些其他常见的适合初学者的工具,如 GitHub Copilot,它支持多种语言和 IDE,能为程序员快速提供代码建议;通义灵码,提供行级/函数级实时续写、自然语言生成代码等多种能力。您可以根据自己的需求选择最适合您的工具。
2025-03-18
谷歌AI 生成访谈对话
以下是关于谷歌 AI 相关的信息: 谷歌推出的 NotebookLM ,有人称它为笔记工具,有人说它是 AI 学习工具,还有人认为它是播客生成器。体验地址:https://notebooklm.google/ 。只要上传文档、音频或感兴趣的网页链接,如 YouTube 链接,它就能生成专业的播客,其中两个主持人的对话生动自然,包含各种人类的语气和行为。 Character.ai 是一款由 Noam Shazeer 和 Daniel De Freitas 于 2022 年 9 月创建的基于 LLM 的聊天机器人网站。该网站预先创建了许多聊天角色,用户可以与之交流,也能自己创作角色。与 ChatGPT 不同,它更注重人格属性,试图满足社交、情感、陪伴、支持等需求,还支持创建房间,多人可用不同角色聊天。目前没有商业变现途径,但计划在不久的将来推出付费订阅模式,也可能采用广告支持模式。 生成式 AI Studio : 详细功能介绍: 创建对话:包括指定对话上下文、示例、测试对话。 集成到应用程序:提供 API 和 SDK ,需下载适合编程语言(如 Python 或 Curl )的 Vertex AI SDK ,按照示例代码和 API 文档将代码插入应用程序。 调整大型语言模型的挑战与解决方案: 挑战:微小的措辞或词序变化可能影响模型结果,模型响应可能不完全可预测,模型响应质量不一,微调大型模型可能耗时且成本高,为大模型提供服务可能涉及额外麻烦和成本。 解决方案:参数有效调整,通过仅训练一部分参数来减轻微调 LLM 的挑战,这些参数可能是现有模型参数的子集或全新的参数,例如向模型添加额外的层或额外的嵌入到提示中。
2025-03-17
我想用扣子搭建有着我自己思维的智能体,让他能进行日常对话和创作
以下是用扣子搭建具有自己思维的智能体,使其能进行日常对话和创作的步骤: 1. 创建智能体:使用单 Agent 对话流模式。 2. 编排对话流:点击创建新的对话流并与智能体关联,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT,使用代码节点进行数据处理,注意代码节点输出的配置格式。 3. 测试:找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据,同时在智能体的编排页面进行测试,确保对话流执行成功。 4. 发布:点击发布后选择多维表格,进行配置,包括输出类型选文本、输入类型选字段选择器,完善上架信息,填写表格,选发布范围时可选择仅自己可用以加快审核。 此外,扣子的知识库功能强大,可上传和存储知识内容,提供多种查找方法,能解决大模型的知识不足问题。在智能体中可运用自己的知识库,如收集地道口语表达的短句。还可为智能体添加开场白以提升体验。 在多智能体模式设置中,包括全局设置和多个代理之间的编排协调。全局设置涉及角色设定与回复逻辑、记忆管理和对话体验等,在设计智能体交互流程时应形成完整互动链条,采用循环机制而非单向流程,可通过旅游场景中景点推荐、路线规划和食宿安排等智能体的例子来理解。
2025-03-16
如何与AI对话
以下是关于如何与 AI 对话的相关内容: 在 Trae 中指定上下文进行 AI 对话的方式有以下几种: 1. 方式一:将编辑器内的内容作为上下文 当编辑器中有正在编辑的代码文件时,AI 助手默认能看到当前文件,可直接提问与当前文件相关的问题。 若对文件中的某段代码提问:选中代码,点击悬浮菜单中的添加到对话按钮,将选中内容作为上下文添加至侧边对话框。指定的上下文会显示在侧边对话底部的输入框,还可继续添加编辑器中的其他内容片段或其他来源的上下文,然后在上下文旁输入问题并发送给 AI 助手。 2. 方式二:将终端中的内容作为上下文 若对终端中的输出内容提问(如修复报错):在终端中点击输出内容片段,在内容片段区域的右上角点击添加到对话按钮,将选中内容作为上下文添加至侧边对话框。指定的上下文会显示在侧边对话底部的输入框,还可继续添加终端中的其他内容片段或其他来源的上下文,然后在上下文旁输入问题并发送给 AI 助手。 3. 方式三:使用键添加上下文 在侧边对话的输入框中,可通过符号添加多种类的上下文,包括代码、文件、文件夹和工作区。通常情况下,列表中将展示与编辑器中当前打开文件相关的内容作为推荐的上下文,但仍可自行搜索所需的上下文并添加到输入框中。基于问题,可以组合添加各种来源的相关上下文(例如同时添加代码和文件)。 通过Code,可将函数或类的相关代码作为与 AI 助手对话的上下文。列表中默认展示当前编辑器内打开的文件中的函数或类。选择前,可预览列表中推荐的函数或类的相关代码。若推荐的内容非所需,可通过关键词搜索所需的函数或类。 若 Trae 中不存在对应语言的 LSP,请提前安装,否则可能导致无法识别代码符号。具体步骤为:在输入框中输入,或直接点击输入框左下角的引用按钮,输入框上方显示上下文类型选择列表;在列表中选择 Code(或在符号后手动输入 Code),然后按下回车键,列表将展示编辑器中当前打开的文件中存在的函数和类。将鼠标悬浮在列表中的某个条目后,左侧会展示该函数或类的代码内容,供预览;若推荐的函数和类非所需,在Code:后输入想要的函数或类的名称或关键词;从列表中选择需指定为上下文的函数或类,在输入框的代码标识后,输入问题并发送。 此外,关于文本补全(Text completion): API 非常擅长与人类甚至自己进行对话。只需几行指令,就能看到 API 作为智能客服聊天机器人,能智能地回答问题,或作为机智的对话伙伴制造笑话和双关语。关键在于告诉 API 它应该如何行事,然后提供一些例子。创建一个能够进行对话的聊天机器人,要告诉 API 意图和如何行事,还要给 API 赋予一个身份。为创建有趣且有用的聊天机器人,可提供几个问题和答案示例,向 API 展示如何回复。 API 是一种语言模型,熟悉各种用于表达信息的单词和字符的方式,包括自然语言文本、代码以及英语以外的其他语言,还能够理解内容,从而进行总结、转换并以不同的方式表达。在此示例中,展示了如何将 API 从英语转换为法语、西班牙语和日本语。若将英文翻译成 API 不熟悉的一种语言,则需要提供更多示例甚至微调模型才能流利地完成。
2025-03-12
AI赋能办公,包含AI+对话、AI+写作与PPT、图片与视频生成和数据分析,还有面向HR、行政、财务、营销等岗位的AI赋能课
以下是关于 AI 赋能办公的相关内容: GPT 使用场景: 1. 内容生成:可以生成文章、故事、诗歌、歌词等内容。 演示:https://chat.openai.com/ 、https://bard.google.com/extensions 、https://claude.ai/ 2. 聊天机器人:作为聊天机器人后端,提供自然对话体验。 演示: 3. 问答系统:为用户提供准确答案。 4. 文本摘要:生成文本的摘要或概述。 5. 机器翻译:虽非专门设计,但有不错表现。 6. 群聊总结: 7. 代码生成:GPT3 及后续版本可生成代码片段,帮助解决编程问题。 8. 教育:用于教育领域,帮助学生解答问题或提供学习材料。 9. 浏览器插件:webpilot 10. PDF 对话:演示 www.chatpdf.com PPT 相关: 1. 2. AiPPT.cn:爱设计&AiPPT.cn 是一家 AIGC 数字科技企业,致力于打造“下一代个人与组织的 Ai 工作站”。旗下产品包括 AiPPT 等超过 10 余款应用 AI 能力的内容创作工具。23 年在 Ai+办公领域推出 AiPPT.cn/AiPPT.com,帮助用户“一分钟一键生成 PPT”,是国内 AiPPT 赛道创业公司第 1 的产品,全球第 4,国内所有 AIGC 产品 PC 端 Top10。目标市场主要是市场、运营、销售、人力、财务、行政、技术、产品、总助、公务员、学生、老师等基层及中高层管理岗位人员。 3. 在众多的 PPT 工具中,AI 带来便捷高效体验。深入了解了五大 AI PPT 工具:MindShow、爱设计、闪击、Process ON、WPS AI,它们各自有鲜明特色和擅长场景。选择合适工具要根据实际需求调整,试用和体验比盲目跟风更明智。 其他: 1. 音视频提取总结:https://bibigpt.co/r/AJ 2. 播客总结:https://podwise.xyz/dashboard/trending 3. 生成脑图:https://xmind.ai/editor/
2025-03-12
如何对一组对话进行分析,并且进行评分
对一组对话进行分析和评分通常可以遵循以下步骤和依据: 1. 明确任务形式和要求:例如给定一组参考文档和问题,要求模型按照指定格式生成答案,问题包含多种类型。 2. 确定评测指标: 赛事主办方会根据选手提供的回答与参考答案进行对比,并根据关键字段命中情况进行评分。 关键词命中总次数表示在题目中命中 keylist 中元素的总次数(包括多小题)。 关键词总数表示 keylist 中定义的关键字段总数。 小题数指每个题目包含的小题数量。 得分:结果完全正确的回答得满分 1 分,部分正确则根据命中比例计算得分。 3. 示例参考:如在金融行业·大模型挑战赛中,对包含多个小题的多轮对话题目进行评测计算,根据每个小题的回答正确情况给出相应得分,最后计算总得分。 4. 非聊天场景的情绪分析:对于非聊天场景,如情绪分析,可以使用特定的提示,如让助手对语音数据中的情绪进行 110 的评分,并解释评分原因。 5. 问答对话场景:在类似智谱 BigModel 共学营的活动中,根据对问题的理解和准确回答能力、回答的真实性和有趣程度等方面进行评分,还可以使用特定的测试问题如弱智吧问题来评价提示词的生成效果。
2025-03-11
怎么和特定知识库对话
要和特定知识库对话,有以下几种方式: 1. 在 Bot 内使用知识库: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量(Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多)、最小匹配度(Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回)、调用方式(自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回;按需调用:需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据)。 (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 2. 在工作流内使用 Knowledge 节点: 登录。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 如果想要对本地知识库进行更加灵活的掌控,可以使用额外的软件 AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后,进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 在 AnythingLLM 中有一个 Workspace 的概念,可以创建自己独有的 Workspace 跟其他的项目数据进行隔离。首先创建一个工作空间,然后上传文档并且在工作空间中进行文本嵌入,选择对话模式,包括 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案),完成上述配置后就可以跟大模型进行对话。 在创建名字写对联教学的智能体时,建议选择工作流的对话模式,创建一个工作流对话模式的智能体,注意一定要在开始调整工作流节点之前切换模式,因为切换成对话模式会将工作流清空,重置为对话模式默认节点。根据需求分析确认分支情况,包括根据名字和祝福写对联、根据幸运数字写对联的特定分支以及默认分支。通过理解用户意图进行分支,注意将意图介绍写清楚、准确。在幸运数字分支中,先用代码分支获取用户输入的数字,然后匹配知识库,再对匹配的春联做赏析。在名字写祝福分支中,根据用户输入的名字和祝福信息,调试提示词生成对应对联并输出。设置通用兜底回复,在用户不符合前两个意图时进行友好回复,首先匹配知识库,然后让大模型结合匹配结果、历史记录、当前输入,输出符合对话内容的回复。同时,知识库是使用大模型生成的 100 对对联,都比较好看、经典、有意义。
2025-03-10
产品经理想进入AI行业,成为AI产品经理,应该怎么准备,能够快速应付面试拿到offer?我的背景是过去3年集中在用户功能产品,有过1份AI多轮对话解决用户求职问题的AI项目经历
如果产品经理想进入 AI 行业成为 AI 产品经理并快速应付面试拿到 offer,可以从以下几个方面准备: 1. 了解 AI 市场: 鱼龙混杂,求职者要做好信息甄别。即使面试通过拿到 offer,除了看 boss 直聘的招聘评价,一定要提前收集其他信息,如在脉脉上搜一下这家公司靠不靠谱。 一些公司实际上没搞懂用 AI 能为自己企业带来什么价值,只是处于焦虑或跟风心态要做 AI,这部分企业可以聊,但要求求职者要有咨询和商业化的思维,能帮公司厘清业务增长机会。 不同公司对 AI 产品经理的定位不同,所以招聘市场上对 AI 产品经理的岗位职责和任职要求也不同,慢慢会统一标准,这也是产品经理转型的机会。 有行业沉淀和认知的产品经理转型会更有机会,类似之前的“互联网+”,目前应用层的机会在“AI+行业”,只懂 AI 或只懂行业是不够的。还有就是业务创新,找到细分的场景痛点并完成 PMF 验证,海外有很多优秀案例。 2. 掌握岗位技能: 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 需要注意的是,观察上面的岗位需求,其实公司并不是需要一个 prompt 工程师,而是一个 AI 互联网产品经理。
2025-02-25
如何利用多轮对话做Agent问答
利用多轮对话做 Agent 问答可以从以下几个方面考虑: 1. 从产品角度: 思考用户为何想使用,例如通过探索历史新闻让用户更好地了解自身背景、成长环境,从中学习成长并获得有趣互动体验。 明确 Agent 是谁及其性格,比如设定为知识渊博、温暖亲切、富有同情心的历史新闻探索向导,负责新闻解析和历史背景分析。 确定提供新闻的时间,如用户出生那天及那一周的重要新闻事件。 规划除新闻外的能力,如提供历史背景分析、相关画作、生活方式分析,甚至加入神秘主义者和心理学家角色回应用户。 设计多 Agent 出场顺序和使用方式,通过多角色互动设计,让用户体验多层次对话,从基本问答到深度讨论,逐步引导用户探索。 2. 基于 LLM 的大脑模块: 自然语言交互方面:LLM 应具备多轮对话能力,能理解自然语言并生成连贯、上下文相关的回复,还应具备出色的生成能力和意图理解能力,但要注意模糊指令可能带来的挑战。 知识方面:包括语言知识(词法、句法、语义学和语用学)、常识知识(如药和伞的用途)、专业领域知识(如编程、医学),但要注意知识可能过时或错误,需通过重新训练或编辑 LLM 解决。 记忆方面:具备记忆机制,存储过去的观察、思考和行动,通过提高输入长度限制、记忆总结、用向量或数据结构压缩记忆等策略提升记忆,Agent 能检索记忆以访问相关信息,包括自动检索和交互式记忆对象。 推理和规划方面:基于证据和逻辑进行推理,这对解决问题和决策至关重要。
2025-01-08
多轮对话怎么做
多轮对话的实现方式如下: 1. 核心思路是让 AI 和您对目标的理解达成共识,保持一致,然后再开始创作,这样能增加创作的可控性。比如通过对生成图像的理解诱导和迭代来实现。 2. 有效的部分包括: 约束的弹性,在探索阶段给 AI 一定自由空间,而 prompt 一般是强约束的,更适合确定性的目标或者用于总结阶段。 情绪,情绪化能局部提升 AI 效能。 共识,您的理解和 AI 的理解要高度一致,在高共识性的背景下,调整和控制会更有效。 3. 注意事项: 如果经历很多轮的对话,可能会导致此次对话超过模型的 token 限制,ChatGPT 会遗忘之前的内容。建议当经历多轮对话后,可以新建一个聊天窗口,把完整的代码和需求背景输入给 ChatGPT,重新开启新的提问。 在自然的人类语言交流中,多轮对话常常伴随着指代问题的产生。为了提升对话系统的性能和用户体验,需要开发提示词来解决多轮对话中的指代消解问题,并确保模型能够在连续的交流中提供准确、连贯的回答。由于“指代消解”需要多轮对话来完成,单次交互无法达成,所以需要将测试形式进行转换,先解决“指代消解”的问题,然后再进行下一轮答复。
2025-01-07
单轮对话与多轮对话调用
单轮对话与多轮对话调用: 聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息格式化,然后交替使用用户消息和助手消息。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 百炼相关 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 记得第一天提到,规定模型不能用搜索和投喂输出文本。比赛是不是只限在提示词调试的范围内呢? 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
单轮对话与多轮对话调用
聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息(“system”)格式化,然后交替使用用户消息(“user”)和助手消息(“assistant”)。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 此外,还存在一些与百炼相关的 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
模型微调怎么解决多轮对话容易受到上轮对话的影响问题
在解决模型微调中多轮对话容易受到上轮对话影响的问题时: 对于多轮对话,现实中常伴随指代问题,如使用“它”“他们”“我们”等代词。若仅依据原始提问检索知识片段,可能导致结果不精确或无法检索到信息。同时,对模型回复内容的限制可能影响多轮对话流畅性甚至中断。 为提升对话系统性能和用户体验,需开发提示词解决多轮对话中的指代消解问题,确保模型能在连续交流中提供准确连贯回答。但由于“指代消解”需多轮对话完成,单次交互无法达成,所以要转换测试形式,先解决“指代消解”问题再进行下一轮答复。 首先准备指代消解所需提示词,这里使用的“指代消解”提示词是用 CoT 写出的思维链,列举不同推理情景,让模型适应并推理出需消解的代词,再根据结果重新组织问题。 接着复现指代消解步骤,如进行第一轮对话,提出问题“尼罗河是什么?”,系统召回相关知识片段并回复,然后开始指代消解。 另外,聊天模型通过一串聊天对话输入并返回生成消息输出。聊天格式虽为多轮对话设计,但对单轮任务也有用。会话通过 messages 参数输入,包含不同角色和内容的消息对象数组。通常会话先有系统消息设定助手行为,再交替使用用户和助手消息。当指令涉及之前消息时,包含聊天历史记录有帮助,若超出模型限制需缩减会话。
2024-11-21
目前支持上下文长度最长的是什么AI
目前支持上下文长度较长的 AI 有以下几种: Kimi:是国内最早支持 20 万字无损上下文的 AI,现在已提升到 200 万字,对长文理解表现出色,适合处理长文本或大量信息的任务,但在文字生成和语义理解、文字生成质量方面可能不如国内其他产品,且不支持用户自定义智能体。 http://X.AI 发布的 Grok1.5:支持 128k 上下文长度,性能翻倍,在 MATH、HumanEval、GSM8K、MMLU 测试中表现出色。 AI21 发布的 Jamba:创新的 SSMTransformer 架构,支持 256K 上下文长度,结合 Joint Attention 和 Mamba 技术,提升长上下文吞吐量。
2025-03-17
我在写小说,怎么让AI在写作时能很好地根据整体故事情节和上下文进行故事的展开和描写
以下是一些让 AI 在写作小说时能很好地根据整体故事情节和上下文进行故事展开和描写的方法: 1. 创作穿越故事的 Prompt 时,明确以下内容: 标题:“generate:小说的标题” 设置:“generate:小说的情景设置细节,包括时间段、地点和所有相关背景信息” 主角:“generate:小说主角的名字、年龄、职业,以及他们的性格和动机、简要的描述” 反派角色:“generate:小说反派角色的名字、年龄、职业,以及他们的性格和动机、简要的描述” 冲突:“generate:小说故事的主要冲突,包括主角面临的问题和涉及的利害关系” 对话:“generate:以对话的形式描述情节,揭示人物,以此提供一些提示给读者” 主题:“generate:小说中心主题,并说明如何在整个情节、角色和背景中展开” 基调:“generate:整体故事的基调,以及保持背景和人物的一致性和适当性的说明” 节奏:“generate:调节故事节奏以建立和释放紧张气氛,推进情节,创造戏剧效果的说明” 其它:“generate:任何额外的细节或对故事的要求,如特定的字数或题材限制” 根据上面的模板生成为特定题材小说填充内容,并分章节,生成小说的目录。 2. 接下来,让 AI 一段一段进行细节描写。为确保文章前后一致,先让 AI 帮助写故事概要和角色背景介绍,并在其基础上按自己的审美略做修改。 3. 可以让 AI 以表格的形式输出细节描述。这样做有三个好处: 打破 AI 原本的叙事习惯,避免陈词滥调。 按编号做局部调整很容易,指哪改哪,别的内容都能够稳定保持不变。 确保内容都是具体的细节,避免整段输出时缩减导致丢光细节只有笼统介绍。 4. 把生成的表格依次复制粘贴,让 AI 照着写文章,偶尔根据需要给 AI 提供建议。 5. 注意小说大赛的要求,如最后的作品必须是 AI 直接吐出来的,不能有任何改动,不能超过规定字数等。如果需要修改,可能会遇到像 GPT4 记性不好或 Claude 改掉关键情节等问题。
2025-01-26
ai能够回复多少内容和它的上下文限制有关吗
AI 能够回复的内容与其上下文限制有关。 首先,上下文在英文中通常翻译为“context”,指的是对话聊天内容前、后的信息。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 不同的 AI 平台有不同的限制方式。例如,Claude 基于 token 限制上下文,简单理解就是每次和 AI 对话,所有内容字数加起来不能太多,如果超过了,它就会忘记一些内容,甚至直接提示要另起一个对话。ChatGPT 则限制会话轮数,比如在一天之中,和它会话的次数有限制,可能 4 个小时只能说 50 句话。 应对这些限制的策略包括将复杂任务分解为小模块、定期总结关键信息以及在新会话中重新引入重要上下文。
2024-11-15
回复限制和上下文限制是一样的吗
回复限制和上下文限制不是一样的概念。 上下文(英文通常翻译为 context)指对话聊天内容前、后的内容信息。使用时,上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 回复限制通常是指对模型生成回复内容的各种约束条件,例如让模型基于一个固定知识片段去回复内容,为避免模型产生幻觉而对提示词进行优化,将 Constraints 前置以更好地控制模型行为。例如在一些测试中,会出现模型在没有上下文时不回复,按照提供的知识准确回复但透露原文,知识片段大小影响回复,以及有错误知识片段时不回复等情况,这表明模型在处理用户输入时会进行一定程度的推理和验证,生成回复时会考虑多种因素,包括上下文的准确性、问题的合理性以及模型内部的约束机制等。
2024-11-15
上下文窗口和 tokens限制
以下是关于上下文窗口和 tokens 限制的详细解释: Token 方面: Token 是大模型语言体系中的最小单元。人类语言发送给大模型时,会先被转换为大模型自己的语言,大模型推理生成答案后再翻译为人类能看懂的语言输出。 不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。 大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 上下文方面: 上下文指对话聊天内容前、后的内容信息,其长度和窗口都会影响大模型回答的质量。 上下文长度限制了模型一次交互中能够处理的最大 token 数量,上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 目前常见模型的 token 限制: Claude 2 100k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT 16k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT 4 32k 模型的上下文上限是 32k Tokens,即 32000 个 token。 Token 限制的影响: 对一次性输入和一次对话的总体上下文长度同时生效。 当达到上限时,不是停止对话,而是遗忘最前面的对话,类似于鱼的短暂记忆。 查看 token 使用量: 对于 GPT,可以打开查看实时生成的 tokens 消耗和对应字符数量。 需注意 GPT3 和 GPT3.5/4 的 token 计算方式不同,且英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。 Token 限制对 Prompt 编写的影响:理解前面的内容后,答案应在您的脑海中有雏形。
2024-11-15
上下文的含义
上下文指对话聊天内容前、后的内容信息。在 AI 领域,其英文通常翻译为 context。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 从算法视角看,更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力有着发展历程:从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token。 从产品视角看,长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。 模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化,这一点值得观察。 在提示词中,上下文包含外部信息或额外的上下文信息,能够引导语言模型更好地响应。
2024-10-26