Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)

Answer

以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法:

  1. 样例驱动的渐进式引导法
    • 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。
    • 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。
    • 用例测试,看看 AI 是否真正理解:找 1-3 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。
  2. Coze 全方位入门剖析
    • 标准流程创建 AI Bot(进阶推荐)
      • 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。
      • 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
Content generated by AI large model, please carefully verify (powered by aily)

References

一泽 Eze:样例驱动的渐进式引导法——利用 AI 高效设计提示词 ,生成预期内容

单凭个人努力,想独自产出一个高质量的样例并非易事。就如我在构建上面的初始样例后,不确定它与优秀的知识卡片还有多大差距。幸运的是,我们可以借助擅长扮演专家角色的AI来改进初始的正向样例。我选择使用Claude 3.5进行对话(读者也可以尝试GPT-4等其他AI工具),输入以下的初始指令:以下是AI返回的内容:我们可以通过AI的回复,侧面印证AI当前对样例的理解与建议。[heading4]提炼初始模板[content]当确保AI基本理解了我们的样例与需求目标时,我们就进入下一步”提炼初始模板”:[heading4]多轮反馈,直至达到预期[content]不过AI可能仍然会犯错,输出要求外的内容,这是很正常的情况。所以需要发起多轮的对话引导,使得AI不断修正自己的理解,直至双方达成共识。[heading4]用例测试,看看AI是否真正理解[content]找1~3个用例,让AI根据模板,尝试生成对应的知识卡片:以下是AI的回复:在这一步,需要读者根据自身需要,根据结果验证AI是否能够按照预期生成目标内容。如果不能,则需要我们和AI继续探讨不符合预期的地方,并要求调整(比如:我想要能够生成3-5个关联知识;渐进式原理说明,我觉得需要更加的通俗易懂;请你根据我的反馈再调整一下)。注:用例测试和多轮反馈的步骤比较灵活,你可以根据需要,在这两个环节内自由进行反馈,调整AI的理解与输出。像图中金字塔原理的知识卡片生成结果,已经非常符合我的预期,所以就可以进行下一步指令。

一泽 Eze:样例驱动的渐进式引导法——利用 AI 高效设计提示词 ,生成预期内容

单凭个人努力,想独自产出一个高质量的样例并非易事。就如我在构建上面的初始样例后,不确定它与优秀的知识卡片还有多大差距。幸运的是,我们可以借助擅长扮演专家角色的AI来改进初始的正向样例。我选择使用Claude 3.5进行对话(读者也可以尝试GPT-4等其他AI工具),输入以下的初始指令:以下是AI返回的内容:我们可以通过AI的回复,侧面印证AI当前对样例的理解与建议。[heading4]提炼初始模板[content]当确保AI基本理解了我们的样例与需求目标时,我们就进入下一步”提炼初始模板”:[heading4]多轮反馈,直至达到预期[content]不过AI可能仍然会犯错,输出要求外的内容,这是很正常的情况。所以需要发起多轮的对话引导,使得AI不断修正自己的理解,直至双方达成共识。[heading4]用例测试,看看AI是否真正理解[content]找1~3个用例,让AI根据模板,尝试生成对应的知识卡片:以下是AI的回复:在这一步,需要读者根据自身需要,根据结果验证AI是否能够按照预期生成目标内容。如果不能,则需要我们和AI继续探讨不符合预期的地方,并要求调整(比如:我想要能够生成3-5个关联知识;渐进式原理说明,我觉得需要更加的通俗易懂;请你根据我的反馈再调整一下)。注:用例测试和多轮反馈的步骤比较灵活,你可以根据需要,在这两个环节内自由进行反馈,调整AI的理解与输出。像图中金字塔原理的知识卡片生成结果,已经非常符合我的预期,所以就可以进行下一步指令。

安仔:Coze 全方位入门剖析 - 免费打造自己的 AI Agent (国内版)

1.目前国内版暂时只支持使用“云雀大模型”作为对话引擎,其携带上下文轮数默认为3轮,可修改区间是0到30,具体多少轮主要需要根据你的业务需求来决定,如果业务需求比较复杂,可以适当增加轮数,如果业务需求比较简单则反之,对于不懂的可以直接使用默认值。1.在Bot编排页面的“技能”区域,为Bot配置所需的技能。当然在插件区域,如果你不懂插件的话,可以直接选择区域右上角的“优化”按钮,让AI Bot根据你的提示词自动为你选择插件。1.如果你想自定义添加自己所需的插件,你可以直接点击插件区域的“+”号选择加入具体插件。1.像我的Bot需要获取AI新闻,我就添加一个新闻搜索接口,点击功能对应的“+”图标,选择相应的插件(如“阅读新闻>头条新闻>getToutiaoNews”)并添加。1.在技能的其他区域,你可以根据你的需求来配置知识库、数据库、工作流等操作,可以直接参考上面的相关介绍和我下面的实战操作来加深理解,当然你也可以参考官方文档来学习:https://www.coze.cn/docs/guides/function_overview[heading4]3.4.测试Bot[content]1.在Bot编排页面的“预览与调试”区域,测试Bot是否按照预期工作。你可以清除对话记录以开始新的测试。1.确保Bot能够理解用户的输入并给出正确的回应。

Others are asking
AI 产品
AI 产品具有多种类型和特点: 一些知名的 AI 产品致力于以更低的门槛帮助用户获得高质量的 Prompt,例如 GPTs 通过对话引导获取用户信息,Jasper 拆解场景流程按步骤收集信息,Leonardo 用画布和实时反馈加速 Prompt 提升,Novel 采用交互式、渐进式续写,c.ai 卷生态卷模型,筑梦岛探索更多场景的对话玩法,FlowGPT 以 Prompt 的分享为核心,小悟空数据驱动优化 Prompt 等。在这个过程中,发现了一些现象,如 GUI、LUI 的结合能极大提高产品体验,随着模型能力提升实时反馈越发重要,模型能力仍是核心竞争力,互联网产品的思维和方法论在 AI 产品中有所体现,产品还处于技术应用阶段,初级产品化和强行产品化特征明显,只有当用户无法直接感知使用的模型时,产品形态和范式才算成熟。 ProductHunt 2023 年度最佳产品榜单中的“最佳 AI 产品”类别入围者展示了生成式 AI 在理解复杂 prompt 方面的进步。例如,Dora AI 能用一次 prompt 生成网站,支持文字转网站、生成式 3D 互动和高级 AI 动画;Bard 是谷歌推出的官方 ChatGPT 竞争者;Chat.DID 是首个允许人们与 AI 进行视频聊天的 APP;Pika 是能将创意转化为动态视频的概念视频平台。 市面上还有 100 个应用 AI 的产品,主要涉及以下方面: 辅助创作与学习:如 AI 智能写作助手、语言学习助手、诗歌创作助手、书法字体生成器、漫画生成器等。 推荐与规划:包括 AI 图像识别商品推荐、美食推荐平台、旅游行程规划器、时尚穿搭建议平台、智能投资顾问等。 监控与预警:如 AI 宠物健康监测设备、家居安全监控系统、天气预报预警系统、医疗诊断辅助系统等。 优化与管理:涉及办公自动化工具、物流路径优化工具、家居清洁机器人调度系统、金融风险评估工具等。 销售与交易:有 AI 艺术作品生成器、书法作品销售平台、摄影作品销售平台、汽车销售平台、房地产交易平台等。这些项目为创业者提供了丰富选择和广阔发展前景。
2025-03-18
长论文翻译用哪个AI合适
以下是一些适合长论文翻译的 AI 工具: 1. 智谱 AI 大模型开放平台:其 GLM 系列模型凭借强大的语义理解能力,能够快速总结论文内容、进行精准翻译。模型通用性强,能适应不同学科和复杂文本,为研究工作提速。在使用前,需将海量文献转换为可供模型解析的文本格式,可借助平台工具完成文件内容的提取。 2. 360AI 浏览器:能发挥大模型的优点,把要点、简介、重点提炼出来,而且还能够自动翻译。对于英文不好的用户,还能将很长的英文论文翻译成中文、做提炼甚至改写为中学生作文水平。
2025-03-18
用AI绘制图表
以下是一些可用于 AI 绘制图表的工具和平台,以及使用步骤和示例: 工具和平台: 1. Creately 简介:在线绘图和协作平台,利用 AI 功能简化图表创建过程,适合绘制流程图、组织图、思维导图等。 功能:智能绘图功能,可自动连接和排列图形;丰富的模板库和预定义形状;实时协作功能,适合团队使用。 官网:https://creately.com/ 2. Whimsical 简介:专注于用户体验和快速绘图的工具,适合创建线框图、流程图、思维导图等。 功能:直观的用户界面,易于上手;支持拖放操作,快速绘制和修改图表;提供多种协作功能,适合团队工作。 官网:https://whimsical.com/ 3. Miro 简介:在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制,如思维导图、用户流程图等。 功能:无缝协作,支持远程团队实时编辑;丰富的图表模板和工具;支持与其他项目管理工具(如 Jira、Trello)集成。 官网:https://miro.com/ 4. Lucidchart 简介:强大的在线图表制作工具,集成了 AI 功能,可以自动化绘制流程图、思维导图、网络拓扑图等多种示意图。 功能:拖放界面,易于使用;支持团队协作和实时编辑;丰富的模板库和自动布局功能。 官网:https://www.lucidchart.com/ 5. Microsoft Visio 简介:专业的图表绘制工具,适用于复杂的流程图、组织结构图和网络图。其 AI 功能可以帮助自动化布局和优化图表设计。 功能:集成 Office 365,方便与其他 Office 应用程序协同工作;丰富的图表类型和模板;支持自动化和数据驱动的图表更新。 官网:https://www.microsoft.com/enus/microsoft365/visio/flowchartsoftware 6. Diagrams.net 简介:免费且开源的在线图表绘制工具,适用于各种类型的示意图绘制。 功能:支持本地和云存储(如 Google Drive、Dropbox);多种图形和模板,易于创建和分享图表;可与多种第三方工具集成。 官网:https://www.diagrams.net/ 使用步骤: 1. 选择工具:根据具体需求选择合适的 AI 绘图工具。 2. 创建账户:注册并登录该平台。 3. 选择模板:利用平台提供的模板库,选择适合需求的模板。 4. 添加内容:根据需求,添加并编辑图形和文字。利用 AI 自动布局功能优化图表布局。 5. 协作和分享:如果需要团队协作,可以邀请团队成员一起编辑。完成后导出并分享图表。 示例: 假设需要创建一个项目管理流程图,可以按照以下步骤使用 Lucidchart: 1. 注册并登录:https://www.lucidchart.com/ 2. 选择模板:在模板库中搜索“项目管理流程图”。 3. 编辑图表:根据项目需求添加和编辑图形和流程步骤。 4. 优化布局:利用 AI 自动布局功能,优化图表的外观。 5. 保存和分享:保存图表并与团队成员分享,或导出为 PDF、PNG 等格式。 利用这些 AI 工具,您可以快速、高效地创建专业的示意图,满足各种工作和项目需求。请注意,内容由 AI 大模型生成,请仔细甄别。
2025-03-18
长文本文件用哪个AI处理
对于处理长文本文件,以下是一些相关的 AI 工具和方法: 1. Whisper API:默认情况下仅支持小于 25MB 的文件。若文件更长,需将其分成小于 25MB 的块或使用压缩后格式。可使用 PyDub 开源 Python 软件包来拆分声频文件,但 OpenAI 对其可用性或安全性不作保证。您还可以使用提示来提高 Whisper API 生成的转录质量,例如处理特定单词或缩略语的识别错误、保留分段文件的上下文、避免标点符号的省略等。 2. 通义千问的 Qwen2.51M 大模型:推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT4omini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速。在上下文长度为 100 万 Tokens 的大海捞针任务中表现较好。对于更复杂的长上下文理解任务,可参考相关测试集。其优势包括长文本处理能力强、推理速度提升、上下文长度扩展等。开源平台有 Huggingface(https://huggingface.co/spaces/Qwen/Qwen2.51MDemo)和 Modelscope(https://www.modelscope.cn/studios/Qwen/Qwen2.51MDemo)。
2025-03-18
我应该怎么学习AI
以下是关于如何学习 AI 的建议: 一、了解 AI 基本概念 1. 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 2. 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 二、开始 AI 学习之旅 1. 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 2. 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 三、选择感兴趣的模块深入学习 AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。同时,建议掌握提示词的技巧,它上手容易且很有用。 四、实践和尝试 1. 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 2. 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 五、体验 AI 产品 1. 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 2. 通过与这些 AI 产品的对话,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 六、中学生学习 AI 的特别建议 1. 从编程语言入手学习,如 Python、JavaScript 等,学习编程语法、数据结构、算法等基础知识。 2. 尝试使用 AI 工具和平台,如 ChatGPT、Midjourney 等,探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识,包括基本概念、发展历程、主要技术如机器学习、深度学习等,以及在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目,如参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态,关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展,思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得自己的成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2025-03-18
如何利用WaytoAGI系统学习AI智能体
利用 WaytoAGI 系统学习 AI 智能体可以参考以下内容: 1. 先精美地解释六大策略,参加小七姐在社区带来的共学课程及直播分享和回放,像喂饭教程般帮助理解 prompt。每个板块下有共学快闪,社区老师会带着大家动手操作并讲解思路,还提到官方最佳 prompt 有 6 个实践办法,看熟任意一个即可。 2. 了解到智能体由大语言模型衍生而来,提示词很关键。学习智能体进阶案例拆解,推荐景淮老师的相关成果。同时知晓扣子、千帆百炼属于智能体范畴,扣子更偏 ToC 应用,所以有专门讲解扣子相关内容。 3. 学习 AI agent 可能较痛苦,建议先吃透 prompt 再看相关内容。官方文档内容很全面,包含市面上 cos 的教程等。社区小伙伴参加 cos 比赛常拿大奖,有共学活动,获奖小伙伴会分享经验。cos 平台可用于工作生产,有很多功能,感兴趣可体验其官网,能进行对话感受功能。 4. 理解工具方面,AI Agent 有效使用工具的前提是全面了解工具的应用场景和调用方法。利用 LLM 强大的 zeroshot learning 和 fewshot learning 能力,AI Agent 可以通过描述工具功能和参数的 zeroshot demonstartion 或提供特定工具使用场景和相应方法演示的少量提示来获取工具知识。 5. 使用工具方面,AI Agent 学习使用工具的方法主要包括从 demonstartion 中学习和从 reward 中学习(清华有一篇从训练数据中学习的文章)。这包括模仿人类专家的行为,以及了解其行为的后果,并根据从环境和人类获得的反馈做出调整。 6. 了解具身智能,在追求人工通用智能(AGI)的征途中,具身 Agent 正成为核心的研究范式,它强调将智能系统与物理世界的紧密结合。与传统的深度学习模型相比,LLMbased Agent 不再局限于处理纯文本信息或调用特定工具执行任务,而是能够主动地感知和理解其所在的物理环境,进而与其互动。
2025-03-18
AI对话,怎么去AI化
要实现 AI 对话的去 AI 化,可以从以下几个方面入手: 1. 语言风格: 使其具有生活化的语言习惯,使用语气词如嗯、吧、啊、哈哈哈等,增加口语化词语。 塑造搞笑人设,通过设置夸张、比喻、双关、对比、反差等手法实现幽默。 让回答变得不正经、放肆,例如大胆地开一些“玩笑”,但要注意避免侵犯他人。 2. 交流技巧: 像教实习生一样,给 AI 明确的“操作手册”,清晰表达自己的需求。 像拼乐高一样,将复杂任务拆成小模块,逐个击破。 像打乒乓球一样,进行有来有往的多回合交流,不断优化答案。 3. 准备工作: 交流前通过主题阅读相关书籍让大脑进入相关氛围。 清晰表达脑海中的想法,不能放弃指挥权,不能完全依赖 AI 随机生成。 注意框架的使用,将复杂场景拆细,同时根据不同场景灵活调整框架的维度。 4. 提示词运用: 根据场景决定提示词的约束和泛化,如公司固定的 SOP 需强约束,探讨发散场景则利用泛化能力。 练习提示词的压缩表达,先将想法用一段话描述,再浓缩,尝试用一个词或一个字精准概括。 需要注意的是,在让 AI 变得更像人类交流的过程中,最终还是要以内容质量为核心。
2025-03-18
谷歌AI 生成访谈对话
以下是关于谷歌 AI 相关的信息: 谷歌推出的 NotebookLM ,有人称它为笔记工具,有人说它是 AI 学习工具,还有人认为它是播客生成器。体验地址:https://notebooklm.google/ 。只要上传文档、音频或感兴趣的网页链接,如 YouTube 链接,它就能生成专业的播客,其中两个主持人的对话生动自然,包含各种人类的语气和行为。 Character.ai 是一款由 Noam Shazeer 和 Daniel De Freitas 于 2022 年 9 月创建的基于 LLM 的聊天机器人网站。该网站预先创建了许多聊天角色,用户可以与之交流,也能自己创作角色。与 ChatGPT 不同,它更注重人格属性,试图满足社交、情感、陪伴、支持等需求,还支持创建房间,多人可用不同角色聊天。目前没有商业变现途径,但计划在不久的将来推出付费订阅模式,也可能采用广告支持模式。 生成式 AI Studio : 详细功能介绍: 创建对话:包括指定对话上下文、示例、测试对话。 集成到应用程序:提供 API 和 SDK ,需下载适合编程语言(如 Python 或 Curl )的 Vertex AI SDK ,按照示例代码和 API 文档将代码插入应用程序。 调整大型语言模型的挑战与解决方案: 挑战:微小的措辞或词序变化可能影响模型结果,模型响应可能不完全可预测,模型响应质量不一,微调大型模型可能耗时且成本高,为大模型提供服务可能涉及额外麻烦和成本。 解决方案:参数有效调整,通过仅训练一部分参数来减轻微调 LLM 的挑战,这些参数可能是现有模型参数的子集或全新的参数,例如向模型添加额外的层或额外的嵌入到提示中。
2025-03-17
我想用扣子搭建有着我自己思维的智能体,让他能进行日常对话和创作
以下是用扣子搭建具有自己思维的智能体,使其能进行日常对话和创作的步骤: 1. 创建智能体:使用单 Agent 对话流模式。 2. 编排对话流:点击创建新的对话流并与智能体关联,在获取笔记详情节点和笔记评论节点分别配置 cookie,note_link 使用开始节点的 USER_INPUT,使用代码节点进行数据处理,注意代码节点输出的配置格式。 3. 测试:找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据,同时在智能体的编排页面进行测试,确保对话流执行成功。 4. 发布:点击发布后选择多维表格,进行配置,包括输出类型选文本、输入类型选字段选择器,完善上架信息,填写表格,选发布范围时可选择仅自己可用以加快审核。 此外,扣子的知识库功能强大,可上传和存储知识内容,提供多种查找方法,能解决大模型的知识不足问题。在智能体中可运用自己的知识库,如收集地道口语表达的短句。还可为智能体添加开场白以提升体验。 在多智能体模式设置中,包括全局设置和多个代理之间的编排协调。全局设置涉及角色设定与回复逻辑、记忆管理和对话体验等,在设计智能体交互流程时应形成完整互动链条,采用循环机制而非单向流程,可通过旅游场景中景点推荐、路线规划和食宿安排等智能体的例子来理解。
2025-03-16
如何与AI对话
以下是关于如何与 AI 对话的相关内容: 在 Trae 中指定上下文进行 AI 对话的方式有以下几种: 1. 方式一:将编辑器内的内容作为上下文 当编辑器中有正在编辑的代码文件时,AI 助手默认能看到当前文件,可直接提问与当前文件相关的问题。 若对文件中的某段代码提问:选中代码,点击悬浮菜单中的添加到对话按钮,将选中内容作为上下文添加至侧边对话框。指定的上下文会显示在侧边对话底部的输入框,还可继续添加编辑器中的其他内容片段或其他来源的上下文,然后在上下文旁输入问题并发送给 AI 助手。 2. 方式二:将终端中的内容作为上下文 若对终端中的输出内容提问(如修复报错):在终端中点击输出内容片段,在内容片段区域的右上角点击添加到对话按钮,将选中内容作为上下文添加至侧边对话框。指定的上下文会显示在侧边对话底部的输入框,还可继续添加终端中的其他内容片段或其他来源的上下文,然后在上下文旁输入问题并发送给 AI 助手。 3. 方式三:使用键添加上下文 在侧边对话的输入框中,可通过符号添加多种类的上下文,包括代码、文件、文件夹和工作区。通常情况下,列表中将展示与编辑器中当前打开文件相关的内容作为推荐的上下文,但仍可自行搜索所需的上下文并添加到输入框中。基于问题,可以组合添加各种来源的相关上下文(例如同时添加代码和文件)。 通过Code,可将函数或类的相关代码作为与 AI 助手对话的上下文。列表中默认展示当前编辑器内打开的文件中的函数或类。选择前,可预览列表中推荐的函数或类的相关代码。若推荐的内容非所需,可通过关键词搜索所需的函数或类。 若 Trae 中不存在对应语言的 LSP,请提前安装,否则可能导致无法识别代码符号。具体步骤为:在输入框中输入,或直接点击输入框左下角的引用按钮,输入框上方显示上下文类型选择列表;在列表中选择 Code(或在符号后手动输入 Code),然后按下回车键,列表将展示编辑器中当前打开的文件中存在的函数和类。将鼠标悬浮在列表中的某个条目后,左侧会展示该函数或类的代码内容,供预览;若推荐的函数和类非所需,在Code:后输入想要的函数或类的名称或关键词;从列表中选择需指定为上下文的函数或类,在输入框的代码标识后,输入问题并发送。 此外,关于文本补全(Text completion): API 非常擅长与人类甚至自己进行对话。只需几行指令,就能看到 API 作为智能客服聊天机器人,能智能地回答问题,或作为机智的对话伙伴制造笑话和双关语。关键在于告诉 API 它应该如何行事,然后提供一些例子。创建一个能够进行对话的聊天机器人,要告诉 API 意图和如何行事,还要给 API 赋予一个身份。为创建有趣且有用的聊天机器人,可提供几个问题和答案示例,向 API 展示如何回复。 API 是一种语言模型,熟悉各种用于表达信息的单词和字符的方式,包括自然语言文本、代码以及英语以外的其他语言,还能够理解内容,从而进行总结、转换并以不同的方式表达。在此示例中,展示了如何将 API 从英语转换为法语、西班牙语和日本语。若将英文翻译成 API 不熟悉的一种语言,则需要提供更多示例甚至微调模型才能流利地完成。
2025-03-12
AI赋能办公,包含AI+对话、AI+写作与PPT、图片与视频生成和数据分析,还有面向HR、行政、财务、营销等岗位的AI赋能课
以下是关于 AI 赋能办公的相关内容: GPT 使用场景: 1. 内容生成:可以生成文章、故事、诗歌、歌词等内容。 演示:https://chat.openai.com/ 、https://bard.google.com/extensions 、https://claude.ai/ 2. 聊天机器人:作为聊天机器人后端,提供自然对话体验。 演示: 3. 问答系统:为用户提供准确答案。 4. 文本摘要:生成文本的摘要或概述。 5. 机器翻译:虽非专门设计,但有不错表现。 6. 群聊总结: 7. 代码生成:GPT3 及后续版本可生成代码片段,帮助解决编程问题。 8. 教育:用于教育领域,帮助学生解答问题或提供学习材料。 9. 浏览器插件:webpilot 10. PDF 对话:演示 www.chatpdf.com PPT 相关: 1. 2. AiPPT.cn:爱设计&AiPPT.cn 是一家 AIGC 数字科技企业,致力于打造“下一代个人与组织的 Ai 工作站”。旗下产品包括 AiPPT 等超过 10 余款应用 AI 能力的内容创作工具。23 年在 Ai+办公领域推出 AiPPT.cn/AiPPT.com,帮助用户“一分钟一键生成 PPT”,是国内 AiPPT 赛道创业公司第 1 的产品,全球第 4,国内所有 AIGC 产品 PC 端 Top10。目标市场主要是市场、运营、销售、人力、财务、行政、技术、产品、总助、公务员、学生、老师等基层及中高层管理岗位人员。 3. 在众多的 PPT 工具中,AI 带来便捷高效体验。深入了解了五大 AI PPT 工具:MindShow、爱设计、闪击、Process ON、WPS AI,它们各自有鲜明特色和擅长场景。选择合适工具要根据实际需求调整,试用和体验比盲目跟风更明智。 其他: 1. 音视频提取总结:https://bibigpt.co/r/AJ 2. 播客总结:https://podwise.xyz/dashboard/trending 3. 生成脑图:https://xmind.ai/editor/
2025-03-12
如何对一组对话进行分析,并且进行评分
对一组对话进行分析和评分通常可以遵循以下步骤和依据: 1. 明确任务形式和要求:例如给定一组参考文档和问题,要求模型按照指定格式生成答案,问题包含多种类型。 2. 确定评测指标: 赛事主办方会根据选手提供的回答与参考答案进行对比,并根据关键字段命中情况进行评分。 关键词命中总次数表示在题目中命中 keylist 中元素的总次数(包括多小题)。 关键词总数表示 keylist 中定义的关键字段总数。 小题数指每个题目包含的小题数量。 得分:结果完全正确的回答得满分 1 分,部分正确则根据命中比例计算得分。 3. 示例参考:如在金融行业·大模型挑战赛中,对包含多个小题的多轮对话题目进行评测计算,根据每个小题的回答正确情况给出相应得分,最后计算总得分。 4. 非聊天场景的情绪分析:对于非聊天场景,如情绪分析,可以使用特定的提示,如让助手对语音数据中的情绪进行 110 的评分,并解释评分原因。 5. 问答对话场景:在类似智谱 BigModel 共学营的活动中,根据对问题的理解和准确回答能力、回答的真实性和有趣程度等方面进行评分,还可以使用特定的测试问题如弱智吧问题来评价提示词的生成效果。
2025-03-11
产品经理想进入AI行业,成为AI产品经理,应该怎么准备,能够快速应付面试拿到offer?我的背景是过去3年集中在用户功能产品,有过1份AI多轮对话解决用户求职问题的AI项目经历
如果产品经理想进入 AI 行业成为 AI 产品经理并快速应付面试拿到 offer,可以从以下几个方面准备: 1. 了解 AI 市场: 鱼龙混杂,求职者要做好信息甄别。即使面试通过拿到 offer,除了看 boss 直聘的招聘评价,一定要提前收集其他信息,如在脉脉上搜一下这家公司靠不靠谱。 一些公司实际上没搞懂用 AI 能为自己企业带来什么价值,只是处于焦虑或跟风心态要做 AI,这部分企业可以聊,但要求求职者要有咨询和商业化的思维,能帮公司厘清业务增长机会。 不同公司对 AI 产品经理的定位不同,所以招聘市场上对 AI 产品经理的岗位职责和任职要求也不同,慢慢会统一标准,这也是产品经理转型的机会。 有行业沉淀和认知的产品经理转型会更有机会,类似之前的“互联网+”,目前应用层的机会在“AI+行业”,只懂 AI 或只懂行业是不够的。还有就是业务创新,找到细分的场景痛点并完成 PMF 验证,海外有很多优秀案例。 2. 掌握岗位技能: 本科及以上学历,计算机科学、人工智能、机器学习相关专业背景。 熟悉 ChatGPT、Llama、Claude 等 AI 工具的使用及原理,并具有实际应用经验。 熟练掌握 ChatGPT、Midjourney 等 AI 工具的使用及原理。 负责制定和执行 AI 项目,如 Prompt 设计平台化方法和模板化方法。 了解并熟悉 Prompt Engineering,包括常见的 Prompt 优化策略(例如 CoT、Fewshot 等)。 对数据驱动的决策有深入的理解,能够基于数据分析做出决策。 具有创新思维,能够基于业务需求提出并实践 AI first 的解决方案。 对 AI 技术与算法领域抱有强烈的好奇心,并能付诸实践。 对 AIGC 领域有深入的理解与实际工作经验,保持对 AI 技术前沿的关注。 具备一定的编程和算法研究能力,能应用新的 AI 技术和算法于对话模型生成。 具有一定的编程基础,熟练使用 Python、Git 等工具。 需要注意的是,观察上面的岗位需求,其实公司并不是需要一个 prompt 工程师,而是一个 AI 互联网产品经理。
2025-02-25
如何利用多轮对话做Agent问答
利用多轮对话做 Agent 问答可以从以下几个方面考虑: 1. 从产品角度: 思考用户为何想使用,例如通过探索历史新闻让用户更好地了解自身背景、成长环境,从中学习成长并获得有趣互动体验。 明确 Agent 是谁及其性格,比如设定为知识渊博、温暖亲切、富有同情心的历史新闻探索向导,负责新闻解析和历史背景分析。 确定提供新闻的时间,如用户出生那天及那一周的重要新闻事件。 规划除新闻外的能力,如提供历史背景分析、相关画作、生活方式分析,甚至加入神秘主义者和心理学家角色回应用户。 设计多 Agent 出场顺序和使用方式,通过多角色互动设计,让用户体验多层次对话,从基本问答到深度讨论,逐步引导用户探索。 2. 基于 LLM 的大脑模块: 自然语言交互方面:LLM 应具备多轮对话能力,能理解自然语言并生成连贯、上下文相关的回复,还应具备出色的生成能力和意图理解能力,但要注意模糊指令可能带来的挑战。 知识方面:包括语言知识(词法、句法、语义学和语用学)、常识知识(如药和伞的用途)、专业领域知识(如编程、医学),但要注意知识可能过时或错误,需通过重新训练或编辑 LLM 解决。 记忆方面:具备记忆机制,存储过去的观察、思考和行动,通过提高输入长度限制、记忆总结、用向量或数据结构压缩记忆等策略提升记忆,Agent 能检索记忆以访问相关信息,包括自动检索和交互式记忆对象。 推理和规划方面:基于证据和逻辑进行推理,这对解决问题和决策至关重要。
2025-01-08
多轮对话怎么做
多轮对话的实现方式如下: 1. 核心思路是让 AI 和您对目标的理解达成共识,保持一致,然后再开始创作,这样能增加创作的可控性。比如通过对生成图像的理解诱导和迭代来实现。 2. 有效的部分包括: 约束的弹性,在探索阶段给 AI 一定自由空间,而 prompt 一般是强约束的,更适合确定性的目标或者用于总结阶段。 情绪,情绪化能局部提升 AI 效能。 共识,您的理解和 AI 的理解要高度一致,在高共识性的背景下,调整和控制会更有效。 3. 注意事项: 如果经历很多轮的对话,可能会导致此次对话超过模型的 token 限制,ChatGPT 会遗忘之前的内容。建议当经历多轮对话后,可以新建一个聊天窗口,把完整的代码和需求背景输入给 ChatGPT,重新开启新的提问。 在自然的人类语言交流中,多轮对话常常伴随着指代问题的产生。为了提升对话系统的性能和用户体验,需要开发提示词来解决多轮对话中的指代消解问题,并确保模型能够在连续的交流中提供准确、连贯的回答。由于“指代消解”需要多轮对话来完成,单次交互无法达成,所以需要将测试形式进行转换,先解决“指代消解”的问题,然后再进行下一轮答复。
2025-01-07
单轮对话与多轮对话调用
单轮对话与多轮对话调用: 聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息格式化,然后交替使用用户消息和助手消息。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 百炼相关 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 记得第一天提到,规定模型不能用搜索和投喂输出文本。比赛是不是只限在提示词调试的范围内呢? 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
单轮对话与多轮对话调用
聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息(“system”)格式化,然后交替使用用户消息(“user”)和助手消息(“assistant”)。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 此外,还存在一些与百炼相关的 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
模型微调怎么解决多轮对话容易受到上轮对话的影响问题
在解决模型微调中多轮对话容易受到上轮对话影响的问题时: 对于多轮对话,现实中常伴随指代问题,如使用“它”“他们”“我们”等代词。若仅依据原始提问检索知识片段,可能导致结果不精确或无法检索到信息。同时,对模型回复内容的限制可能影响多轮对话流畅性甚至中断。 为提升对话系统性能和用户体验,需开发提示词解决多轮对话中的指代消解问题,确保模型能在连续交流中提供准确连贯回答。但由于“指代消解”需多轮对话完成,单次交互无法达成,所以要转换测试形式,先解决“指代消解”问题再进行下一轮答复。 首先准备指代消解所需提示词,这里使用的“指代消解”提示词是用 CoT 写出的思维链,列举不同推理情景,让模型适应并推理出需消解的代词,再根据结果重新组织问题。 接着复现指代消解步骤,如进行第一轮对话,提出问题“尼罗河是什么?”,系统召回相关知识片段并回复,然后开始指代消解。 另外,聊天模型通过一串聊天对话输入并返回生成消息输出。聊天格式虽为多轮对话设计,但对单轮任务也有用。会话通过 messages 参数输入,包含不同角色和内容的消息对象数组。通常会话先有系统消息设定助手行为,再交替使用用户和助手消息。当指令涉及之前消息时,包含聊天历史记录有帮助,若超出模型限制需缩减会话。
2024-11-21
目前支持上下文长度最长的是什么AI
目前支持上下文长度较长的 AI 有以下几种: Kimi:是国内最早支持 20 万字无损上下文的 AI,现在已提升到 200 万字,对长文理解表现出色,适合处理长文本或大量信息的任务,但在文字生成和语义理解、文字生成质量方面可能不如国内其他产品,且不支持用户自定义智能体。 http://X.AI 发布的 Grok1.5:支持 128k 上下文长度,性能翻倍,在 MATH、HumanEval、GSM8K、MMLU 测试中表现出色。 AI21 发布的 Jamba:创新的 SSMTransformer 架构,支持 256K 上下文长度,结合 Joint Attention 和 Mamba 技术,提升长上下文吞吐量。
2025-03-17
我在写小说,怎么让AI在写作时能很好地根据整体故事情节和上下文进行故事的展开和描写
以下是一些让 AI 在写作小说时能很好地根据整体故事情节和上下文进行故事展开和描写的方法: 1. 创作穿越故事的 Prompt 时,明确以下内容: 标题:“generate:小说的标题” 设置:“generate:小说的情景设置细节,包括时间段、地点和所有相关背景信息” 主角:“generate:小说主角的名字、年龄、职业,以及他们的性格和动机、简要的描述” 反派角色:“generate:小说反派角色的名字、年龄、职业,以及他们的性格和动机、简要的描述” 冲突:“generate:小说故事的主要冲突,包括主角面临的问题和涉及的利害关系” 对话:“generate:以对话的形式描述情节,揭示人物,以此提供一些提示给读者” 主题:“generate:小说中心主题,并说明如何在整个情节、角色和背景中展开” 基调:“generate:整体故事的基调,以及保持背景和人物的一致性和适当性的说明” 节奏:“generate:调节故事节奏以建立和释放紧张气氛,推进情节,创造戏剧效果的说明” 其它:“generate:任何额外的细节或对故事的要求,如特定的字数或题材限制” 根据上面的模板生成为特定题材小说填充内容,并分章节,生成小说的目录。 2. 接下来,让 AI 一段一段进行细节描写。为确保文章前后一致,先让 AI 帮助写故事概要和角色背景介绍,并在其基础上按自己的审美略做修改。 3. 可以让 AI 以表格的形式输出细节描述。这样做有三个好处: 打破 AI 原本的叙事习惯,避免陈词滥调。 按编号做局部调整很容易,指哪改哪,别的内容都能够稳定保持不变。 确保内容都是具体的细节,避免整段输出时缩减导致丢光细节只有笼统介绍。 4. 把生成的表格依次复制粘贴,让 AI 照着写文章,偶尔根据需要给 AI 提供建议。 5. 注意小说大赛的要求,如最后的作品必须是 AI 直接吐出来的,不能有任何改动,不能超过规定字数等。如果需要修改,可能会遇到像 GPT4 记性不好或 Claude 改掉关键情节等问题。
2025-01-26
ai能够回复多少内容和它的上下文限制有关吗
AI 能够回复的内容与其上下文限制有关。 首先,上下文在英文中通常翻译为“context”,指的是对话聊天内容前、后的信息。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 不同的 AI 平台有不同的限制方式。例如,Claude 基于 token 限制上下文,简单理解就是每次和 AI 对话,所有内容字数加起来不能太多,如果超过了,它就会忘记一些内容,甚至直接提示要另起一个对话。ChatGPT 则限制会话轮数,比如在一天之中,和它会话的次数有限制,可能 4 个小时只能说 50 句话。 应对这些限制的策略包括将复杂任务分解为小模块、定期总结关键信息以及在新会话中重新引入重要上下文。
2024-11-15
回复限制和上下文限制是一样的吗
回复限制和上下文限制不是一样的概念。 上下文(英文通常翻译为 context)指对话聊天内容前、后的内容信息。使用时,上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 回复限制通常是指对模型生成回复内容的各种约束条件,例如让模型基于一个固定知识片段去回复内容,为避免模型产生幻觉而对提示词进行优化,将 Constraints 前置以更好地控制模型行为。例如在一些测试中,会出现模型在没有上下文时不回复,按照提供的知识准确回复但透露原文,知识片段大小影响回复,以及有错误知识片段时不回复等情况,这表明模型在处理用户输入时会进行一定程度的推理和验证,生成回复时会考虑多种因素,包括上下文的准确性、问题的合理性以及模型内部的约束机制等。
2024-11-15
上下文窗口和 tokens限制
以下是关于上下文窗口和 tokens 限制的详细解释: Token 方面: Token 是大模型语言体系中的最小单元。人类语言发送给大模型时,会先被转换为大模型自己的语言,大模型推理生成答案后再翻译为人类能看懂的语言输出。 不同厂商的大模型对中文的文本切分方法不同,通常 1Token 约等于 1 2 个汉字。 大模型的收费计算方法以及对输入输出长度的限制,都是以 token 为单位计量的。 上下文方面: 上下文指对话聊天内容前、后的内容信息,其长度和窗口都会影响大模型回答的质量。 上下文长度限制了模型一次交互中能够处理的最大 token 数量,上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 目前常见模型的 token 限制: Claude 2 100k 模型的上下文上限是 100k Tokens,即 100000 个 token。 ChatGPT 16k 模型的上下文上限是 16k Tokens,即 16000 个 token。 ChatGPT 4 32k 模型的上下文上限是 32k Tokens,即 32000 个 token。 Token 限制的影响: 对一次性输入和一次对话的总体上下文长度同时生效。 当达到上限时,不是停止对话,而是遗忘最前面的对话,类似于鱼的短暂记忆。 查看 token 使用量: 对于 GPT,可以打开查看实时生成的 tokens 消耗和对应字符数量。 需注意 GPT3 和 GPT3.5/4 的 token 计算方式不同,且英文的 Token 占用相对于中文较少,这也是很多中文长 Prompt 会被建议翻译成英文设定然后要求中文输出的原因。 Token 限制对 Prompt 编写的影响:理解前面的内容后,答案应在您的脑海中有雏形。
2024-11-15
上下文的含义
上下文指对话聊天内容前、后的内容信息。在 AI 领域,其英文通常翻译为 context。使用时,上下文长度和上下文窗口都会影响 AI 大模型回答的质量。上下文长度限制了模型一次交互中能够处理的最大 token 数量,而上下文窗口限制了模型在生成每个新 token 时实际参考的前面内容的范围。 从算法视角看,更宽的上下文窗口允许模型在推理时纳入训练数据中未找到的大量新的、特定于任务的信息,从而提高各种自然语言或多模式任务的性能。对越来越长的上下文进行数据建模的能力有着发展历程:从 Shannon 1948 提出的 2gram 语言模型、到 1990 年代和 2000 年代的现代 ngram 模型(5 个上下文 token),2010 年代的循环神经网络(RNN)达到数百个 token(Jozefowicz 等),到 2023 年 Anthropic 将上下文扩展到几十万 token。 从产品视角看,长上下文意味着 LLM 理解能力增强。从提示词到 RAG,都是为了增加给模型的上下文,进而让需求更明确,让模型理解得更好。从用数据训练模型、到指令微调,到提示词和 RAG,到大模型的超长下文,机器越来越像人了。提示词和 RAG 正在快速被弱化,但出于工程和商业考量,目前在很多领域还是主流,未来依然可能是一个混合状态。 模型上下文长度覆盖了书籍、电影、长视频等产品的通用长度,应该会引发相关链路上产品交互层的变化,这一点值得观察。 在提示词中,上下文包含外部信息或额外的上下文信息,能够引导语言模型更好地响应。
2024-10-26