Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有哪些高质量 sft 多轮对话数据集

Answer

高质量的SFT(Supervised Fine-Tuning)多轮对话数据集在训练对话系统时至关重要。以下是一些公认的高质量多轮对话数据集:

1. ConvAI2 Dataset

ConvAI2数据集是基于Persona-Chat数据集构建的,用于ConvAI2挑战赛。它包含了多轮对话,且每个对话都有明确的角色和背景信息,有助于训练更具个性化的对话系统。

2. DSTC系列数据集

DSTC(Dialogue State Tracking Challenge)系列数据集是多轮对话系统研究中的经典数据集,涵盖了多种任务和领域,如任务导向对话、对话状态跟踪等。

  • DSTC2: 专注于餐馆预订任务。
  • DSTC3: 扩展了DSTC2,增加了更多的任务和对话状态。
  • DSTC6: 涉及对话行为理解和对话状态跟踪。
  • 链接: DSTC Challenge

3. MultiWOZ Dataset

MultiWOZ(Multi-Domain Wizard of Oz)是一个大规模、多领域任务导向对话数据集,涵盖了多个对话场景,如餐馆预订、酒店预订、出租车预订等。数据集中的对话是由实际用户和客服人员通过Wizard-of-Oz方法生成的,质量较高。

4. Ubuntu Dialogue Corpus

Ubuntu Dialogue Corpus是一个大规模、多轮对话数据集,基于Ubuntu的IRC日志。数据集包含技术支持对话,适用于训练技术支持和问答系统。

5. CoQA Dataset

CoQA(Conversational Question Answering)数据集用于对话式问答系统的训练。数据集中每个对话包含一个给定的文本和相关的问题-回答对。

6. Topical-Chat Dataset

Topical-Chat数据集是微软创建的,用于开发和评估开放领域对话系统。数据集包括不同主题的多轮对话,涉及科技、娱乐、体育等多个领域。

7. Persona-Chat Dataset

Persona-Chat数据集包含多轮对话,每个对话参与者都有预定义的个人信息或“persona”,旨在开发更具个性化和情感的对话系统。

总结

这些数据集覆盖了多种对话场景和任务类型,是开发高质量对话系统的重要资源。在使用这些数据集进行训练时,可以结合具体的应用场景和需求,选择合适的数据集进行SFT。

Content generated by AI large model, please carefully verify (powered by aily)

References

LLM开源中文大语言模型及数据集集合

项目介绍:清洗/构造/翻译中文的ChatGPT数据,推进国内AI的发展,人人可炼优质中文Chat模型。本数据集为ChatGPT约九万个对话数据,由ShareGPT API获得(英文68000,中文11000条,其他各国语言)。项目所有数据最终将以CC0协议并入Multilingual Share GPT语料库。Guanaco地址:[https://huggingface.co/datasets/JosephusCheung/GuanacoDataset](https://huggingface.co/datasets/JosephusCheung/GuanacoDataset)数据集说明:一个使用Self-Instruct的主要包含中日英德的多语言指令微调数据集。chatgpt-corpus地址:[https://github.com/PlexPt/chatgpt-corpus](https://github.com/PlexPt/chatgpt-corpus)数据集说明:开源了由ChatGPT3.5生成的300万自问自答数据,包括多个领域,可用于用于训练大模型。SmileConv地址:[https://github.com/qiuhuachuan/smile](https://github.com/qiuhuachuan/smile)数据集说明:数据集通过ChatGPT改写真实的心理互助QA为多轮的心理健康支持多轮对话(single-turn to multi-turn inclusive language expansion via ChatGPT),该数据集含有56k个多轮对话,其对话主题、词汇和篇章语义更加丰富多样,更加符合在长程多轮对话的应用场景。

(3)ChatBot是怎么炼成的?

MOSS中文名为小苔藓,是上海复旦大学计算机系的类ChatGPT开源模型,也完整经过了SFT和PM阶段,但是PPO阶段使用了另外一种更加简单的方式。数据搜集如前文所说,对话数据的质量是调教ChatBot非常重要的因素,这里MOSS充分借助了ChatGPT的能力,协助生成instruction和conversation,如下所示用户提问instruction。人工写好符合HHH(helpfulness,harmlessness,and honesty)原则的种子问题,然后使用self-instrcution让ChatGPT进行扩展,得到更多的符合HHH的instruction多伦对话conversation。写一个prompt模板,输入由下面3部分组成,喂入ChatGPT,搜集输出结果,和输入拼接在一起,形成完整的多轮对话第一部分:介绍背景,描述是一个Human和AI的对话,让ChatGPT模拟这个对话第二部分:约束Human和AI的对话符合HHH原则第三部分:把上面经过self-instrcution生成的大量instruction作为对话初始状态经过上面的过程,就可以得到若干多伦对话conversation训练数据,将其切分为SFT和PM两部分,分别在对应的阶段使用。SFT&PM阶段训练方法跟InstructGPT和Anthropic差不多PPO阶段MOSS里首先列举了一下当得到了SFT和RM之后,如何进一步提高ChatBot表现的几种方法

LLM开源中文大语言模型及数据集集合

XrayGLM,首个会看胸部X光片的中文多模态医学大模型:地址:[https://github.com/WangRongsheng/XrayGLM](https://github.com/WangRongsheng/XrayGLM)简介:该项目为促进中文领域医学多模态大模型的研究发展,发布了XrayGLM数据集及模型,其在医学影像诊断和多轮交互对话上显示出了非凡的潜力。MeChat,中文心理健康支持对话大模型:地址:[https://github.com/qiuhuachuan/smile](https://github.com/qiuhuachuan/smile)简介:该项目开源的中文心理健康支持通用模型由ChatGLM-6B LoRA 16-bit指令微调得到。数据集通过调用gpt-3.5-turbo API扩展真实的心理互助QA为多轮的心理健康支持多轮对话,提高了通用语言大模型在心理健康支持领域的表现,更加符合在长程多轮对话的应用场景。MedicalGPT地址:[https://github.com/shibing624/MedicalGPT](https://github.com/shibing624/MedicalGPT)简介:训练医疗大模型,实现包括二次预训练、有监督微调、奖励建模、强化学习训练。发布中文医疗LoRA模型shibing624/ziya-llama-13b-medical-lora,基于Ziya-LLaMA-13B-v1模型,SFT微调了一版医疗模型,医疗问答效果有提升,发布微调后的LoRA权重。

Others are asking
sft是什么意思
“SFT”可能有多种含义。在音乐领域,它可能指某种特定的音乐风格,如“Swift”指快速和敏捷的音乐风格,常用于表现快速和敏捷的情感,如 Taylor Swift 的《Shake It Off》;“Swirling”指旋转和流动的音乐风格;“Swooning”指陶醉和倾倒的音乐风格;“Syllabic”指音节和节奏的音乐风格;“Symbiotic”指共生和互助的音乐风格。 在语音处理方面,“SFT”可能指短时傅里叶变换(Shorttime Fourier Transform,STFT)。语音通常是短时平稳信号,在进行傅里叶变换前一般要进行分帧,取音频的小片段进行短时傅里叶变换。其结果是一个复数,包括幅度和相位信息。能量频谱是振幅频谱的平方,通过对频域信号进行逆傅里叶变换可恢复时域信号。离散傅里叶变换计算复杂度高,可采用快速傅里叶变换简化。在实际应用中,对语音信号分帧加窗处理,视为短时傅里叶变换。
2024-11-17
如何利用多轮对话做Agent问答
利用多轮对话做 Agent 问答可以从以下几个方面考虑: 1. 从产品角度: 思考用户为何想使用,例如通过探索历史新闻让用户更好地了解自身背景、成长环境,从中学习成长并获得有趣互动体验。 明确 Agent 是谁及其性格,比如设定为知识渊博、温暖亲切、富有同情心的历史新闻探索向导,负责新闻解析和历史背景分析。 确定提供新闻的时间,如用户出生那天及那一周的重要新闻事件。 规划除新闻外的能力,如提供历史背景分析、相关画作、生活方式分析,甚至加入神秘主义者和心理学家角色回应用户。 设计多 Agent 出场顺序和使用方式,通过多角色互动设计,让用户体验多层次对话,从基本问答到深度讨论,逐步引导用户探索。 2. 基于 LLM 的大脑模块: 自然语言交互方面:LLM 应具备多轮对话能力,能理解自然语言并生成连贯、上下文相关的回复,还应具备出色的生成能力和意图理解能力,但要注意模糊指令可能带来的挑战。 知识方面:包括语言知识(词法、句法、语义学和语用学)、常识知识(如药和伞的用途)、专业领域知识(如编程、医学),但要注意知识可能过时或错误,需通过重新训练或编辑 LLM 解决。 记忆方面:具备记忆机制,存储过去的观察、思考和行动,通过提高输入长度限制、记忆总结、用向量或数据结构压缩记忆等策略提升记忆,Agent 能检索记忆以访问相关信息,包括自动检索和交互式记忆对象。 推理和规划方面:基于证据和逻辑进行推理,这对解决问题和决策至关重要。
2025-01-08
多轮对话怎么做
多轮对话的实现方式如下: 1. 核心思路是让 AI 和您对目标的理解达成共识,保持一致,然后再开始创作,这样能增加创作的可控性。比如通过对生成图像的理解诱导和迭代来实现。 2. 有效的部分包括: 约束的弹性,在探索阶段给 AI 一定自由空间,而 prompt 一般是强约束的,更适合确定性的目标或者用于总结阶段。 情绪,情绪化能局部提升 AI 效能。 共识,您的理解和 AI 的理解要高度一致,在高共识性的背景下,调整和控制会更有效。 3. 注意事项: 如果经历很多轮的对话,可能会导致此次对话超过模型的 token 限制,ChatGPT 会遗忘之前的内容。建议当经历多轮对话后,可以新建一个聊天窗口,把完整的代码和需求背景输入给 ChatGPT,重新开启新的提问。 在自然的人类语言交流中,多轮对话常常伴随着指代问题的产生。为了提升对话系统的性能和用户体验,需要开发提示词来解决多轮对话中的指代消解问题,并确保模型能够在连续的交流中提供准确、连贯的回答。由于“指代消解”需要多轮对话来完成,单次交互无法达成,所以需要将测试形式进行转换,先解决“指代消解”的问题,然后再进行下一轮答复。
2025-01-07
单轮对话与多轮对话调用
单轮对话与多轮对话调用: 聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息格式化,然后交替使用用户消息和助手消息。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 百炼相关 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 记得第一天提到,规定模型不能用搜索和投喂输出文本。比赛是不是只限在提示词调试的范围内呢? 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
单轮对话与多轮对话调用
聊天模型通过一串聊天对话作为输入,并返回一个模型生成的消息作为输出。尽管聊天格式的设计是为了多轮对话更简单,但它对于没有任何对话的单轮任务同样有用(例如以前由 textdavinci003 等指令遵循模型提供的任务)。 API 调用的例子中,messages 参数是主要的输入,必须是一个消息对象的数组,每个对象拥有一个 role(“system”“user”或“assistant”)和 content(消息的内容)。会话可以少至 1 条消息或者有许多条。通常,会话首先使用系统消息(“system”)格式化,然后交替使用用户消息(“user”)和助手消息(“assistant”)。系统消息有助于设定助手的行为,用户消息帮助指示助手,助手消息用于存储之前的响应。当用户的指令是关于之前的消息时,包含聊天历史记录将有所帮助。如果会话包含的 token 超出了模型的限制,则需要用一些方法去缩减会话。 此外,还存在一些与百炼相关的 Q&A: 如何调用工作流?在提示词写了让大模型调用 xxx 工作流,但实际总是不调用。文档里也没有写调用方式。 如何把开始节点的输入参数直接接入到代码节点中进行处理? 千问模型基本不能处理标点符号,在提示词中各种要求句尾不要有句号,可仍旧有。甚至在工作流中用代码去掉后,回到应用中又给加上了标点符号。同样的提示词,放在扣子中就可以去掉标点符号。 为什么同样的问题,给出的答案区别这么大?接的就是同一个应用,这个问题很早就预测过了,同一个模型。 无论 prompt 怎么变,模型生成完内容后,自动被“不生成任何的标点符号”所替换。这个情况在 max。 COW 调用百炼应用如何支持多轮对话么?
2025-01-06
如何优化ai对话脚本和逻辑(多轮对话测试提升ai上下文理解)
以下是优化 AI 对话脚本和逻辑(多轮对话测试提升 AI 上下文理解)的方法: 1. 样例驱动的渐进式引导法 评估样例,尝试提炼模板:独自产出高质量样例较难,可借助擅长扮演专家角色的 AI 改进初始正向样例,如使用 Claude 3.5 进行对话,输入初始指令,通过其回复侧面印证对样例的理解与建议。 多轮反馈,直至达到预期:AI 可能犯错输出要求外内容,需多轮对话引导,使其不断修正理解,直至达成共识。 用例测试,看看 AI 是否真正理解:找 13 个用例,让 AI 根据模板生成知识卡片,根据结果验证是否符合预期,不符合则继续探讨调整。用例测试和多轮反馈步骤灵活,可根据需要自由反馈调整。 2. Coze 全方位入门剖析 标准流程创建 AI Bot(进阶推荐) 为 Bot 添加技能:国内版暂时只支持使用“云雀大模型”作为对话引擎,可根据业务需求决定上下文轮数。在 Bot 编排页面的“技能”区域配置所需技能,可选择自动优化插件或自定义添加插件。还可根据需求配置知识库、数据库、工作流等操作,参考相关介绍和实战操作或官方文档学习。 测试 Bot:在“预览与调试”区域测试 Bot 是否按预期工作,可清除对话记录开始新测试,确保能理解用户输入并给出正确回应。
2024-12-29
模型微调怎么解决多轮对话容易受到上轮对话的影响问题
在解决模型微调中多轮对话容易受到上轮对话影响的问题时: 对于多轮对话,现实中常伴随指代问题,如使用“它”“他们”“我们”等代词。若仅依据原始提问检索知识片段,可能导致结果不精确或无法检索到信息。同时,对模型回复内容的限制可能影响多轮对话流畅性甚至中断。 为提升对话系统性能和用户体验,需开发提示词解决多轮对话中的指代消解问题,确保模型能在连续交流中提供准确连贯回答。但由于“指代消解”需多轮对话完成,单次交互无法达成,所以要转换测试形式,先解决“指代消解”问题再进行下一轮答复。 首先准备指代消解所需提示词,这里使用的“指代消解”提示词是用 CoT 写出的思维链,列举不同推理情景,让模型适应并推理出需消解的代词,再根据结果重新组织问题。 接着复现指代消解步骤,如进行第一轮对话,提出问题“尼罗河是什么?”,系统召回相关知识片段并回复,然后开始指代消解。 另外,聊天模型通过一串聊天对话输入并返回生成消息输出。聊天格式虽为多轮对话设计,但对单轮任务也有用。会话通过 messages 参数输入,包含不同角色和内容的消息对象数组。通常会话先有系统消息设定助手行为,再交替使用用户和助手消息。当指令涉及之前消息时,包含聊天历史记录有帮助,若超出模型限制需缩减会话。
2024-11-21
我能否借助开源社区力量构建高质量的 AI 数字人
您可以借助开源社区力量构建高质量的 AI 数字人。 构建数字人的躯壳有多种方式: 1. 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,代表是 Live2D Cubism。 2. 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高,代表是 UE、Unity、虚幻引擎 MetaHuman 等,但个人学习在电脑配置和学习难度上有一定门槛。 3. AIGC:省去建模流程直接生成数字人的展示图片,但存在算法生成的数字人很难保持 ID 一致性、帧与帧连贯性差等弊端。如果对人物模型真实度要求不高,可以使用,典型项目有 wav2lip、videoretalking 等。AIGC 还有直接生成 2D/3D 引擎模型的方向,但仍在探索中。 构建数字人的灵魂需要注意以下几个工程关键点: 1. AI Agent:要让数字人像人一样思考就需要写一个像人一样的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建都是挑战。 2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式可以是 HTTP、webSocket 等。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但闭源。 3. 实时性:由于算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的 API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。 4. 多元跨模态:不仅仅是语音交互,还可以通过添加摄像头数据获取数据,再通过系列 CV 算法做图像解析等。 5. 拟人化场景:正常和人交流时不是线性对话,会有插话、转移话题等情况,这些情景需要通过工程丝滑处理。 如果都要自建代码实现各模块,开发工作量巨大,迭代难度也很高,对于个人开发者来讲不现实。因此推荐借助开源社区的力量,现在开源社区已经有了像 dify、fastgpt 等等成熟的高质量 AI 编排框架,它们有大量的开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等等。我们可以通过这些框架快速编排出自己的 AI Agent,赋予数字人灵魂。在笔者的开源项目中,使用了 dify 的框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。同时 Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于这个两个接口就可以将数字人的语音识别和语音生成都交由 Dify 控制,从而低门槛做出来自己高度定制化的数字人。具体的部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。如果有更加高度定制的模型,也可以在 Dify 中接入 XInference 等模型管理平台,然后部署自己的模型。此外,数字人 GUI 工程中仍然保留了 LLM、ASR、TTS、Agent 等多个模块,能够保持更好的扩展,比如实现更加真实性感的语音转换、或者如果有更加 Geek 的 Agent 实现也可以选择直接后端编码扩展实现。 使用 Dify 接口需要注意: 1. 必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。 2. 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。
2025-01-21
如何高质量的提问AI
以下是关于如何高质量提问 AI 的一些建议: 1. 针对具体任务进行环节拆分:例如在使用 AI 进行数据分析时,将数据清洗、提取、模型选择、训练和结果解释等环节分开处理,便于优化性能和发现修正问题。 2. 逐步深化和细化问题:对于复杂问题,先提出宽泛问题,再根据回答进一步细化或深化,如处理知识产权侵权案件时,先问被告是否侵权,再根据回答追问侵权类型和程度。 3. 提供参考和学习内容:包括详细操作指南、行业最佳实践、案例研究等,并编写详细流程和知识(knowhow),如自动化文档处理中编写处理不同类型文档的指南。 4. 利用专业领域术语引导:在 Prompt 中使用法律术语引导 AI 回答方向,如处理合同纠纷时提示从特定方面分析合同履行情况。 5. 验证与反馈:大模型语料有滞后性,使用 AI 回答后要交叉验证确保准确性,同时结合自身专业知识筛选判断,确保符合法律伦理等。 6. 总结核心观点和注意事项:用简洁明了语言概括,如提供法律建议时可总结出核心观点和注意事项,并使用特定连接词组织 Prompt。 7. 设定角色和任务目标:赋予 AI 明确的角色和任务目标,如专注于民商事法律领域且擅长特定方面的律师,以提升工作效率。 8. 讲清楚背景和目的:提问时梳理清楚背景信息和目的,如处理交通事故案件时说明案件事实和法规,帮助 AI 理解上下文提高准确性。 9. 学会提问:使用清晰具体语言,避免模糊表述,了解 AI 工作原理和限制,设计能提供有用答案的问题。 10. 拆解环节、切分流程:应用 AI 前细致拆解工作流程,将复杂任务分解为更小更具体环节,使 AI 执行更精确。 此外,FastGPT 是一个功能强大、易于使用的知识库问答系统,基于 LLM 技术,能理解自然语言并生成高质量答案,支持连接外部知识库获取更全面信息,有可视化工作流编排工具方便创建复杂问答场景,具备开箱即用的数据处理和模型调用功能方便快速上手,可帮助企业构建智能客服、知识库搜索、文档生成等应用。相关资源有:。但请注意内容由 AI 大模型生成,请仔细甄别。
2025-01-20
我想用AI做高质量高清图片,我应该怎么做
如果您想用 AI 做高质量高清图片,可以参考以下方法: 1. 了解默认分辨率:在 Stable Diffusion 中,AI 出图的默认分辨率为 512x512,用于商业通常不够。 2. 注意初始分辨率:初始分辨率不宜过高,例如 1600x840 的分辨率可能导致出图时间长和构图问题。 3. 运用高清修复:在文生图功能中有内置的高清修复(HiresFix)功能。将初始分辨率设置为 800x420 时,选择放大倍率为 2,可将分辨率放大至 1600x840。理论上放大倍率越高图片越清晰,但受电脑配置和显卡显存影响。放大算法如 RESRGAN 4x+Anime6B 常用于二次元绘图,写实类风格可选择 RESRGAN 4x+。 4. 固定图片种子值:先以 800x420 画一张图,获取其种子值并填入随机数种子以固定图片。 5. 底图制作:对于游戏截图升级为高质量图片,可在游戏内直接截图作为图生图的底层素材。为使底图清晰、拍摄自由,在 UE4 引擎游戏中可使用常用调整画质代码,如 r.ViewDistanceScale 10、r.ForceLOD 0、foliage.LODDistanceScale 10 等,并通过 ToggleDebugCamera 实现自由相机,使用 HighResShot 1920X1080(尺寸可调节)进行高品质截图。 通过这些技巧,您就可以得到足以商用的高清图片素材。
2024-12-25
AI提示词怎么写才能让AI的回答更高质量
以下是一些写 AI 提示词以获得更高质量回答的方法: 1. 明确具体的描述:使用更具体、细节的词语和短语,避免过于笼统。 2. 添加视觉参考:在提示词中插入相关图片参考,提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整整体语气和情感色彩。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最准确表达需求的描述方式。 5. 增加约束条件:添加限制性条件,如分辨率、比例等,避免意外输出。 6. 分步骤构建提示词:将复杂需求拆解为逐步的子提示词,引导 AI 先生成基本结构,再逐步完善。 7. 参考优秀案例:研究流行且有效的提示词范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:通过多次尝试不同写法,并根据输出效果反馈持续优化完善。 在商业化问答场景中,提示词的作用是告诉全知全能的大语言模型,它是一个什么样的角色、要专注于哪些技能,让其按照您的想法变成所需的“员工”。例如设定角色为“美嘉”,按照其人设、背景和对话风格做设定。 此外,还有一些优化提示词的技术和成果,如通过链式思维等技术自动改进提示词,提升回答质量,具有示例增强、标准化、提示重写、预填充内容等功能特点,能显著提高模型的易读性和准确性,测试显示多标签分类准确率提升 30%,摘要任务可完全遵循字数要求。若提示缺少示例,Claude 还会自动生成合成示例,简化提示构建过程。
2024-12-03
有没有可以根据我的需求,自动生成搜索高质量query的prompt
以下是为您整理的关于自动生成搜索高质量 query 的 prompt 的相关内容: 1. JackeyLiu (JK): 作为 ChatGPT 的深度用户,为节省每次构建 Prompt 的力气,打算写一个基于初始问题自动生成优质 Prompt 的 Prompt。其构建 Prompt 的方法论来自于。 2. 做调研: 生成调研报告的 prompt 构建过程艰难,经过多次尝试和迭代,包括试用 webpolit 和 web browsing 等,最终在群里大佬的建议下,通过在需要搜索网络信息的章节处打上标签让 GPT4 自主搜索信息来生成内容,并选择使用 webpolit 插件,放弃了 web browsing 模式,完成了调研报告的 prompt。且在解决问题前,用前几版 prompt 帮团队和同学完成了 3 篇调研报告。 3. 生成式 AI:下一个消费者平台: 这种根据特定需求生成策划过的选项列表的搜索方式在产品推荐方面有价值,例如为特定的宠物推荐狗粮或特定条件下推荐服装。在企业内部搜索应用中也有巨大潜力,如允许用户查询视频会议记录。
2024-08-09
做 video lip sync 的高质量项目有哪些?
以下为一些关于 video lip sync(视频唇形同步)的高质量项目介绍: 谷歌的“Generating audio for video”项目正在开展进一步研究。该项目具有以下特点: 1. 与现有视频音频解决方案相比,它能够理解原始像素,并且添加文字提示是可选的。 2. 系统无需手动调整生成的声音和视频,避免了对声音、视觉效果和时间等不同元素进行繁琐的调整。 3. 但仍存在一些限制因素需要解决,比如音频输出质量依赖于视频输入质量,视频中的假象或失真超出模型训练分布范围会导致音频质量明显下降。 4. 正在改进涉及语音的视频唇形同步。V2A 尝试从输入的文稿生成语音并与角色的唇形动作同步,但配对的视频生成模型可能不受文稿条件的限制,这会造成不匹配,导致唇形同步不自然。 需要注意的是,这一项目仍在不断完善和改进中。
2024-07-24
waytoagi知识库的对话功能是如何开发的
waytoagi 知识库的对话功能开发涉及以下方面: 1. 提示词的运用:建议从最佳实践中的收录内容开始了解,像李继刚老师的结构化提示词很有意思,使用此类提示词能让模型给出更优质、完整的答案。操作过程中有很多有趣的提示词,如“酷老师”“抬杠高手”等,可点开并复制,将其丢进大源模型对话会有不同效果。近期提示词有升级,李金刚老师将其玩到新高度,cloud 等大语言模型可直接显示编译结果内容。输入特定提示词可生成卡片,小创业项目可利用并改变提示词形成独到见解或小应用。 2. 基于飞书 aily 搭建:在飞书 5000 人大群里内置了智能机器人「waytoAGI 知识库智能问答」,它能自动问答、进行知识搜索、提供文档引用、开展互动教学、更新最新动态、促进社区互动、实现资源共享以及支持多语言问答。用户在飞书群里发起话题时即可,它会根据 waytoAGI 知识库的内容进行总结和回答。 3. 解决知识库使用问题:整个知识库内容庞大,传统搜索基于关键词及相关性存在不足,需要用更先进的办法如 RAG 技术来解决,在群中提供快速检索信息的方式,使用更加便捷。
2025-01-28
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
对话流的作用
对话流在不同的场景中具有多种作用: 在与律师相关的场景中,其工作流设计要点包括: 有独特的欢迎语,如“十方诸天尊,其数如沙尘,化形十方界,普济度天人。灵机应召来也!”,能改善心理状态,还可根据需求灵活变化。 设计了检查环节,若觉得不对劲偏离要求,可通过“守符诏令”指令重新发挥效力。 采用对话式、分模块每次确认的形式,最终生成质量往往更高。 请用户检查写作方案是否符合要求,重点关注操作建议的具体性、清晰性和对实际解决问题的帮助,若不满意会重新生成。若满意则进一步深化写作,每次对话输出文章的一个部分。 在 Coze 平台中,工作流是核心概念,它是一系列有序的任务或操作,用于完成特定的业务流程。适用场景广泛,如多步骤任务、插件调用、数据处理等。通过可视化方式将不同功能模块串联,可更直观地设计和管理复杂任务,提高开发效率和系统可维护性。创建工作流一般建议直接在 bot 里新建,若创建的工作流不见了,可在首页工作空间资源库工作流中查找。 在 LangGraph 中,构建图时从一个节点开始,用用户当前信息预填充状态。每个小工作流程包含 5 个节点:enter_、助手、_safe_tools、_sensitive_tools、leave_skill。由于工作流程相似,本可定义工厂函数生成,但教程中会逐一明确定义,如创建航班预订助手、租车助手、酒店预订、旅行预订助手和主助手等工作流程图。
2025-01-18
对话框架都有哪些
以下是一些常见的对话框架: 1. 智谱·AI 开源模型列表中的 Chat 模型框架: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景,上下文 token 数为 8K。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样训练数据、更充分训练步数和更合理训练策略,在 10B 以下基础模型中性能最强,上下文 token 数为 8K。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 基础上强化长文本理解能力,能处理最多 32K 长度上下文。 ChatGLM26B32k:第二代 ChatGLM 长上下文对话模型,在 ChatGLM26B 基础上进一步强化长文本理解能力,能处理最多 32K 长度上下文。 ChatGLM26B32kint4:ChatGLM26B32K 的 int4 版本。 ChatGLM6B:第一代 ChatGLM 对话模型,支持中英双语,基于 General Language Model架构,具有 62 亿参数,结合模型量化技术可在消费级显卡上本地部署,上下文 token 数为 2K。 2. COSTAR 框架: 定义:指明文本的整体风格,包括词汇选择、句式结构及可能的参照对象。 重要性:不同风格适合不同场合,如学术论文和社交媒体帖子。 示例:科学论文需正式语言和客观语气,博客文章可采用轻松、个人色彩写作风格。 Tone(语气) 定义:设定文本的情感基调,确保符合预期氛围。 重要性:正确语气可建立与读者联系,传达适当态度。 示例:商业计划书需正式、专业且有说服力语气,产品评测可采用轻松幽默语气。 Audience(受众) 定义:明确回答或文本的目标读者。 重要性:了解受众有助于调整语言复杂度、术语使用及整体信息传递方式。 示例:专业人士可用行业术语和复杂概念,大众需简化语言避免专业化术语。 Response(回复) 定义:指定最终输出的形式和结构。 重要性:正确格式使信息更易理解和消化。 示例:详细分析报告按标准报告格式组织,简单问答可直接列表呈现答案。
2025-01-14
是不是可以跟任何大模型进行对话
一般来说,可以跟很多大模型进行对话。以下是一些常见的方式: 1. 对于 Llama3 大模型: 下载大模型主要是为了与之对话,或者称为使用其进行推理。 有两种对话方式,可使用 API 或部署简单界面。面向小白,这里主要介绍部署界面的方式。 例如,在 /root/autodltmp 路径下新建 chatBot.py 文件并输入相关内容,然后启动 Webdemo 服务,按照指示映射端口,在浏览器中打开相应链接即可看到聊天界面。 2. 对于 Llama 大模型: 首先编译,为利用 Metal 的 GPU 可用特定命令编译。 去指定网址下载模型。 llama.cpp 还提供了 WebUI 供用户使用,启动 server 后默认监听 8080 端口,打开浏览器就可以对话。 3. 对于通过 Open WebUI 使用大模型: 访问指定网址,使用邮箱注册账号。 登陆成功后,Open WebUI 一般有聊天对话和 RAG 能力(让模型根据文档内容回答问题)两种使用方式。如果要求不高,已实现通过 Web UI 与本地大模型对话的功能。 需要注意的是,不同大模型的访问速度和回答效果可能存在差异,例如 ChatGPT 访问速度快是因为其服务器配置高,回答效果好是因为训练参数多、数据更优以及训练算法更好。
2025-01-07