在多轮对话训练中,让模型掌握情感需求可以通过以下几种方式:
Guanaco地址:[https://huggingface.co/datasets/JosephusCheung/GuanacoDataset](https://huggingface.co/datasets/JosephusCheung/GuanacoDataset)数据集说明:一个使用Self-Instruct的主要包含中日英德的多语言指令微调数据集。chatgpt-corpus地址:[https://github.com/PlexPt/chatgpt-corpus](https://github.com/PlexPt/chatgpt-corpus)数据集说明:开源了由ChatGPT3.5生成的300万自问自答数据,包括多个领域,可用于用于训练大模型。SmileConv地址:[https://github.com/qiuhuachuan/smile](https://github.com/qiuhuachuan/smile)数据集说明:数据集通过ChatGPT改写真实的心理互助QA为多轮的心理健康支持多轮对话(single-turn to multi-turn inclusive language expansion via ChatGPT),该数据集含有56k个多轮对话,其对话主题、词汇和篇章语义更加丰富多样,更加符合在长程多轮对话的应用场景。
已复制!内容副本1.单击页面右侧的提交按钮。如您所见,该模型没有足够的信息来判断您是否要求它进行情绪分析。这可以通过为模型提供一些您正在寻找的示例来改进。尝试添加这些示例,如下图所示:|输入|输出|<br>|-|-|<br>|一部制作精良且有趣的电影|积极的|<br>|10分钟后我睡着了|消极的|<br>|电影还行|中性的|然后单击页面右侧的提交按钮。该模型现在为输入文本提供情绪。对于文本这是一个很好的时间!,情绪被标记为积极的。您还可以保存新设计的提示。要保存提示,请单击“保存”按钮并随意命名,例如sentiment analysis test。保存的提示将出现在“我的提示”选项卡中。
当我们面对多轮次对话时,定期总结显得尤为重要,因为模型的临时记忆(上下文)是有限的。随着对话的深入,模型可能会遗忘之前的信息,这不仅可能导致对指令理解的偏差,如果你在做复杂的生成式任务(比如写文章)还可能影响上下文的连贯性。为了解决这个问题,我们可以在对话的关键节点进行总结,这有助于模型刷新记忆,确保它能够准确把握对话的进展和要点。总结时,我们应该提炼出对话中的关键信息,重申对话的目标和指令,这样可以帮助模型和用户都保持对对话方向的清晰认识。这种方法能够提高对话的效率和质量,确保即使在多轮对话中,也能保持信息的准确传递和理解。[heading3]7.7.3意图识别、分类[content]在意图识别和分类的原则中,我们特别关注于在单一模型或情境中处理多个小逻辑分支的情况。模型在与用户交互时,往往需要识别和区分用户的不同意图。这时我们就可以使用此原则构建提示词,指导模型采用预设的策略或行为模式来响应特定类型的请求。这种基于意图的响应不仅提高了处理效率,也提升了用户体验,因为用户能够感受到模型对其需求的准确理解和生成内容的质量。例如,在客户服务场景中,用户可能提出咨询、投诉、建议等多种类型的请求。通过意图识别,模型可以快速确定用户的确切需求,并将其分类到相应的处理流程中。