在 AI 中进行连续问答时,存在以下情况:
为了回应你的答案,AI很容易“产生幻觉”并生成看似合理的事实。它可以生成完全错误的内容,而且非常令人信服。让我强调一下:AI连续且良好地撒谎。它告诉你的每一件事或信息可能都是不正确的。你需要检查所有的东西。你需要全部检查一下。特别危险的是要求它为互联网提供参考、引用、引文和信息(对于未连接到互联网的模型)。因为GPT-4通常更加扎实,因为Bing的互联网连接意味着它实际上可以拉入相关事实。[这是一份避免幻觉的指南](https://oneusefulthing.substack.com/p/how-to-get-an-ai-to-lie-to-you-in),但它们不可能完全消除。另请注意,人工智能不会解释自己,它只会让你认为它解释了自己。如果你要求它解释它为什么写东西,它会给你一个完全编造的合理答案。当你询问它的思考过程时,它并没有审查自己的行动,它只是生成听起来像它在做这样的文本。这使得理解系统中的偏见非常困难,尽管这些偏见几乎肯定存在。它也可以被不道德地用来操纵或作弊。你对这些工具的输出负责。
其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。[heading3]1、RAG介绍[content]RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合信息检索和文本生成能力的技术,它由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得RAG非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。
【GPT】您指出了一个很好的观察。许多写作和沟通的基本原则在不同的情境中都是适用的,不仅仅是在撰写“连续提示”时。这些原则,如明确性、逻辑性和简洁性,对于任何形式的沟通都是至关重要的。但是,当我们谈到撰写“连续提示”时,这些原则变得尤为重要,因为AI的回应质量和相关性在很大程度上依赖于提示的质量。一个清晰、具有逻辑性的连续提示可以更有效地指导AI,尤其是在需要多步骤或多阶段的输出时。以下是为什么这些原则在撰写“连续提示”时特别重要的原因:1.明确的目标:在连续提示中,每一步的目的都应该非常明确,以确保整体的输出是连贯的。2.逻辑性:连续提示要求AI按照一定的顺序或结构生成输出。任何不清晰或不逻辑的提示都可能导致不符合期望的结果。3.分步骤:与一次性的、独立的提示不同,连续提示需要在每一步都提供明确的指导,以确保整体的流程是顺畅的。4.考虑变量:因为连续提示经常涉及多步骤的过程,所以考虑可能会影响结果的所有变量是非常重要的。当然,这些原则在其他情境中也是有用的,但在撰写“连续提示”时,它们可能需要更细致的考虑和应用。【用户】是的,并且这些针对CoD提示的撰写原则,我认为在CoT上也一样适用,目标明确、逻辑性、分步骤、考虑变量,对吧?【GPT】您完全正确。事实上,这些原则不仅适用于CoD和CoT,还适用于ToT或其他任何形式的提示结构。当目的是通过提示指导AI产生特定的输出时,这些原则都是非常重要的。