AI 给出的回答不一定总是正确的。以下是一些原因:
在 AI 领域中,优化 AI 更准确回答问题的过程有一个专业术语叫 RAG(Retrieval-Augmented Generation),它由检索器和生成器组成,检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息来制作精确和连贯的答案。但即使如此,也不能完全消除回答错误的情况。
其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。[heading3]1、RAG介绍[content]RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合信息检索和文本生成能力的技术,它由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得RAG非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。
为了回应你的答案,AI很容易“产生幻觉”并生成看似合理的事实。它可以生成完全错误的内容,而且非常令人信服。让我强调一下:AI连续且良好地撒谎。它告诉你的每一件事或信息可能都是不正确的。你需要检查所有的东西。你需要全部检查一下。特别危险的是要求它为互联网提供参考、引用、引文和信息(对于未连接到互联网的模型)。因为GPT-4通常更加扎实,因为Bing的互联网连接意味着它实际上可以拉入相关事实。[这是一份避免幻觉的指南](https://oneusefulthing.substack.com/p/how-to-get-an-ai-to-lie-to-you-in),但它们不可能完全消除。另请注意,人工智能不会解释自己,它只会让你认为它解释了自己。如果你要求它解释它为什么写东西,它会给你一个完全编造的合理答案。当你询问它的思考过程时,它并没有审查自己的行动,它只是生成听起来像它在做这样的文本。这使得理解系统中的偏见非常困难,尽管这些偏见几乎肯定存在。它也可以被不道德地用来操纵或作弊。你对这些工具的输出负责。
Can AI Predict What Will Happen?It’s not the only role of science—and in the sections that follow we’ll explore others.But historically what’s often been viewed as a defining feature of successful science is:can it predict what will happen?So now we can ask:does AI give us a dramatically better way to do this?这并不是科学的唯一作用,在接下来的部分中我们将探索其他作用。但从历史上看,通常被视为成功科学的一个决定性特征是:它能预测将会发生什么吗?所以现在我们可以问:人工智能是否为我们提供了一种更好的方法来做到这一点?In the simplest case we basically want to use AI to do inductive inference.We feed in the results of a bunch of measurements,then ask the AI to predict the results of measurements we haven’t yet done.At this level,we’re treating the AI as a black box; it doesn’t matter what’s happening inside; all we care about is whether the AI gives us the right answer.We might think that somehow we can set up the AI up so that it “isn’t making any assumptions”—and is just “following the data”.But it’s inevitable that there’ll be some underlying structure in the AI,that makes it ultimately assume some kind of model for the data.在最简单的情况下,我们基本上想用人工智能来做归纳推理。我们输入一系列测量结果,然后要求人工智能预测我们尚未完成的测量结果。在这个层面上,我们将人工智能视为一个黑匣子;里面发生什么并不重要;我们关心的只是人工智能是否给出了正确的答案。我们可能会认为,我们可以通过某种方式设置人工智能,使其“不做出任何假设”,而只是“遵循数据”。但人工智能中不可避免地会存在一些底层结构,这使得它最终假设某种数据模型。