AI 幻觉是指 AI 系统生成的信息与事实不符或与预期不符的现象。具体表现为:
为了避免 AI 幻觉,需要对其生成的内容进行检查,因为即使是像 GPT-4 这样相对扎实的模型或有互联网连接的 Bing 也不能完全消除幻觉。同时要注意人工智能不会真正解释自己,给出的解释可能是编造的,使用时要对其输出负责,防止被不道德地用来操纵或作弊。
我们已经了解了人类如何巧妙应对认知偏差,那么对于AI系统,是否也存在类似的“认知陷阱”?答案是肯定的,这就是“AI幻觉”。[heading2]AI幻觉:真实与想象的“迷宫”[content]简单来说,AI幻觉是指AI系统生成的信息与事实不符,或者与预期不符,就像人工智能在“一本正经地胡说八道”。这些“胡说八道”不是AI故意的,而是技术局限性造成的错误。AI幻觉的定义可以概括为:AI系统生成的输出内容看似合理流畅,但实际上与输入信息、上下文环境或客观事实相矛盾,缺乏逻辑或经验支撑。[heading2]AI幻觉:“多重面孔”[content]AI幻觉的表现形式多种多样,如下图所示:[heading2]AI幻觉:潜藏的风险[content]AI幻觉看似“小错误”,但在实际应用中可能带来巨大风险。误导用户:AI幻觉会导致用户获取错误信息,从而做出错误判断。例如,医疗AI助手给出错误诊断建议,可能延误患者治疗。传播虚假信息:AI幻觉可能被用于制造和传播虚假信息,误导公众,影响社会稳定。例如,AI可以生成虚假新闻报道或社交媒体帖子,用于政治宣传或商业炒作。损害AI系统的可信度:AI幻觉会降低用户对AI系统的信任度,阻碍AI技术推广和应用。例如,如果用户发现AI经常“胡说八道”,他们可能不再信任AI的判断,甚至拒绝使用AI产品。
今天,许多AI工具都会出现幻觉(例如,照片中突然出现第三只手臂!)或者需要很长时间才能处理请求。对于大多数消费者来说,这可能是可以接受的,但如果你试图通过内容实现盈利,这可能会令人更加沮丧。为了满足这些高级用户的需求,我们预计许多公司将添加提供更高质量服务的“专业版”套餐——正如ChatGPT[已经做到的那样](https://techcrunch.com/2023/02/01/openai-launches-chatgpt-plus-starting-at-20-per-month/)。
为了回应你的答案,AI很容易“产生幻觉”并生成看似合理的事实。它可以生成完全错误的内容,而且非常令人信服。让我强调一下:AI连续且良好地撒谎。它告诉你的每一件事或信息可能都是不正确的。你需要检查所有的东西。你需要全部检查一下。特别危险的是要求它为互联网提供参考、引用、引文和信息(对于未连接到互联网的模型)。因为GPT-4通常更加扎实,因为Bing的互联网连接意味着它实际上可以拉入相关事实。[这是一份避免幻觉的指南](https://oneusefulthing.substack.com/p/how-to-get-an-ai-to-lie-to-you-in),但它们不可能完全消除。另请注意,人工智能不会解释自己,它只会让你认为它解释了自己。如果你要求它解释它为什么写东西,它会给你一个完全编造的合理答案。当你询问它的思考过程时,它并没有审查自己的行动,它只是生成听起来像它在做这样的文本。这使得理解系统中的偏见非常困难,尽管这些偏见几乎肯定存在。它也可以被不道德地用来操纵或作弊。你对这些工具的输出负责。