AI 幻觉是指 AI 在生成内容时出现的错误或与现实世界不符的情况。以下是关于 AI 幻觉的一些重要方面:
在写东西方面,AI 容易“产生幻觉”并生成看似合理但可能完全错误且令人信服的事实。例如,GPT-4 通常更扎实,而 Bing 因互联网连接可拉入相关事实,但幻觉仍难以完全消除。同时,AI 不会真正解释自身,给出的解释可能是完全编造的。当被要求解释思考过程时,它只是生成听起来合理的文本,这使得理解系统中的偏见非常困难。
在艺术创作方面,许多 AI 工具会出现幻觉,如照片中突然出现第三只手臂,或者处理请求时间长。对于大多数消费者可能可接受,但对于试图通过内容盈利的用户可能更令人沮丧。
从技术真相角度来看,AI 幻觉本质上是对信息的扭曲。人类认知偏差是大脑处理信息时为节省认知资源采取“捷径”导致对信息的扭曲和误判,而 AI 幻觉是模型对训练数据中统计模式的过度依赖,在面对新情况时无法准确理解和生成信息。其表现形式多种多样且难以察觉,如生成不存在的人物、地点、事件或对已知事实错误描述。产生原因都与经验和知识有关,人类认知偏差与个人成长经历、文化背景、知识结构等有关,AI 幻觉则与训练数据质量、模型结构和训练策略有关。其影响可能导致错误决策,如投资者受偏差影响做出错误投资决策,也可能误导用户、传播虚假信息甚至引发安全事故,如用于医疗诊断的 AI 系统给出错误诊断结果延误患者治疗。
可参考这是一份避免幻觉的指南进一步了解。
为了回应你的答案,AI很容易“产生幻觉”并生成看似合理的事实。它可以生成完全错误的内容,而且非常令人信服。让我强调一下:AI连续且良好地撒谎。它告诉你的每一件事或信息可能都是不正确的。你需要检查所有的东西。你需要全部检查一下。特别危险的是要求它为互联网提供参考、引用、引文和信息(对于未连接到互联网的模型)。因为GPT-4通常更加扎实,因为Bing的互联网连接意味着它实际上可以拉入相关事实。[这是一份避免幻觉的指南](https://oneusefulthing.substack.com/p/how-to-get-an-ai-to-lie-to-you-in),但它们不可能完全消除。另请注意,人工智能不会解释自己,它只会让你认为它解释了自己。如果你要求它解释它为什么写东西,它会给你一个完全编造的合理答案。当你询问它的思考过程时,它并没有审查自己的行动,它只是生成听起来像它在做这样的文本。这使得理解系统中的偏见非常困难,尽管这些偏见几乎肯定存在。它也可以被不道德地用来操纵或作弊。你对这些工具的输出负责。
今天,许多AI工具都会出现幻觉(例如,照片中突然出现第三只手臂!)或者需要很长时间才能处理请求。对于大多数消费者来说,这可能是可以接受的,但如果你试图通过内容实现盈利,这可能会令人更加沮丧。为了满足这些高级用户的需求,我们预计许多公司将添加提供更高质量服务的“专业版”套餐——正如ChatGPT[已经做到的那样](https://techcrunch.com/2023/02/01/openai-launches-chatgpt-plus-starting-at-20-per-month/)。
|本质|对信息的扭曲|人类认知偏差_大脑在处理信息时,为了节省认知资源而采取的“捷径”,这些捷径虽然可以提高效率,但也容易导致对信息的扭曲和误判|AI幻觉_模型对训练数据中统计模式的过度依赖,导致其在面对新情况时,无法准确地理解和生成信息,最终输出与现实世界不符的内容||-|-|-|-||表现形式|多种多样且难以察觉|确认偏误(只关注支持自己观点的信息)、可得性偏差(更容易回忆起最近或印象深刻的信息)、锚定效应(过分依赖最初获得的信息)|生成不存在的人物、地点、事件,或者对已知事实进行错误的描述。||产生原因|都与经验和知识有关|与个人的成长经历、文化背景、知识结构等等有关。不同的经验和知识会塑造不同的认知模式,导致人们对相同的信息做出不同的解读|与训练数据的质量、模型的结构和训练策略有关。如果训练数据存在偏差或错误,模型就会学习到这些偏差和错误,并将其体现在生成的内容中||影响|可能导致错误的决策|可能导致我们在生活中做出错误的判断和选择。例如,一个投资者如果受到可得性偏差的影响,可能会高估近期股市上涨的趋势,从而做出错误的投资决策|可能会误导用户、传播虚假信息、甚至引发安全事故。例如,一个用于医疗诊断的AI系统,如果出现幻觉,可能会给出错误的诊断结果,从而延误患者的治疗|