直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何减少 大模型的幻觉

回答

减少大模型幻觉的方法主要有以下几点:

  1. 使用 Prompt:在与大模型交互时,Prompt 是一套语言模板。它能为大模型提供更多的输入、限定、上下文和更明确的结果输出要求,帮助大模型更好地理解用户问题,从而减少随意发挥导致的幻觉问题。
  2. 上采样(Up Sampling):针对“Imitative Falsehoods”,即样本存在错误的情况,上采样可以作为一种缓解办法。
  3. 注意数据隐私保护:减少模型见数据的次数,例如避免模型过多重复接触某些数据,以降低记忆隐私泄露的风险,这在一定程度上也有助于减少幻觉问题。

大模型出现幻觉的原因包括:

  1. 样本存在错误:如果大模型学习的“教材”中有错误,其输出也可能出错。
  2. 信息过时:存在以前正确但现在过时的信息。

此外,大语言模型偶尔会根据输入输出荒谬或不符合事实的内容,目前各家大语言模型在该问题上的表现都有待改进。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

从原理到应用一次讲清楚 Prompt

原创小宝聊AI小宝聊AI 2024-01-30 00:12发表于浙江小宝聊AI十年大厂架构师,专注于大模型技术和应用29篇原创内容公众号本文长度5000字阅读时长预计需要20分钟本文目录一、什么是Prompt二、用更加专业的方式定义Prompt三、用数学来理解Prompt四、NLP发展的四大范式五、为什么Prompt可以减少幻觉六、Open AI()提供的最佳实践七、可以直接使用Prompt的关键框架八、为什么使用框架的效果好[heading2]1、什么是Prompt[content]简单来说,其实是一套你和大模型交互的一种语言模板。通过这个模版,你可以输出你对于大模型响应的指令,用于大模型应该具体做什么指定,完成什么任务,如何处理具体的任务,并最终输出你期望的结果。虽然大模型具有基础的文字能力,能够理解你对于模型说的大部分话,但是为了达成大模型更好的回答效果,需要通过Prompt,来提升模型返回的准确性。如果说,过去的时代,人机交互的主要方式是通过代码,那么我认为在大模型时代,交互语言的主要方式其实是Prompt。[heading2]2、用更加专业的方式定义[content]Prompt大模型的本质是一个基于语言的概率模型,他返回他觉得概率最大的内容。如果是直接问大模型,没有提供Prompt,相当于大模型随机给出他的答案。有了Prompt,其实是给了一个模板,这个模板包括了对于模型的要求,输入和输出的限制,大模型在这个限制之下,去得到概率最大的答案。

从 0 到 1 了解大模型安全,看这篇就够了

隐私泄露可以被大致分为三种:记忆隐私泄露,系统隐私泄露与上下文隐私泄露。我们先来聊聊第一种:记忆数据了、泄露。自回归语言模型的训练可以类比为模型在预训练数据中不断学习的过程,在学习的过程中,除了提取的`语言知识之外,模型无可避免的会记住一些数据。就像背诵一样,可能查询是完全没有恶意的,但模型返回了他人的隐私信息,例如左侧的ChatGPT回答,就正是模型输出了无意识记忆的url,而该url正好指向他人的隐私相册。模型的记忆形式其实和人类很类似,如果模型背诵的次数少,那么模型的记忆能力就会显著下降例如右图所示,横轴是重复次数,纵轴是被记住的可能性,可以看到见过的次数越多,模型就越容易背下来因此在LLM的数据隐私保护中,一个直观地解决办法就是让模型减少见数据的次数,少看几遍,也就记不住了第二种则是系统隐私泄露。例如,大家熟知的“骗取GPTs的System Prompt”就是系统隐私泄漏的一种。第三种则是“上下文隐私泄露”。接下来,我们来讲讲大家耳熟能详的“幻觉”问题。大语言模型偶尔会根据输入,输出一些荒谬或不符合事实的内容。目前,各家大语言模型都在该问题上表现得不尽如人意。为什么大语言模型会出现幻觉呢?以下的论文提供了一些解释:例如第一种:Imitative Falsehoods,样本存在错误。如果大语言模型这个“学生”学习的“教材”中有错误,那它也对不到哪里去。缓解该问题的一个办法是上采样(Up Sampling)。第二种是Outdated Factual Knowledge:以前正确,现在过时了的信息

从原理到应用一次讲清楚 Prompt

在刚刚开始使用ChatGPT()的时候,其实我们只是会把这个对话框理解问题的输入框。或者我们天然的认为这个是一个搜索框,所以就自动的输入了我们的问题。这个时候,大模型完全没有上下文,也没有任何例子可以去参考,所以他只能按照自己的模型的内容,随意的去发挥,看看碰到模型的那一部分,就返回对应的结果。这个就是大模型最被人诟病的地方,所谓的幻觉问题。其实这个不能怪大模型,就算两个人,面对面的沟通,可能由于知识、经历的差别,其实不可能完全的去理解另外一个的意思,何况这只是一个模型。所以,为了让大模型更好的理解我们的问题,我们需要给大模型更多的输入,更多的限定,更多的上下文,更加明确的结果输出,这样大模型才更有可能返回我们期望的结果。Prompt其实也就是用这个思路解决问题的,限定的上下文,更多的输入,更多的限定,从而输出得到更好的结果。

其他人在问
ai幻觉
AI 幻觉是指 AI 系统生成的信息与事实不符或与预期不符,就像在“一本正经地胡说八道”。这并非 AI 故意为之,而是由技术局限性造成的错误。 AI 幻觉的定义为:AI 系统生成的输出内容看似合理流畅,但实际上与输入信息、上下文环境或客观事实相矛盾,缺乏逻辑或经验支撑。其表现形式多种多样,比如生成不存在的人物、地点、事件,或者对已知事实进行错误的描述。 AI 幻觉产生的原因与训练数据的质量、模型的结构和训练策略有关。如果训练数据存在偏差或错误,模型就会学习到这些偏差和错误,并将其体现在生成的内容中。 AI 幻觉存在诸多风险,可能会误导用户,导致用户获取错误信息从而做出错误判断,例如医疗 AI 助手给出错误诊断建议,可能延误患者治疗;可能被用于制造和传播虚假信息,误导公众,影响社会稳定,比如生成虚假新闻报道或社交媒体帖子用于政治宣传或商业炒作;还会损害 AI 系统的可信度,降低用户对 AI 系统的信任度,阻碍 AI 技术推广和应用,比如用户发现 AI 经常“胡说八道”,可能不再信任其判断甚至拒绝使用相关产品。 为了避免 AI 幻觉,您可以参考,但需要注意的是,AI 幻觉不可能完全消除。另外,AI 不会解释自己,当您要求它解释为何生成某些内容时,它给出的答案可能是完全编造的。在使用 AI 时,您需要对其输出负责,并检查所有内容。
2024-10-09
AI幻觉问题,如何解决
以下是关于解决 AI 幻觉问题的一些方法: 1. 借鉴人类应对认知偏差的方法:为解决 AI 幻觉问题提供思路,开发相应技术手段,帮助 AI 更好地理解世界,做出更准确的判断。例如对 AI 模型的训练数据进行“大扫除”,去除错误、补充缺失、平衡偏差,让其学习到更真实全面的知识。 2. 打开 AI 的“黑箱”:让 AI 的“思考过程”更透明,便于人类理解和监督。可解释性 AI 技术能帮助理解 AI 模型如何做出判断,避免因错误逻辑或数据导致错误结论。 3. 打造 AI “智囊团”:让多个 AI 模型协同工作,共同解决问题,避免单个模型的局限性导致的错误。 4. 运用提示词工程:在询问代码功能时,要求 AI 逐行解释代码的含义。明确限制 AI 的生成范围,例如在询问名人名言时指定名人姓名和相关主题,在询问新闻事件时指定事件的时间范围和相关关键词。将提示词变得清晰、具体、有针对性,引导 AI 生成更准确可靠的内容。 5. 进行数据“体检”:为 AI 模型提供“干净”“健康”的训练数据,是预防 AI 幻觉的根本措施。包括数据清洗,去除错误信息、补充缺失数据、修正不一致内容,并消除数据中的偏见;数据增强,为模型提供更多更丰富的训练数据,提高模型的泛化能力。
2024-09-02
大模型的幻觉
大模型的幻觉是指模型倾向于生成看似令人信服但是无根据或虚假的回应。这一现象提出了关于模型输出可靠性和可信度的关键问题,需要采取全面的方法来评估和解决这一问题。已有大量研究致力于从各个角度剖析幻觉问题。这包括旨在评估不同模型和场景中幻觉的程度和性质的努力。这些评估提供了宝贵的见解,说明了幻觉如何以及为什么发生,为制定减少其发生的策略奠定了基础。同时,大量研究集中于设计和实施方法以减少这些大型模型中的幻觉。
2024-04-22
解释一下大语言模型的幻觉
大型语言模型有时会产生所谓的“幻觉”。幻觉是指模型在生成文本时产生不准确、误导性或不相关信息的倾向。这种现象通常发生在模型试图填补其知识或理解上的空白时,尤其是在处理复杂、模糊或具有多义性的输入时。 幻觉的原因包括: 过度泛化:模型可能会过度泛化从训练数据中学到的模式,导致在新的或不常见的情境中产生不准确的信息。 缺乏更新信息:由于大型语言模型通常是基于截至特定时间点的数据集进行训练的,它们可能不具备最新的信息或事件更新。 错误的信息源:在训练过程中,模型可能会吸收不准确或误导性的信息,这些信息可能来源于训练数据中的错误或不准确的数据源。 对模糊或歧义输入的误解:当输入信息含糊不清或具有多种解释时,模型可能会生成与原始意图不符的响应。 为了连贯性牺牲准确性:在尝试生成流畅、连贯的文本时,模型有时可能会牺牲信息的准确性。 为了避免幻觉,用户在使用大型语言模型时应该保持警惕,特别是在处理关键决策或需要高度准确性的情境中。验证模型提供的信息,并从多个可靠来源进行交叉检查是非常重要的。此外,随着技术的进步,模型的设计和训练方法也在不断改进,以减少幻觉现象的发生。
2024-04-17
在调用大模型的过程中,将token设置最大值,大模型回答还是会出现中断的情况,应该怎么避免和解决
在调用大模型的过程中,将 token 设置最大值但回答仍出现中断的情况,可以从以下几个方面避免和解决: 1. 调整相关参数: Max_output_tokens:根据具体需求设置合适的值。若需要更短响应,设为较低值;若希望更长回答,设为较高值。但注意设置过低可能导致回答在奇怪位置截断。 Temperature:值越小,模型返回结果越确定;值调高,可能更随机和具创造性。对于质量保障等任务设低,诗歌生成等创造性任务可适当调高。 Top_p:用于控制模型返回结果的真实性,需要准确和事实答案时调低,想要更多样化答案时调高。一般改变 Temperature 和 Top_p 其中一个参数即可。 Max Length:调整以控制大模型生成的 token 数,有助于防止生成冗长或不相关响应并控制成本。 Stop Sequences:指定字符串,模型生成文本遇到时停止,可控制响应长度和结构。 Frequency Penalty:对下一个生成的 token 进行惩罚,与 token 在响应和提示中出现次数成比例,减少单词重复。 2. 利用插入文本的最佳实践: 使用 max_tokens > 256,模型插入较长完成时效果更好,且只按实际生成 token 数收费。 优先选择 finish_reason == "stop",表明模型成功连接后缀且完成质量良好。 重新采样 3 5 次,温度较高以增加多样性。若所有返回示例的 finish_reason 都是“length”,可能 max_tokens 太小,需考虑增加再重试。 尝试给出更多线索,通过提供示例帮助模型确定自然停顿处。
2024-11-18
目前市面上能力最强的AI模型是哪家的
目前市面上能力较强的 AI 模型来自多家公司和机构。 OpenAI 的 GPT4 是一个表现出色的大型多模态模型,在各种专业和学术基准测试中表现出与人类相当的水平。此外,OpenAI 还带来了其他优秀的模型,如 DALL·E 3 等。 Meta 开发的 Llama 3.1 是迄今为止最大版本,其在推理、数学、多语言和长上下文任务中能够与 GPT4 相抗衡,标志着首次开放模型缩小与专有前沿的差距。 谷歌 DeepMind 与纽约大学团队开发的 AlphaGeometry 在奥林匹克级几何问题基准测试中表现优异。 中国的 DeepSeek、零一万物、知谱 AI 和阿里巴巴等开发的模型在 LMSYS 排行榜上取得了优异的成绩,尤其在数学和编程方面表现出色,且在某些子任务上挑战了 SOTA。 Mistral 7B 是一个具有 73 亿参数的模型,在所有基准测试上超越了 Llama 2 13B,在许多基准测试上超越了 Llama 1 34B,在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。 需要注意的是,AI 模型的能力评估会因不同的任务和应用场景而有所差异,且技术在不断发展和进步,新的更强的模型可能会不断涌现。
2024-11-18
chilloutmix模型
以下是关于 chilloutmix 模型的相关信息: 在腊八节相关的生成中,模型为 chilloutmix_NiPrunedFp32Fix,生成尺寸与草稿图保持一致,有正、负面关键词及 ControlNet 设置等具体参数。 在猫猫相关的生成中,虽然作者建议使用 chilloutmix_NiPrunedFp32Fix 模型,但也可以尝试其他模型。 在 AIGC Weekly 09 中,提到从 civitai 下载 ChilloutMix 模型并放到整合包 models\\Stablediffusion 目录里启动 web UI 切换模型。
2024-11-17
SD好的模型分享
以下是为您分享的关于 SD 模型的相关内容: 对于 SDXL 的 ControlNet 模型中的 Canny 硬边缘模型,有不同型号,如 4080ti 笔记本测试中,12G 显存下,sdxl base+refiner 模型,使用 diffusers 的 2.5Gfull 模型绘制 10241024 尺寸图片需 2 分 57 秒,320Mb 的 small 模型用时 34s,质量差距不大但时间优势明显。其他作者如 kohya 的用时 33 秒,更接近真实质感。sai 的 128lora 和 256lora 分别用时 39 秒和 1 分 08 秒,偏绘画感觉。t2i 的用时 34s,偏插画。关闭 refiner 能节省一半左右时间,平均 17 秒左右。 在 Depth 深度模型测试中,图形尺寸 6641024,diffusers 的 full 模型用时 2 分 48 秒,small 模型用时 23s,kohya 模型用时 42 秒,sai 模型用时 1 分 12 秒,sargezt 模型用时 1 分 52 秒。 用 Stable Diffusion 时,要先确定照片风格,如生成真人 AI 小姐姐可选用 chilloutmix 的大模型。部分常用大模型可在分享的链接中根据文件夹名称找到。文章第三部分会详细介绍模型下载位置和存放位置。 对于 ControlNet 中线条约束类的预处理器和模型,作者已整理好,如需获取可添加公众号【白马与少年】回复【SD】。同时作者还附上一张图帮助理解 ControlNet 模型的命名规则。
2024-11-17
sd模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将一段文本输入到 SD 模型中,经过一定迭代次数生成符合文本描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩的图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示将输入图片重绘以更符合文本描述。比如在之前生成的沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本信息编码,生成 Text Embeddings 特征矩阵,用于控制图像生成。 CLIP 模型包含 Text Encoder 和 Image Encoder 两个模型,在 Stable Diffusion 中主要使用 Text Encoder 模型。它将输入的文本 Prompt 编码转换成 Text Embeddings(文本的语义信息),通过 UNet 网络中的 CrossAttention 模块嵌入 Stable Diffusion 中作为 Condition,对生成图像的内容进行控制与引导。目前 SD 模型使用的是中的 Text Encoder 模型。 CLIP ViTL/14 中的 Text Encoder 是只包含 Transformer 结构的模型,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小是 123M,输出的 Text Embeddings 维度为 77x768。 以下是相关资源获取方式: SD 模型权重百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得包含多种模型权重的资源链接。 SD 保姆级训练资源百度云网盘:关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载:关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2024-11-17
我是一名高中历史老师,请问用什么大模型能帮我做教学设计
以下为您推荐一些利用大模型辅助高中历史教学设计的案例: 有一位历史老师使用 GPT 给学生讲课,通过 GPT 生成一个“沉浸式”历史片段游戏,让学生扮演一个角色“设身处地”地做决策,学生的作业是找出 GPT 的错误。例如明朝灭亡、南京、1645 年 5 月的相关案例,您可以参考:https://chat.openai.com/share/86815f4e674c4410893c4ae3f1b7412e/continue 。 对于历史专业的学生,当他们遇到像 ChatGPT 这样的语言模型时,已经训练有素能够识别一些常见的陷阱,如事实不准确等,并通过事实核查、分析体裁和受众、在相关来源中搜索等技能来解决这些问题。 语言模型对于历史学家和历史专业的学生是有益的,但对于历史老师和其他教育工作者在短期内可能会带来一些问题,需要重新思考许多作业的布置方式。 您可以尝试借鉴这些案例,根据您的教学需求和学生特点,对大模型的应用进行调整和优化。
2024-11-17