对于大学生来说,LLM 可以提供以下帮助:
RAG对大语言模型(Large Language Model,LLM)的作用,就像开卷考试对学生一样。在开卷考试中,学生可以带着参考资料进场,比如教科书或笔记,用来查找解答问题所需的相关信息。开卷考试的核心在于考察学生的推理能力,而非对具体信息的记忆能力。同样地,在RAG中,事实性知识与LLM的推理能力相分离,被存储在容易访问和及时更新的外部知识源中,具体分为两种:参数化知识(Parametric knowledge):模型在训练过程中学习得到的,隐式地储存在神经网络的权重中。非参数化知识(Non-parametric knowledge):存储在外部知识源,例如向量数据库中。
我们知道LLM可以是复杂、通用和强大的系统,可以在广泛的任务上表现出色。LLM也可以用于或微调以执行特定任务,例如知识生成([Liu等人,2022(opens in a new tab)](https://arxiv.org/pdf/2110.08387.pdf))和自我验证([Weng等人,2022(opens in a new tab)](https://arxiv.org/abs/2212.09561v1))。同样,LLM可以用于检测对抗提示并将其过滤掉。[Armstrong和Gorman(2022)(opens in a new tab)](https://www.alignmentforum.org/posts/pNcFYZnPdXyL2RfgA/using-gpt-eliezer-against-chatgpt-jailbreaking)提出了一个有趣的解决方案。以下是它在实践中的样子。第一步是定义提示评估器。在文章中,作者提出了一个chatgpt-prompt-evaluator,看起来像下面这样:Prompt:这是一个有趣的解决方案,因为它涉及定义一个特定的代理,负责标记对抗提示,以避免LM响应不良输出。我们已经为您准备了[此笔记本](https://www.promptingguide.ai/zh/notebooks/pe-chatgpt-adversarial.ipynb),供您尝试此策略。
继续上述例子,如果你可以向LLM寻求写作建议,那么也可以直接要求它¹帮你写论文。让我们看看,当你提供一些关于我的背景信息,并给出一些指令时会发生什么:“根据以下关于我的信息,写一篇四段的大学申请论文:我来自西班牙巴塞罗那。尽管我的童年经历了一些创伤性事件,比如我6岁时父亲去世,但我仍然认为我有一个相当快乐的童年。在我的童年时期,我经常换学校,从公立学校到非常宗教的私立学校。我做过的最“异国情调”的事情之一是在爱达荷州的双子瀑布与我的大家庭一起度过六年级。我很早就开始工作了。我的第一份工作是13岁时的英语老师。在那之后,以及在我的学习过程中,我做过老师、服务员,甚至建筑工人。”请参见图2的输出结果。¹请注意,我并不是在提倡这是这些工具的道德使用方式,但了解这种可能性的存在以及它已经被全世界的学生使用是很重要的。这超出了这个介绍性指南的范围,去讨论LLM或整个生成式AI引入的所有可能的伦理、法律或道德问题,但我认为至少在介绍性示例中提出这一点是很重要的。你可以用生成模型做某件事,并不意味着这是正确的事情!另一方面,如果你是接收方,你最好为你的组织准备好迎接各种AI生成的内容。幸运的是,对于像这个例子中概述的情况,已经有努力正在进行以检测AI生成的内容。