以下是关于 AI 模型敏感词管控的相关信息:
通过上述的测试数据,我们可以发现,的确模型存在这种遗忘的现象,那是因为我们输入的内容超过了一定的token,导致模型存在了一些遗忘(在介绍token时,我有简单说明),这里请模型再次检查,让模型帮我们重新整理了数据。因此,请AI再次自我检查的提示词习惯,最好是在输入大量文本后,或者在大量对话后,让模型进行自己检查,可以帮助我们收获更加准确的答案哦。
这种属于“基于提示词过滤”的进阶版了,我们可以用像BERT这样的小型文本分类模型,或者像ChatGPT这样的大型语言模型,来自动分析和分类输入的内容。这样做的好处是,我们不需要提前知道很多信息,就能灵活地应对各种复杂的场景和不同的需求(模型的泛化能力)。在输入方面,通过学习和训练大量已知的安全威胁样本,我们可以建立一个分类模型来检测和过滤掉输入中的有害内容。这是现在很多大型语言模型服务采用的主流防御策略。像OpenAI的ChatGPT、谷歌的Bard、微软的NewBing等模型产品,都用了这种策略。它们会检测用户输入的内容,和核心的大型语言模型一起工作,防止有害和敏感信息的输入,确保输出的内容是合规的。
这种属于“基于提示词过滤”的进阶版了,我们可以用像BERT这样的小型文本分类模型,或者像ChatGPT这样的大型语言模型,来自动分析和分类输入的内容。这样做的好处是,我们不需要提前知道很多信息,就能灵活地应对各种复杂的场景和不同的需求(模型的泛化能力)。在输入方面,通过学习和训练大量已知的安全威胁样本,我们可以建立一个分类模型来检测和过滤掉输入中的有害内容。这是现在很多大型语言模型服务采用的主流防御策略。像OpenAI的ChatGPT、谷歌的Bard、微软的NewBing等模型产品,都用了这种策略。它们会检测用户输入的内容,和核心的大型语言模型一起工作,防止有害和敏感信息的输入,确保输出的内容是合规的。