要让大模型回答得简单一点并限制字数,可以通过以下几种方式:
使用提示词时,您会通过API或直接与大语言模型进行交互。你可以通过配置一些参数以获得不同的提示结果。调整这些设置对于提高响应的可靠性非常重要,你可能需要进行一些实验才能找出适合您的用例的正确设置。以下是使用不同LLM提供程序时会遇到的常见设置:Temperature:简单来说,temperature的参数值越小,模型就会返回越确定的一个结果。如果调高该参数值,大语言模型可能会返回更随机的结果,也就是说这可能会带来更多样化或更具创造性的产出。我们目前也在增加其他可能token的权重。在实际应用方面,对于质量保障(QA)等任务,我们可以设置更低的temperature值,以促使模型基于事实返回更真实和简洁的结果。对于诗歌生成或其他创造性任务,你可以适当调高temperature参数值。Top_p:同样,使用top_p(与temperature一起称为核采样的技术),可以用来控制模型返回结果的真实性。如果你需要准确和事实的答案,就把参数值调低。如果你想要更多样化的答案,就把参数值调高一些。一般建议是改变Temperature和Top P其中一个参数就行,不用两个都调整。Max Length:您可以通过调整max length来控制大模型生成的token数。指定Max Length有助于防止大模型生成冗长或不相关的响应并控制成本。
最近经常被询问“如何让大模型生成的内容更多更丰富一点。”这个问题拆解一下其实是几个不一样的诉求:1.扩写(俗称水文):基于一篇给定的内容,进行“注水”式的内容扩充。2.编写:基于给定的内容框架,尽可能详细的生成框架中的内文。3.改写(不就是洗稿吗……):基于给定的完整内容,尽可能详细的生成另一种方式的写作(打散叙事逻辑重述等)上述三种写法都有对应的写作方法论,要明白保留什么增加什么,根据什么规则增加,如何注水还不显得特别啰嗦。但这不是本篇主要探索的方向。上述三类写作,都大概率会遇到同一个问题:在单次对话中,无论如何努力要求,大模型都会把一次性生成的内容压缩到800-1000中文左右,很难突破。在这一点上,之前很多作者都分享过利用分治法来分段输出,最后自己拼合的方式,可以非常简单有效的解决生成内容颗粒度的问题。
在询问中包含详细信息,以获得更多相关答复。这是因为,大模型不是我们肚子里的蛔虫,它无法在有限的信息中“猜测”我们的意图,所以,在问问题的时候,不要惜字如金,多说一些内容,多提供一些信息,这样可以很有效的提高大模型回复的质量和丰富性。我们来看一个例子:当我们想要大模型为我们提供一些思维模型时,本能的问法可能是:“给我列几个思维模型”。于是很常见下面这样的对话:当我们愿意给出更多信息,比如我们为什么需要这个模型,希望ChatGPT列举三个模型,以及是否有我们已知的模型作为参考时,ChatGPT可以提供更加符合我们预期的回答:我们再来看一个例子,假设我们想请ChatGPT帮助我们记忆一个比较抽象的概念,我们可能会脱口而出这样的问题:但如果我们停下来思考一下,深想一步,提供更多细节,就能得到更符合期望的回答了:最后,我们想通过ChatGPT来了解提示词,这是一个坏例子:让我们给出特定的情景和进一步思考的问题: