在 AI 连续问答中,有时 AI 似乎不记得第一个问题,可能有以下原因:
为了让 AI 的回复更有灵性和连贯性,可以尝试一些方法,如让 AI 扮演特定角色、给出明确输出要求、营造特定环境、让其用括号补充动作以增加感情等。但即便如此,也不能完全消除上述问题。同时,使用 AI 时要注意对其输出进行检查,避免被不道德地利用。
大家都知道,GPT回答问题特别喜欢用1、2、3、4或“首先、其次、最后”,一股AI味,很无趣。怎样让它别这么古板呢?常见的用法是:让GPT扮演一个特定的角色,给出明确的输出要求。有效吗?有效。这样写了后,果然GPT回答问题就不是“首先、其次”了。但换汤不换药、内容往往差异不大,依旧不是有趣的灵魂。怎样能有一个你真的愿意每天和它对话的AI陪伴者?——让它在说的话中加点儿感情。怎么加?来看这个和伍尔夫围炉夜话的GPTs。首先我营造了一个夜话的环境:享受炉火与热茶。更重要的是:我让它用括号把动作给写出来。你会用()的方式补充你的动作GPTs里的Prompt就这么简单。但我在第一次和AI伍尔夫对话时,给了它一个In-Context-Lerning(上下文学习)的机会,先示范一下:括号——拨动了下炉火中的木炭,火苗亮了起来——括号,然后才开始提问:(拨动了下炉火中的木炭,火苗亮了起来)凯恩斯说以后未来人们每周只要工作15小时。科技都那么发达了,为什么我们却越来越忙碌?你可以看到接下来发生了什么——AI伍尔夫她微笑地看着炉火,然后转过头来看向你。画面感出来了吧!因为有这样的画面,它后面回复的文字也都是这个调调的。然后我不需要再做示范,AI一直能记着用括号。当我说有“刹不住车的感觉”时她会“轻轻点头”让我感觉自己有被听见。
大家都知道,GPT回答问题特别喜欢用1、2、3、4或“首先、其次、最后”,一股AI味,很无趣。怎样让它别这么古板呢?常见的用法是:让GPT扮演一个特定的角色,给出明确的输出要求。有效吗?有效。这样写了后,果然GPT回答问题就不是“首先、其次”了。但换汤不换药、内容往往差异不大,依旧不是有趣的灵魂。怎样能有一个你真的愿意每天和它对话的AI陪伴者?——让它在说的话中加点儿感情。怎么加?来看这个和伍尔夫围炉夜话的GPTs。首先我营造了一个夜话的环境:享受炉火与热茶。更重要的是:我让它用括号把动作给写出来。你会用()的方式补充你的动作GPTs里的Prompt就这么简单。但我在第一次和AI伍尔夫对话时,给了它一个In-Context-Lerning(上下文学习)的机会,先示范一下:括号——拨动了下炉火中的木炭,火苗亮了起来——括号,然后才开始提问:(拨动了下炉火中的木炭,火苗亮了起来)凯恩斯说以后未来人们每周只要工作15小时。科技都那么发达了,为什么我们却越来越忙碌?你可以看到接下来发生了什么——AI伍尔夫她微笑地看着炉火,然后转过头来看向你。画面感出来了吧!因为有这样的画面,它后面回复的文字也都是这个调调的。然后我不需要再做示范,AI一直能记着用括号。当我说有“刹不住车的感觉”时她会“轻轻点头”让我感觉自己有被听见。
为了回应你的答案,AI很容易“产生幻觉”并生成看似合理的事实。它可以生成完全错误的内容,而且非常令人信服。让我强调一下:AI连续且良好地撒谎。它告诉你的每一件事或信息可能都是不正确的。你需要检查所有的东西。你需要全部检查一下。特别危险的是要求它为互联网提供参考、引用、引文和信息(对于未连接到互联网的模型)。因为GPT-4通常更加扎实,因为Bing的互联网连接意味着它实际上可以拉入相关事实。[这是一份避免幻觉的指南](https://oneusefulthing.substack.com/p/how-to-get-an-ai-to-lie-to-you-in),但它们不可能完全消除。另请注意,人工智能不会解释自己,它只会让你认为它解释了自己。如果你要求它解释它为什么写东西,它会给你一个完全编造的合理答案。当你询问它的思考过程时,它并没有审查自己的行动,它只是生成听起来像它在做这样的文本。这使得理解系统中的偏见非常困难,尽管这些偏见几乎肯定存在。它也可以被不道德地用来操纵或作弊。你对这些工具的输出负责。