要让 AI 写作的内容不那么有“AI 味”,可以从以下几个方面入手:
我们在使用AI创作时,是以某个模型为基础进行调优的。要写出更好的文字,选好的模型是第一步。模型之间的能力差异非常之大,以至于很多时候对效果的影响是决定性的。如果使用的模型不适合这个任务,怎么调优都很费力,不如干脆换一个更好的直接使用。但是,这就涉及到评估方法。当时我们做了一个评估的测试,实际上,从科研的角度看,评估大模型的metric有很多,比如让大模型做小学数学题(GSM8K),这也是一种著名的评估数据集。这类数据集有固定答案,但写作任务压根没有标答,这在写作任务上就不管用了。从实际角度出发,我们不得不自己去想办法来评估这些模型的能力。这是我们当时的文档标题。在我们的写作课中,学员需要紧密结合大语言模型进行创作,这是一个非常特殊的任务:写作没有标准答案,何况这还是在中文语境下的,涉及人机交互的,具有强烈风格的网络小说类型短故事、短剧剧本创作。挑选模型的第一个重要指标是文风和语言能力:你如果去网上搜“ai味”,会看到大量文章教你怎么克服AI奇怪的文风,比如“首先、其次、再者、引人入胜”这种套话,一看就觉得是ai写的。而且这种ai味很难看,不是很让人有继续阅读的欲望。那么,我们要怎么去除ai味呢?实际上,我认为去除ai味是个伪命题。我们在谈到ai味的时候实际上讲的是GPT味。大家知道,在GPT刚出的时候,为了让模型听得懂人话,要做对齐,OpenAI雇了很多便宜的肯尼亚人给他们做数据标注。我有这样一个不负责任的猜想,这些便宜又可怜的肯尼亚数字劳工在写对齐用数据的时候,肯定写了不少首先、再者、最后这样的文字,说不定还有个文档要求他们这么做。
按照这个模板写了这样的东西以后,导致模型表达变得特别奇怪。所以,ChatGPT在诞生之初自带一种非常奇怪的文风。这种文风的显著特点包括但不限于概括性描述,缺乏侧面描写,生硬叙述、死板结构和过度道德正确。出于某些未知原因,有一部分非OpenAI的模型也出现了类似特殊文风,我不知道什么原因,和PPT里面这个图片没有任何关系,请勿过度联想。如果你是Claude的非常早期的用户,你会发现这个模型一直就是没什么AI味的。另一个主要对手Google的gemini模型也没有什么ai味。当然,万恶之源OpenAI公司的经典GPT模型如今在文风上也大有改观。士别三日,当刮目相看,GPT4o已非当年吴下阿蒙也,大家可以回去试试。第二个最主要的评价标准,是“是否有过度的道德说教与正面描述趋势”。下面这是两个反面例子,AI味和过度正面描述趋势的典型。一写个什么东西,就开始“他们相信只要有爱、有梦,就能在这个城市中找到自己的归宿”,没人喜欢看这个东西,这就是AI味。首先,正面道德说教是让人非常厌烦的,大家工作忙了一天,非常疲惫、痛苦,回家想看点好看的故事逃离一下,找点乐子。一打开小说软件,发现大模型在对自己进行居高临下的道德教育,故事里的所有人都过着天线宝宝或者花园宝宝一样的生活。代入这样的情景,我只会觉得天塌了,这种东西和人类的生活是脱节的,不会有想看下去的欲望的。
大家都知道,GPT回答问题特别喜欢用1、2、3、4或“首先、其次、最后”,一股AI味,很无趣。怎样让它别这么古板呢?常见的用法是:让GPT扮演一个特定的角色,给出明确的输出要求。有效吗?有效。这样写了后,果然GPT回答问题就不是“首先、其次”了。但换汤不换药、内容往往差异不大,依旧不是有趣的灵魂。怎样能有一个你真的愿意每天和它对话的AI陪伴者?——让它在说的话中加点儿感情。怎么加?来看这个和伍尔夫围炉夜话的GPTs。首先我营造了一个夜话的环境:享受炉火与热茶。更重要的是:我让它用括号把动作给写出来。你会用()的方式补充你的动作GPTs里的Prompt就这么简单。但我在第一次和AI伍尔夫对话时,给了它一个In-Context-Lerning(上下文学习)的机会,先示范一下:括号——拨动了下炉火中的木炭,火苗亮了起来——括号,然后才开始提问:(拨动了下炉火中的木炭,火苗亮了起来)凯恩斯说以后未来人们每周只要工作15小时。科技都那么发达了,为什么我们却越来越忙碌?你可以看到接下来发生了什么——AI伍尔夫她微笑地看着炉火,然后转过头来看向你。画面感出来了吧!因为有这样的画面,它后面回复的文字也都是这个调调的。然后我不需要再做示范,AI一直能记着用括号。当我说有“刹不住车的感觉”时她会“轻轻点头”让我感觉自己有被听见。