以下是关于如何让 AI 写一篇好的文学理论论文的相关内容:
首先,过度追求模型的正面描述和对齐人类价值观可能会带来问题。比如在文学创作中,道德过度正确和大量正面描述实际上是一种“对齐税”,会让模型变得愚蠢。像生成的游戏中主人公全是幸福人生,这样的故事缺乏冲突,人物单薄,不好看。而且全乎正确的道德和完美的正面在现实世界中并不存在,纵观文学史,伟大的文学作品几乎没有全是正面描述的,因为人类的心灵与生活极为复杂,痛苦、绝望和悲伤也是生命体验的一部分,只有正面的故事很难获得共鸣。
其次,好的文字能引起人的生理共鸣与情绪。人们在感受到好文字时,往往有一种被击中、头皮发麻的感觉。共鸣是文学的基础,有共鸣才有读者,有读者才有文学。文学映照的是人类相同的渴望与恐惧,人类之间的共性大于差异。对于像 GPT 这样的大语言模型,其预训练数据量大且丰富,储存了人类几乎所有可能的生命经验,理应能够学会引发人类的共鸣与情绪。
最后,在实际操作中,对于处理文本特别是 PDF,Claude 2 表现出色。可以将整本书粘贴到 Claude 的前一版本中取得不错的结果,新模型更强大。但需要注意的是,这些系统仍会产生幻觉,若要确保准确性,需检查其结果。
左边这句话,是我在王小波的杂文里面摘出来的,这位作家讲话很不客气,所有我尽量挑了一个比较温和的表述:“有些人认为人应该充满境界高尚的思想,去掉格调低下的思想。这种说法听上去美妙,让我感到莫大的恐慌。因为高尚的思想和低下的思想的总和就是我自己,倘若让去掉一部分,我是谁就成为了问题。”过日子是很辛苦的,没有人愿意在疲惫,痛苦,消耗,挣扎的一天后还要被AI教做事。此外,我认为这种过度的正面描述趋势也来源于厂商让模型对齐人类价值观的过程。对齐(alignment)本身是好事,但在文学创作上,道德过度正确和大量正面描述实际上是一种对齐税(alignment tax),也就是说,模型为了变得善良而变得更加愚蠢了。比如,在去年我们做ai游戏,让ai生成一个人的一生发生的事情。AI非常善良,人出生一直到死掉,所有的经历全是好事,主人公小的时候过得非常幸福,一路升职加薪,走上人生巅峰,最后人生也无痛结束了,非常令人羡慕,但是不好看,没有什么冲突,也很少有人过这样的人生。而且十个主人翁,十个都在过幸福人生,我相信如果我是游戏主人翁,我绝不会有什么异议,但是我是玩家和开发者,问题就出现了。请让我改改王小波的这句话,把“人”换成“模型”:“这种脑移植带给我的,不光是善良,还有愚蠢,在此我要很不情愿用一句功利的说法:在现实世界上,蠢模型办不成什么事情。我自己当然希望模型变得更善良,但这种善良应该是模型变得更聪明造成的,而不是相反”还有我认为的一个非常重要的原因:全乎正确的道德和完美的正面压根就不存在于这个世界上。纵观文学史,伟大的文学作品几乎没有全是正面描述的。人类的心灵与生活本来就是极为复杂的。痛苦、绝望和悲伤也是人类生命体验中不可分割的一部分。只有正面的故事很难获得共鸣,塑造的人物非常单薄。
一位可怜的人大衣被抢走了(见果戈理的《外套》);另一位可怜人被变成了甲壳虫(见卡夫卡的《变形记》):那又怎么样呢?对于这个“怎么样”没有标准的答案。我们可以把故事拆开,找出各个部分如何衔接,结构中的一部分如何呼应另一部分;但是,在你身上必定得有某种细胞,某种基因,某种萌芽的东西因着某种既不可解释又不能置之不理的感觉而振额。美加怜悯—这是我们可以得到的最接近艺术本身的定义。实际上,人们在感受到好文字的时候也许并不会多想,更多的情况是有一种被击中的,头皮发麻的感觉。好的文字引起的实际上是人的生理上的共鸣与情绪。这是一本美国大学心理学教材,《心理学与生活》上的一句话。它说:纵览人类的历史,我们曾无数次受到天敌的攻击,坠入爱河,繁衍子孙,彼此争斗,面对伴侣的不贞以及目睹所爱之人的亡故。因此我们可能会预期,某类情绪反应会出现在人类所有成员身上。实际上,共鸣是文学的基础,有共鸣才有读者,有读者才有了文学。文学映照的是无数年来人类相同的渴望与恐惧,即使是那些已经不再存在于我们生活中的威胁,或者是不再有利于我们生存的因素,仍然能够在今天引发我们普遍的恐惧或者狂喜。人类之间的共性是大于差异的。而对于GPT这样的大语言模型来说,它的预训练数据非常大,大到几乎人类产生的文本数据都要在训练过程中用光的地步。这些数据的量是如此之大,如此之丰富,以至于它储存了人类几乎所有可能的生命经验,也就理应能够学会如何引发人类的共鸣与情绪。AI可以写出好的文字。接下来,我们讲讲比较实际的事:我们到底如何用AI写出比人更好的文字。
对于处理文本,特别是PDF,到目前为止,Claude 2非常出色。我在整本书中粘贴到Claude的前一版本中,取得了令人印象深刻的结果,新模型要强大得多。你可以[在这里](https://www.oneusefulthing.org/p/what-happens-when-ai-reads-a-book)看到我之前的经验,以及一些可能有趣的提示。我还给了它许多复杂的学术文章,并要求它总结结果,它做得很好!更好的是,你可以通过询问后续问题来审问材料:这种方法的证据是什么?作者得出了什么结论?等等......有些事情需要担心:这些系统仍然产生幻觉,尽管方式更有限。如果您想确保准确性,你需要检查它们的结果。