普通人认识 AI 可将其视为黑箱,是似人而非人的存在。想让其实现愿望,要通过清晰语言压缩其自由度,明确目标、边界、路径和所需知识。同时,要接受其似人的不稳定性,通过多轮对话修正,因为不能期望一次输入就得到理想结果。
AI是什么?作为一个不具备理工科背景的文科生,要搞清楚“ AI ”其实是一件很困难的事情(什么Agents、AIGC、LLM,什么符号主义、什么语义规则傻傻分不清楚),所以最好的处理方式是就把AI当成一个黑箱,我们只需要知道AI是某种模仿人类思维可以理解自然语言并输出自然语言的东西就可以。至于AI如何去理解,其实不重要。于是我们可以发现驱动AI工具和传统道教的驱神役鬼拘灵遣将有奇妙的相似之处,都是通过特定的文字、仪轨程式来引用已有资源,驱使某种可以一定方式/程度理解人类文字的异类达成自己预设的效果,且皆需要面对工具可能突破界限(发疯)的情况。当然,不熟悉道教的朋友可以把这东西理解成某种可以理解人类文字但不是人的魔法精灵/器灵之类的东西——总之,AI的生态位就是一种似人而非人的存在。AI技术再爆炸一万倍,AI的生态位也还是一种似人而非人的存在。由此,我们可以从人类各个文明的传说中,从那些古老哲人们的智慧里寻找到当下和AI、神、精灵、魔鬼这种似人非人存在相处的原则:1.当你想让祂实现愿望时,基于祂的“非人”一面,你需要尽可能的通过语言文字(足够清晰的指令)压缩祂的自由度——(1)你不仅要清晰的告诉祂需要干什么,还需要清晰的告诉祂边界在哪里。(2)你不仅要清晰的告诉祂目标是什么,还需要清晰的告诉祂实现路径方法是哪一条。(3)你不仅要清晰的告诉祂实现路径,最好还直接给到祂所需的正确的知识。
《浮士德》《一千零一夜》《酉阳杂俎》……各个地区各个时代的神怪小说一个非常重要的故事类型就是“当你面对一个‘似人非人拥有神力/魔法的异类’时,许愿没有许清楚会有什么倒霉下场。”时间到了我们这个时代,你真的想要AI发挥出期待的效果的话,最好也学习一下古人早就总结出来的智慧。(xs最好的AI提示词编写启蒙书其实是《一千零一夜》)2.基于祂“似人”的一面,你最好从一开始就接受祂会存在的“不稳定性”。也就是说,即使你的指令再清晰,祂也可能会学习人类思维磨洋工、乱搞、不执行,而你需要教育祂、监督祂、鞭策祂。虽然陶律师对AI的技术原理一窍不通,但基于“AI的方向是尽可能实现对人类思维、人类自然语言的高度模拟”这个哲学基点,可以预判一波“一定程度的不确定性/模糊性会是AI的固有属性。”因为这种一定程度内的不确定性/模糊性正是人类思维/自然语言的精华所在,是人(生灵)区别于机械的价值所在。这意味着你不能期待设计一个完美的提示词,然后AI百分百给到你一个完美的符合你要求的答案,中间不能有谬误,否则就是一个需要修复的“ BUG ”——这本质上还是前AI时代“机器编程”的思路,是工程学的,把AI当成机械的。这意味着的你要给到AI的提示词实际上是一个关于此项问题的相对完善的“谈话方案”,真正的成果需要在你们的对话中产生——实际上你也需要在对话中来限缩你自己思维中的模糊地带。
现在大多数人(包括各个大厂的提示词工程师们)基本上都还抱着前AI时代的“机器编程”思路来进行AI的“自然语言编程”。就陶律师自己的实践来看,盲猜一波现在比较普遍那种希望通过一个超级提示词母机,保证ai不出错的一次性生成用户想要的理想效果的工程学路线——恐怕原理上比较难走而对于各位想要尝试AI的朋友们,陶律师的建议是,最好多给到AI几轮对话修正的余地,不要期望输入一次提示词AI就能给到你想要的东西——毕竟很多时候其实你自己刚开始也不知道自己想要什么。