AI 的底层逻辑包括以下几个方面:
今年1年多的发酵,这波AI在越来越多的场景落地,逐渐成为企业管理和决策的重要工具。它可以通过处理海量数据,为企业提供精准的预测和决策建议,帮助企业在复杂的市场中快速做出反应。然而,正如赫拉利在其著作中所指出的,AI的决策过程并不代表“理解”,而是基于复杂的计算和模式匹配。AI的强大计算能力常常掩盖了其本质的局限性,这使得我们不得不重新审视AI决策与人类独立判断之间的关系。[heading2]AI决策的黑盒效应[content]目前看来,并没有人,也没有机构完全理解AI背后的逻辑,妥妥就是个“黑盒”,这意味着我们可以看到其输出结果,但很难理解背后的具体决策过程。AI系统的复杂性,以及基于深度学习的算法,使得即使是系统开发者也很难解释某一特定决策背后的细节。这种不透明性给企业决策带来了很大的风险。赫拉利曾提出,虽然AI看似能够提供最优解决方案,但这些方案本质上只是基于统计模型和大量历史数据的运算结果,并不具备真正理解和情境感知。举个例子,企业领导层在进行市场战略调整时,可能依赖AI提供的数据分析结果。但在高度复杂或快速变化的市场环境中,AI的决策是否真正考虑到了变化的变量,是否能够识别出潜在的长期风险?由于AI决策过程不可见或难以解释,企业管理者可能会倾向于盲目信任AI,忽视了自身对市场环境的判断。这种信任的盲点正是AI决策的黑盒效应带来的潜在问题。AI让我们快速启动一件事,快速做图,快速做视频,快速写文章,快速做报告,但是当我们想要深入,精雕细琢的时候,很快就会意识到,并不容易!
没错,这就是大语言模型真实工作的样子,平时使用大模型看到他逐字输出的样子,并不是程序员做的酷炫“打字机”效果,而是大模型就是如此这般工作的。按照我们的常识认知,这种依靠概率计算逐字接龙的方法,恐怕连生成一个通顺的句子都难,更别提生成高质量有意义的回答了,为什么这种方法会有效呢?答案就是大,GPT-1的参数规模是1.5亿,GPT-2 Medium的参数规模是3.5亿,到GPT-3.5时,他的参数规模来到了惊人的1750亿,我们常说大力出奇迹,参数规模的增加,使得大模型实现了量变到质变的突破,最终“涌现”出了这种惊人的“智能”。反观人类自身,无论是长周期看物种的进化,还是短周期看一个个体的学习成长历程,都有这样“涌现”的结构,就像当我打下这些文字的时候,我的大脑也在神奇的进行着快速的语言组织,这个边打字边思考边输出的过程,又何尝不是一场接龙游戏呢?图15文字接龙游戏预训练(Pre-trained):正如我们前面五点朴素洞察提到的,人类是不知道自己没见过/学过的知识的,大模型也是如此,大模型“脑袋”里存储的知识,都是预先学习好的,这个预先学习并把对知识理解存储记忆在“脑袋”里的过程,就称为预训练。预训练是需要花费相当多的时间和算力资源的,当你了解并意识到预训练机制的时候,你就会明白,在没有其他外部帮助(例如使用浏览器插件,RAG等)的情况下,大模型所知道的知识信息总是不完备的,滞后的(非实时)。
下图(图11)中的左下角展示了生物神经网络和人工神经网络的对比,早在初中生物课本上,我们就学习了解过大脑神经元细胞的基本结构,正是一个个这样的细胞彼此“手拉手”交织出一张庞大复杂的神经网络,让我们拥有了引以为傲的智能。计算机科学家/工程师们以此为灵感,利用概览模型很巧妙的在计算机上实现了对人脑这种结构的模仿,只不过由于计算机是在二进制下工作的,因而其每个神经元节点也更为简单(本质上只是将接受的输入进行了一些简单的加法和乘法运算,而后输出)。下图中关于激活函数(用来实现归一化操作)和概率模型的内容,不感兴趣的小伙伴可放心跳过,如果你想了解更多,可检索这些关键词并关注这篇发表于1957年的论文(https://www.ling.upenn.edu/courses/cogs501/Rosenblatt1958.pdf)。图11生物神经网络和人工神经网络事实上,正如人类大脑是一个混沌系统一样,大模型内部也是一个混沌系统,正如我们无法知道自己大脑里某个特定的神经元细胞存储着什么具体的信息或知识,即使是OpenAI的科学家,也同样也无法解释大模型内的微观细节。这种不确定带来的“不安感”让人有些不爽,但有一点似乎是确定的,那就是学习人类大脑结构的AI,不仅学去了我们身上的诸多优点,也学习了其他的特质,而这些特质,在许多实际应用中表现为了“缺陷”和“不足”。我们不妨带入自身,一起来尝试思考回答以下问题:问题1问题2问题3问题4(这是一句话,遮住了部分文字)问题5问题6我做过大量真实的调查: