算法在 AI 中具有重要地位。AI 技术的发展历程经历了多个阶段,包括早期的专家系统、博弈论和机器学习初步理论,知识驱动时期的专家系统、知识表示和自动推理,统计学习时期的机器学习算法如决策树、支持向量机和贝叶斯方法等,以及深度学习时期的深度神经网络、卷积神经网络和循环神经网络等。
当前 AI 的前沿技术点众多,例如大模型如 GPT、PaLM 等,多模态 AI 包括视觉-语言模型和多模态融合,自监督学习如自监督预训练、对比学习和掩码语言模型等,小样本学习如元学习、一次学习和提示学习等,可解释 AI 涉及模型可解释性、因果推理和符号推理等,机器人学涵盖强化学习、运动规划和人机交互等,量子 AI 包含量子机器学习和量子神经网络等,还有 AI 芯片和硬件加速。
需要注意的是,在物理科学等领域,我们期望构建特定的测量设备来测量我们“知道如何解释”的数量,但人工智能有时更像是一个黑匣子,正在测量某些东西,但至少在一开始我们不一定对它有任何解释。有时我们能够进行与我们知道的一些描述相关联的训练,从而得到一个粗略的解释,就像情感分析这样的情况,但常常并非如此。甚至在物理科学中也可能出现类似情况,比如测试一种材料是否刮擦另一种材料的表面,大概可以解释为材料的某种硬度,但实际上这只是一种测量,如果能成功地将其与其他事物联系起来,那就变得很重要。
1.早期阶段(1950s-1960s):专家系统、博弈论、机器学习初步理论2.知识驱动时期(1970s-1980s):专家系统、知识表示、自动推理3.统计学习时期(1990s-2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)4.深度学习时期(2010s-至今):深度神经网络、卷积神经网络、循环神经网络等[heading2]当前AI前沿技术点[content]1.大模型(Large Language Models):GPT、PaLM等2.多模态AI:视觉-语言模型(CLIP、Stable Diffusion)、多模态融合3.自监督学习:自监督预训练、对比学习、掩码语言模型等4.小样本学习:元学习、一次学习、提示学习等5.可解释AI:模型可解释性、因果推理、符号推理等6.机器人学:强化学习、运动规划、人机交互等7.量子AI:量子机器学习、量子神经网络等8.AI芯片和硬件加速
[title]沃尔夫勒姆:人工智能能解决科学问题吗?[heading2]科学作为叙事So can AI help us automatically create such explanations?To do so it must in a sense have a model for what we humans understand—and how we express this understanding in words,etc.It doesn’t do much good to say “here are 100 computational steps that produce this result”.To get a “human-level explanation” we need to break this down into pieces that humans can assimilate.那么人工智能可以帮助我们自动创建这样的解释吗?要做到这一点,它在某种意义上必须有一个我们人类理解的模型,以及我们如何用语言表达这种理解等。说“这是产生这个结果的100个计算步骤”并没有多大用处。为了获得“人类水平的解释”,我们需要将其分解为人类可以吸收的部分。As an example,consider a mathematical proof,generated by automated theorem proving:作为一个例子,考虑一个由自动定理证明生成的数学证明:
[title]沃尔夫勒姆:人工智能能解决科学问题吗?[heading2]超越“精确科学”In an area like physical science,we expect to build specific measuring devices that measure quantities we “know how to interpret”.But AI is much more of a black box:something is being measured,but at least at the outset we don’t necessarily have any interpretation of it.Sometimes we’ll be able to do training that associates some description we know,so that we’ll get at least a rough interpretation(as in a case like sentiment analysis).But often we won’t.在物理科学等领域,我们期望构建特定的测量设备来测量我们“知道如何解释”的数量。但人工智能更像是一个黑匣子:正在测量某些东西,但至少在一开始我们不一定对它有任何解释。有时我们能够进行与我们知道的一些描述相关联的训练,这样我们至少能得到一个粗略的解释(就像情感分析这样的情况)。但我们常常不会。(And it has to be said that something similar can happen even in physical science.Let’s say we test whether one material scratches the surface of another.Presumably we can interpret that as some kind of hardness of the material,but really it’s just a measurement,that becomes significant if we can successfully associate it with other things.)(不得不说,即使在物理科学中也可能发生类似的情况。假设我们测试一种材料是否刮擦另一种材料的表面。大概我们可以将其解释为材料的某种硬度,但实际上这只是一种测量,如果我们能够成功地将它与其他事物联系起来,那就变得很重要。)