人工智能的历史可以追溯到二十世纪中叶。
在早期,符号推理较为流行,专家系统是重要成果之一,能在有限领域充当专家。但因从专家提取知识并转化为计算机可读形式复杂且成本高,导致 20 世纪 70 年代出现“人工智能寒冬”。
随着时间发展,计算资源更便宜,数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中“人工智能”常被视为“神经网络”的同义词。
AI 技术发展历程包括:
当前 AI 前沿技术点有:
最初,查尔斯·巴贝奇发明计算机,遵循受控计算理念。但有些任务如根据照片判断年龄无法明确编程,这类任务正是 AI 所关注的。
人工智能作为一个领域始于二十世纪中叶。最初,符号推理非常流行,也带来了一系列重要进展,例如专家系统——能够在某些有限问题的领域充当专家的计算机程序。然而,人们很快发现这种方法无法实现应用场景的大规模拓展。从专家那里提取知识,用计算机可读的形式表现出来,并保持知识库的准确性,是一项非常复杂的任务,而且因为成本太高,在很多情况下并不适用。这使得20世纪70年代出现了“人工智能寒冬”([AI Winter](https://en.wikipedia.org/wiki/AI_winter))。随着时间的推移,计算资源变得越来越便宜,可用的数据也越来越多,神经网络方法开始在计算机视觉、语音理解等领域展现出可与人类相媲美的卓越性能。在过去十年中,“人工智能”一词大多被用作“神经网络”的同义词,因为我们听到的大多数人工智能的成功案例都是基于神经网络的方法。我们可以观察一下这些方法是如何变化的,例如,在创建国际象棋计算机对弈程序时:
AI技术的发展历程和前沿技术点可以概括如下:[heading2]AI技术发展历程[content]1.早期阶段(1950s-1960s):专家系统、博弈论、机器学习初步理论2.知识驱动时期(1970s-1980s):专家系统、知识表示、自动推理3.统计学习时期(1990s-2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)4.深度学习时期(2010s-至今):深度神经网络、卷积神经网络、循环神经网络等[heading2]当前AI前沿技术点[content]1.大模型(Large Language Models):GPT、PaLM等2.多模态AI:视觉-语言模型(CLIP、Stable Diffusion)、多模态融合3.自监督学习:自监督预训练、对比学习、掩码语言模型等4.小样本学习:元学习、一次学习、提示学习等5.可解释AI:模型可解释性、因果推理、符号推理等6.机器人学:强化学习、运动规划、人机交互等7.量子AI:量子机器学习、量子神经网络等8.AI芯片和硬件加速
译者:Miranda,原文见https://microsoft.github.io/AI-For-Beginners/lessons/1-Intro/README.md[heading1][课前测试](https://red-field-0a6ddfd03.1.azurestaticap[content]人工智能(Artificial Intelligence)是一门令人兴奋的科学,它研究我们如何使计算机表现出智能行为,例如做一些人类所擅长的事情。最初,查尔斯·巴贝奇(Charles Babbage)发明了计算机,用于按照一套明确定义的程序(即算法)来对数字进行运算。现代计算机虽然比19世纪提出的原始计算机模型要先进得多,但仍然遵循着相同的受控计算理念。因此,如果我们知道实现某些目标所需的每一个步骤及其顺序,就有可能编写出程序,使计算机按照我们的想法去做这些事。✅“根据照片判断一个人的年龄”是一件无法明确编程的任务,因为我们并不知道当我们在做这件事时,是如何经过某些清晰的步骤,从而在脑海中得到一个数字的。然而,对于有些任务,我们并不能知道明确的解法。例如从一个人的照片中来判断他/她的年龄。我们之所以能做这件事,是因为我们见过了很多不同年龄的人,但我们无法明确自己的大脑具体是通过哪些步骤来完成这项任务的,所以也无法编写明确的程序让计算机来完成。这种类型的任务正是人工智能(简称AI)感兴趣的。✅想一想,如果人工智能得以实现,哪些任务可以被交给计算机完成?考虑金融、医学和艺术领域,这些领域如今是如何从人工智能中受益的?