机器学习是人工智能的一个分支,其发展有着清晰的脉络,从以“推理”为重点,到以“知识”为重点,再到以“学习”为重点。机器学习在近 30 多年已发展为多领域科际集成,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。
在 Deep Learning 理论和数据集的加持下,2012 年以来深度神经网络算法开始大爆发,出现了卷积神经网络(CNN)、递归神经网络(RNN - Recurrent Neural Network)和长短期记忆网络(LSTM - Long Short-Term Memory)等。例如,CNN 的结构基于两类细胞的级联模型,在计算上更有效、快速,在自然语言处理和图像识别等应用中表现出色。递归神经网络是较高层的神经元直接连接到较低层的神经元。
日本的计算机研究员福岛邦彦根据人脑中视觉的运作方式,创建了一个人工神经网络模型。该架构基于人脑中两种类型的神经元细胞,称为简单细胞和复杂细胞,它们存在于初级视觉皮层中,负责处理视觉信息。简单细胞检测局部特征,如边缘;复杂细胞汇总简单细胞在一个区域内产生的结果,逐级识别得到完整结果。
机器学习是人工智能的一个分支。人工智能的研究历史有着一条从以“推理”为重点,到以“知识”为重点,再到以“学习”为重点的自然、清晰的脉络。显然,机器学习是实现人工智能的一个途径之一,即以机器学习为手段,解决人工智能中的部分问题。机器学习在近30多年已发展为一门多领域科际集成,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。
CNN的结构是基于这两类细胞的级联模型,主要用于模式识别任务。它在计算上比大多数其他架构更有效、更快速,在许多应用中,包括自然语言处理和图像识别,已经被用来击败大多数其他算法。我们每次对大脑的工作机制的认知多一点,神经网络的算法和模型也会前进一步!
在Deep Learning理论和数据集的加持下,2012年以来深度神经网络算法开始大爆发,卷积神经网络(CNN)、递归神经网络(RNN - Recurrent Neural Network)和长短期记忆网络(LSTM - Long Short-Term Memory)等等,每一种都有不同的特性。例如,递归神经网络是较高层的神经元直接连接到较低层的神经元。来自日本的计算机研究员福岛邦彦(Kunihiko Fukushima)根据人脑中视觉的运作方式,创建了一个人工神经网络模型。该架构是基于人脑中两种类型的神经元细胞,称为简单细胞和复杂细胞。它们存在于初级视觉皮层中,是大脑中处理视觉信息的部分。简单细胞负责检测局部特征,如边缘;复杂细胞汇集了简单细胞在一个区域内产生的结果。例如,一个简单细胞可能检测到一个椅子的边缘,复杂细胞汇总信息产生结果,通知下一个更高层次的简单细胞,这样逐级识别得到完整结果。配图05:深度神经网络如何识别物体(TensorFlow)