深度学习是源于新方法和策略的概念,旨在克服梯度消失问题以生成深层非线性特征层次,从而能够训练具有数十层非线性层次特征的体系结构。2010 年早期的研究表明,结合 GPUs 和激活函数能提供更好的梯度流,足以训练深层结构。深度学习不仅与学习深度非线性层次特征有关,还与学习检测序列数据中非常长的非线性时间依赖性有关。长短时记忆循环神经网络允许网络收集过去几百个时间步的活动以做出准确预测,自 2013 年以来其使用量迅速增长,与卷积网络一起构成了深度学习的两大成功案例之一。
Geoffrey Hinton 从高中时期就对大脑工作原理的相关理论着迷,并在求学期间继续对神经网络进行探索,经过三十多年的努力,将深度学习从边缘课题发展成为 Google 等网络巨头仰赖的核心技术。如今,包括 Hinton 在内的一些学者在互联网上大有名气,他们为各大公司使用深度学习技术改进相关工具做出了贡献。
此外,关于深度学习背后的深层数学,推荐 Ian Goodfellow、Yoshua Bengio 和 Aaron Courville 合著的《深度学习》一书,该书可在 https://www.deeplearningbook.org/ 上获取。
[title]深度学习(1)核心概念[heading2]核心概念[heading3]深度学习“深度学习”一词源于新的方法和策略,这些方法和策略旨在通过克服梯度消失的问题来生成这些深层的非线性特征层次,以便我们可以训练具有数十层非线性层次特征的体系结构。在2010年早期,有研究表明,结合GPUs和[激活函数](https://developer.nvidia.com/zh-cn/blog/deep-learning-nutshell-core-concepts/#activation-function)提供更好的梯度流,足以在没有重大困难的情况下训练深层结构。从这里开始,人们对深入学习的兴趣与日俱增。深度学习不仅与学习深度非线性层次特征有关,还与学习检测序列数据中非常长的非线性时间依赖性有关。虽然大多数其他处理顺序数据的算法只有最后10个时间步的内存,[长短时记忆](https://developer.nvidia.com/blog/parallelforall/deep-learning-nutshell-sequence-learning#LSTM)[循环神经网络](https://developer.nvidia.com/blog/parallelforall/deep-learning-nutshell-sequence-learning#recurrent-neural-networks)(由Sepp Hochreiter和J ü rgen-Schmidhuber在1997年发明)允许网络收集过去几百个时间步的活动,从而做出准确的预测。虽然LSTM网络在过去10年中大多被忽视,但自2013年以来,LSTM网络的使用量迅速增长,与卷积网络一起构成了深度学习的两大成功案例之一。
[title]微软AI初学者入门课程特定的机器学习云框架。例如[Azure Machine Learning](https://azure.microsoft.com/services/machine-learning/?WT.mc_id=academic-77998-cacaste),[Microsoft Fabric](https://learn.microsoft.com/en-us/training/paths/get-started-fabric/?WT.mc_id=academic-77998-bethanycheum),或[Azure Databricks](https://docs.microsoft.com/learn/paths/data-engineer-azure-databricks?WT.mc_id=academic-77998-cacaste)。如有需要,考虑以下课程:《[使用Azure Machine Learning构建和运行机器学习解决方案](https://learn.microsoft.com/en-us/training/paths/explore-azure-machine-learning-workspace/?WT.mc_id=academic-77998-cacaste)》、《[使用Azure Databricks构建和运行机器学习解决方案](https://learn.microsoft.com/en-us/training/paths/build-operate-machine-learning-solutions-azure-databricks/?WT.mc_id=academic-77998-cacaste)》。对话式人工智能和聊天机器人。这方面有一个单独的课程《[创建对话式人工智能解决方案](https://learn.microsoft.com/en-us/training/paths/create-conversational-ai-solutions/?WT.mc_id=academic-77998-cacaste)》,你也可以参考[这篇博文](https://soshnikov.com/azure/hello-bot-conversational-ai-on-microsoft-platform/)了解更多详情。深度学习背后的深层数学(Deep Mathematics)。关于这一点,我们推荐Ian Goodfellow、Yoshua Bengio和Aaron Courville合著的《深度学习》(Deep Learning)一书,该书可在https://www.deeplearningbook.org/上获取。
[title]Geoffrey Hinton是这个人,一步步把“深度学习”从边缘课题变成Google等网络巨头仰赖的核心技术王晨推荐早在1960年代,Geoffrey Hinton的高中时期,就有一个朋友告诉他,人脑的工作原理就像全息图一样。创建一个3D全息图,需要大量的记录入射光被物体多次反射的结果,然后将这些信息存储进一个庞大的数据库中。大脑储存信息的方式居然与全息图如此类似,大脑并非将记忆储存在一个特定的地方,而是在整个神经网络里传播。Hinton为此深深的着迷。对Hinton来说,这是他人生的关键,也是他成功的起点。“我非常兴奋,”他回忆到,“那是我第一次真正认识到大脑是如何工作的”。在高中时代谈话的鼓舞之下,Hinton在他的求学期间,在剑桥大学以及爱丁堡大学继续他的神经网络的探索。在80年代早期,他就参与了一个雄心勃勃的关于使用计算机的软硬件来模拟大脑的研究,这形成了早期的AI的一个分支,也就是我们现在所说的“深度学习”。三十多年的努力,深度学习已成为学术界炙手可热的课题。现如今,Hinton和他的深度学习小团队,包括纽约大学的Yann LeCun教授,蒙特利尔大学的Yoshua Bengio教授,在互联网上已然大有名气。作为多伦多大学的教授和研究员,Hinton也同时为Google工作,使用深度学习技术来改进语音识别,图像标记和其他在线工具。LeCun也在Facebook从事类似的工作。AI风靡全球,微软,IBM,百度和许多网络巨头都为之着迷。在剑桥大学的心理学专业的本科学习当中,Hinton发现,科学家们并没有真正理解大脑。人类大脑有数十亿个神经细胞,它们之间通过神经突触相互影响,形成极其复杂的相互联系。然而科学家们并不能解释这些具体的影响和联系。神经到底是如何进行学习以及计算的,对于Hinton,这些正是他所关心的问题。