Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

神经网络和深度学习简史

Answer

神经网络和深度学习有着丰富的发展历史:

  1. 1958 年感知机神经网络诞生。
  2. 70 年代经历了人工智能寒冬。
  3. 1986 年 BP 算法让神经网络再度流行。
  4. 尽管取得了一些成功,但在人工智能寒冬期间,用于神经网络研究的资金很少,人工智能一词近乎成为伪科学的代名词。
  5. 1997 年,Hochreiter 和 Schmidhuber 为递归神经网络开发了长短期记忆(LSTM),但在当时被忽视。
  6. 随着计算机变得更快和图形处理单元(GPU)的引入,神经网络逐渐与支持向量机相竞争。
  7. 训练大型、深层网络存在梯度消失问题,解决方法包括逐层预训练,如 Schmidhuber 于 1992 年为递归神经网络开发的预训练方法,以及 Hinton 和 Salakhutdinov 于 2006 年为前馈网络开发的预训练方法。1997 年提出的长短期记忆(LSTM)也是解决递归神经网络中梯度消失问题的方案之一。
Content generated by AI large model, please carefully verify (powered by aily)

References

深度|神经网络和深度学习简史(第一部分):从感知机到BP算法

整个研究领域的成熟方法已经迅速被新发现超越,这句话听起来有些夸大其词,就像是说它被「海啸」袭击了一样。但是,这种灾难性的形容的确可以用来描述深度学习在过去几年中的异军突起——显著改善人们对解决人工智能最难问题方法的驾驭能力,吸引工业巨人(比如谷歌等)的大量投资,研究论文的指数式增长(以及机器学习的研究生生源上升)。在听了数节机器学习课堂,甚至在本科研究中使用它以后,我不禁好奇:这个新的「深度学习」会不会是一个幻想,抑或上世纪80年代已经研发出来的「人工智能神经网络」扩大版?让我告诉你,说来话长——这不仅仅是一个有关神经网络的故事,也不仅仅是一个有关一系列研究突破的故事,这些突破让深度学习变得比「大型神经网络」更加有趣,而是一个有关几位不放弃的研究员如何熬过黑暗数十年,直至拯救神经网络,实现深度学习梦想的故事。

深度|神经网络和深度学习简史(第一部分):从感知机到BP算法

[title]深度|神经网络和深度学习简史(第一部分):从感知机到BP算法[heading1]人工智能冬天的复苏文章特别谈到了Minsky在《感知机》中讨论过的问题。尽管这是过去学者的构想,但是,正是这个1986年提出的构想让人们广泛理解了应该如何训练多层神经网络解决复杂学习问题。而且神经网络也因此回来了!第二部分,我们将会看到几年后,《Learning internal representations by error propagation》探讨过的BP算法和其他一些技巧如何被用来解决一个非常重要的问题:让计算机识别人类书写。(待续)参考文献Christopher D.Manning.(2015).Computational Linguistics and Deep Learning Computational Linguistics,41(4),701–707.↩F.Rosenblatt.The perceptron,a perceiving and recognizing automaton Project Para.Cornell Aeronautical Laboratory,1957.↩W.S.McCulloch and W.Pitts.A logical calculus of the ideas immanent in nervous activity.The bulletin of mathematical biophysics,5(4):115–133,1943.↩The organization of behavior:A neuropsychological theory.D.O.Hebb.John Wiley And Sons,Inc.,New York,1949 ↩B.Widrow et al.Adaptive ”Adaline” neuron using chemical ”memistors”.Number Technical Report 1553-2.Stanford Electron.Labs.,Stanford,CA,October 1960.↩“New Navy Device Learns By Doing”,New York Times,July 8,1958.↩Perceptrons.An Introduction to Computational Geometry.MARVIN MINSKY and SEYMOUR PAPERT.M.I.T.Press,Cambridge,Mass.,1969.↩Linnainmaa,S.(1970).The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors.Master’s thesis,Univ.Helsinki.↩

深度学习(2)历史和训练

[title]深度学习(2)历史和训练[heading1]历史[heading2]深度学习的简史尽管取得了这些成功,但用于神经网络研究的资金仍然很少。[在人工智能寒冬](https://developer.nvidia.com/blog/deep-learning-nutshell-history-training/#ai-winter)期间,人工智能一词近乎成为伪科学的代名词,该领域仍需一段时间才能恢复。这一时期取得了一些重要的进展,例如,Hochreiter和Schmidhuber在1997年为递归神经网络开发的长短期记忆(LSTM),但是这些进展在Cortes和Vapnik于1995年开发的支持向量机(VCM)面前相形见绌,因此大多数被人们所忽视。下一个重大转变的契机出现在静待计算机变得更快,和接下来引入的图形处理单元(GPU)。仅等待更快的计算机和GPU就可以在10年内将计算速度提高1000倍。在这期间,神经网络逐渐开始与支持向量机相竞争。与支持向量机相比,神经网络可能会慢一些,但是在相同数量的数据下可以获得更好的结果。与简单算法不同,神经网络在有更多训练数据时会持续改进。此时的主要障碍是训练大型、深层的网络,这些网络因遭受梯度消失问题,无法学习早期层的特征,因为没有学习信号到达这些层。解决这个问题的第一个方法是逐层预训练,即通过使用无监督学习以逐层方式构建模型,以便早期层中的特征已经用一些合适的特征进行初始化或“预训练”(权重)。早期层中的预训练特征只需要在监督学习期间略微调整即可获得良好的结果。第一个预训练方法是由Schmidhuber于1992年为递归神经网络开发的,另一个预训练方法是由Hinton和Salakhutdinov于2006年为前馈网络开发的。另一个解决递归神经网络中梯度消失问题的解决方案是于1997年提出的长短期记忆(LSTM)。

Others are asking
卷积神经网络模型原理
卷积神经网络(CNN)通常由卷积层、池化层和全连接层叠加构成。在卷积过程中,卷积层中的卷积核依次与输入图像的像素做卷积运算来自动提取图像中的特征。卷积核尺寸一般小于图像,并以一定的步长在图像上移动得到特征图。步长设置越大,特征图尺寸越小,但过大步长会损失部分图像特征。此外,池化层作用于产生的特征图上,能保证 CNN 模型在不同形式的图像中识别出相同物体,同时减少模型对图像的内存需求,其最大特点是为 CNN 模型引入了空间不变性。
2024-12-19
神经网络
神经网络是机器学习文献中的一类模型,受到生物神经网络的启发,是一种特定的算法,能应用于从输入到输出空间复杂映射的各类机器学习问题。 神经网络的发展历程如下: 早期,康奈尔航天实验室的 Mark I 感知机是第一台感知机的硬件,罗森布拉特用定制硬件的方法实现了感知机的想法,展示出它可对简单形状进行正确分类,自此机器学习问世。 神经网络本质上是多层感知机,在早期只有一层输出层。例如分辨手写数字时,输入是图像像素,有 10 个输出神经元,分别对应 10 个可能的数字,权值最高的和被视为正确输出。 神经网络的架构主要分为三类: 前馈神经网络:这是实际应用中最常见的类型。第一层是输入,最后一层是输出。若有多个隐藏层,则称为“深度”神经网络。各层神经元的活动是前一层活动的非线性函数。 循环网络:在连接图中有定向循环,可按箭头回到起始点。其动态复杂,训练难度大,但更具生物真实性。 Geoffrey Hinton 对神经网络的发展做出了重要贡献。早在 80 年代初期,他和同事开展研究时,因电脑性能限制成果有限,且当时 AI 主流研究方向不同,处境艰难。但他们坚持下来,到 2004 年创立了 Neural Computation and Adaptive Perception 项目。随着时间推移和计算机能力发展,神经网络更加快速、灵活、高效和可扩展。 神经网络可用于解决分类和回归等问题,在多个输出值的函数或具有多个类别的分类任务中,多输出函数能用位于同一层的多个感知机来学习。
2024-11-01
AIGC的底层科学原理是神经网络吗?
AIGC 的底层科学原理包含神经网络。 神经网络是一种模仿生物神经网络的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。它由大量的人工神经元联结进行计算,是一种自适应系统,具备学习功能。 在 AI 领域,神经网络是一种重要的技术。深度学习就是一种参照人脑结构,包含神经网络和神经元的方法(因层数较多而称为深度)。神经网络可以用于监督学习、无监督学习、强化学习等多种学习方式。 同时,Transformer 模型的出现也对 AIGC 产生了重要影响,它完全基于自注意力机制处理序列数据,比循环神经网络更适合处理文本的长距离依赖性。
2024-10-30
神经网络的简单理解
神经网络是一种模仿生物神经网络结构和功能的数学模型或计算模型,用于分析图像、视频、音频和文本等复杂数据类型。 对于不同类型的数据有专门优化的神经网络,如分析图像时常用卷积神经网络,其模仿人脑处理视觉信息的方式。 在 2017 年推出 Transformer 之前,理解文本常用循环神经网络。而 Transformer 完全基于自注意力机制处理序列数据,比 RNN 更适合处理文本的长距离依赖性,在处理每个词时会注意输入序列里所有其他的词,并给予不同的注意力权重以捕获依赖关系和相关性,且具有自注意力机制和位置编码(因语言顺序很重要)。 神经网络由大量人工神经元联结进行计算,大多数情况下能在外界信息基础上改变内部结构,是一种自适应系统,具备学习功能。它是一种非线性统计性数据建模工具,通常通过基于数学统计学类型的学习方法得以优化,也是数学统计学方法的实际应用,能通过统计学方法让人 工神经网络具有类似人的简单决定和判断能力,这种方法比正式的逻辑学推理演算更具优势。 神经网络可用于监督学习、无监督学习、强化学习。
2024-09-06
卷积神经网络
卷积神经网络,也称为卷积网络,使用卷积层来过滤输入以获取有用信息。卷积层具有可学习的参数,能自动调整滤波器以提取对应任务的最有用特征。例如在一般目标识别中侧重对象形状信息,鸟类识别中更倾向于鸟的颜色信息,它会自动适配以找到最佳特征。 通常,多个卷积层依次作用,在每一层后对图像进行过滤,获取越来越多的抽象信息,形成层次特征。 卷积网络还常使用池层,以实现有限的平移和旋转不变性,即便对象出现在异常位置也能检测到,同时能减少内存消耗,从而支持使用更多卷积层。 近期的卷积网络采用初始模块,利用 1×1 卷积核进一步降低内存消耗并加快计算速度,提高训练效率。 例如在自动驾驶汽车场景中,可将驾驶员当前视野的图像输入到卷积神经网络,训练其预测下一个可能行动的奖励。相似状态的图像相似,行动也相似,网络能针对不同情况进行微调。 相关附加材料: 。 图 5 展示了一个交通标志的图像被 4 个 5×5 的卷积核过滤,生成 4 个特征图,再通过最大池化进行二次采样。下一层将 10 个 5×5 的卷积核应用于这些子采样图像,并再次将特征映射集中在一起。最后一层是完全连接的层,用于组合所有生成的特征并用于分类器(本质上是逻辑回归)。图像由提供。
2024-07-20
帮我写一个R语言的神经网络分类问题代码
好的,下面是一个使用R语言进行神经网络分类问题的示例代码。我们将使用著名的鸢尾花数据集(Iris dataset)进行演示。这个数据集包含了150条记录,每条记录有4个特征和一个目标变量(花的种类)。 安装并加载所需的包 首先,我们需要安装并加载所需的包,如`neuralnet`和`nnet`。 ```r install.packages install.packages library library ``` 加载和准备数据 接下来,我们将加载Iris数据集,并将数据标准化,以便神经网络能够更好地处理。 ```r 加载内置的Iris数据集 data 查看数据集的结构 str 标准化函数 normalize < function { return } 对特征进行标准化 iris_norm < as.data.frame iris_norm$Species < iris$Species 将目标变量转换为因子类型 iris_norm$Species < as.factor 将数据集分为训练集和测试集 set.seed index < sample train_data < iris_norm test_data < iris_norm ``` 创建和训练神经网络模型 我们将使用`neuralnet`包创建一个简单的神经网络模型,并进行训练。 ```r 创建公式 formula < as.formula 训练神经网络模型 nn_model < neuralnet 查看模型结果 print ``` 可视化神经网络 我们可以使用内置的绘图功能来可视化神经网络。 ```r 绘制神经网络 plot ``` 进行预测并评估模型 使用测试数据进行预测,并评估模型的性能。 ```r 进行预测 nn_predictions < compute 将预测结果转换为因子类型 nn_predicted < as.factor(ifelse(nn_predictions$net.result > 0.5, "versicolor", ifelse 查看混淆矩阵 confusion_matrix < table print 计算准确率 accuracy < sum print ``` 完整代码 下面是完整的代码段,整合了上述各个步骤: ```r install.packages install.packages library library 加载内置的Iris数据集 data 查看数据集的结构 str 标准化函数 normalize < function { return } 对特征进行标准化 iris_norm < as.data.frame iris_norm$Species < iris$Species 将目标变量转换为因子类型 iris_norm$Species < as.factor 将数据集分为训练集和测试集 set.seed index < sample train_data < iris_norm test_data < iris_norm 创建公式 formula < as.formula 训练神经网络模型 nn_model < neuralnet 查看模型结果 print 绘制神经网络 plot 进行预测 nn_predictions < compute 将预测结果转换为因子类型 nn_predicted < as.factor(ifelse(nn_predictions$net.result > 0.5, "versicolor", ifelse 查看混淆矩阵 confusion_matrix < table print 计算准确率 accuracy < sum print ``` 以上代码演示了如何使用R语言中的`neuralnet`包创建和训练一个简单的神经网络模型,并使用该模型对鸢尾花数据集进行分类预测。通过标准化数据、分割数据集、训练模型、进行预测和评估模型,你可以全面了解如何在R中使用神经网络进行分类任务。
2024-06-03
描述下人工智能简史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因从专家提取知识并以计算机可读形式表现的任务复杂且成本高,无法大规模拓展应用场景,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词,多数成功案例基于神经网络。 在创建国际象棋计算机对弈程序方面,早期如 Eliza 基于简单语法规则,将输入句子重述为问题;现代助手如 Cortana、Siri 或谷歌助手是混合系统,用神经网络转换语音并识别意图,再执行操作。未来有望出现完整基于神经网络的独立处理对话模型,如最近的 GPT 和 TuringNLG 系列神经网络已取得巨大成功。 早期国际象棋对弈程序以搜索为基础,发展出阿尔法贝塔剪枝搜索算法,搜索策略在对局结束时效果好,开始时因搜索空间大需改进,随后采用基于案例的推理,在知识库中找相似案例决定棋步。能战胜人类棋手的现代对弈程序基于神经网络和强化学习,通过与自己对弈从错误中学习,学习速度比人类快。
2024-08-22
深度学习是什么意思?
深度学习是一种源于新方法和策略的技术,旨在通过克服梯度消失问题来生成深层的非线性特征层次,从而能够训练具有数十层非线性层次特征的体系结构。 深度学习不仅与学习深度非线性层次特征有关,还与学习检测序列数据中非常长的非线性时间依赖性有关。例如,长短时记忆循环神经网络允许网络收集过去几百个时间步的活动,从而做出准确的预测。 深度学习是一种参照人脑神经网络和神经元的方法,由于具有很多层所以称为“深度”。神经网络可以用于监督学习、无监督学习、强化学习等。 自 2010 年早期,结合 GPUs 和激活函数提供更好的梯度流,足以在没有重大困难的情况下训练深层结构,人们对深度学习的兴趣与日俱增。自 2013 年以来,长短时记忆网络的使用量迅速增长,与卷积网络一起构成了深度学习的两大成功案例之一。
2024-12-24
机械学习和深度学习的关系
机械学习和深度学习的关系如下: 机器学习是指机器自动从资料中找一个公式,而深度学习是一种机器学习技能。深度学习基于类神经网络,具有非常大量参数的函数。在 AI 的范畴中,机器学习和深度学习都属于实现让机器展现智慧这一目标的方法和技术。
2024-12-19
chatGPT是基于什么深度学习的方法?
ChatGPT 是美国 OpenAI 公司开发的一款基于大型语言模型(Large Language Model,简称 LLM)的对话机器人。它基于深度学习的方法,其中深度学习是机器学习的一个子领域,简单理解就是采用像深度神经网络这样有深度的层次结构进行机器学习,其主要特点是具有更多的神经元,层次更多、连接方式更复杂,需要更庞大的计算能力加以支持,能够自动提取特征。
2024-12-08
chatGPT是基于什么深度学习的方法?
ChatGPT 是美国 OpenAI 公司开发的一款基于大型语言模型(Large Language Model,简称 LLM)的对话机器人。它基于深度学习的方法,其中深度学习是机器学习的一个子领域,简单理解就是采用像深度神经网络这样有深度的层次结构进行机器学习。其主要特点是具有更多的神经元,层次更多、连接方式更复杂,需要更庞大的计算能力加以支持,能够自动提取特征。
2024-12-08
AI是怎样进行深度学习的
AI 的深度学习是一种参照人脑神经网络和神经元的方法。神经网络具有很多层,所以称为“深度”。 深度学习中的神经网络可以用于多种学习方式,包括监督学习、无监督学习和强化学习。 监督学习使用有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习所使用的数据没有标签,算法自主发现规律,经典任务如聚类,例如让模型将一堆新闻文章根据主题或内容特征分成相似的组。 强化学习是从反馈中学习,以最大化奖励或最小化损失,类似于训练小狗。 2017 年 6 月,谷歌团队发表的论文《Attention is All You Need》首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,无需依赖循环神经网络或卷积神经网络。Transformer 比循环神经网络更适合处理文本的长距离依赖性。
2024-12-04
深度学习
深度学习是一个源于新方法和策略的领域,旨在克服梯度消失问题以生成深层非线性特征层次,从而能够训练具有数十层非线性层次特征的体系结构。2010 年早期的研究表明,结合 GPUs 和激活函数能提供更好的梯度流以训练深层结构,此后人们对深度学习的兴趣日益增长。 深度学习不仅与学习深度非线性层次特征有关,还与学习检测序列数据中非常长的非线性时间依赖性有关。长短时记忆循环神经网络允许网络收集过去几百个时间步的活动以做出准确预测,自 2013 年以来其使用量迅速增长,与卷积网络一起构成了深度学习的两大成功案例之一。 在分层特征学习中,提取多层非线性特征并传递给分类器进行预测。由于无法从几层中学习复杂特性,所以叠加深层次非线性特征。研究表明,人脑在视觉皮层接收信息的过程与分层特征学习类似。虽然分层特征学习在深度学习之前就已存在,但面临梯度消失问题,导致性能较差。 Geoffrey Hinton 是将深度学习从边缘课题变成 Google 等网络巨头仰赖的核心技术的关键人物。早在高中时期,他就对大脑工作原理像全息图一样的观点着迷,并在后续求学和研究中不断探索神经网络,经过三十多年努力,深度学习成为热门课题。如今,Hinton 及其团队在互联网上大有名气,他为 Google 工作,使用深度学习技术改进语音识别、图像标记等在线工具,其他团队成员也在相关领域发挥重要作用。在剑桥大学学习期间,Hinton 关注科学家尚未真正理解的大脑神经细胞间复杂的相互联系以及学习计算方式。
2024-11-30
学习这些知识的方法
以下是关于学习 AI 相关知识的方法: 对于大语言模型(LLM)知识的学习路径: 首先,学习大语言模型入门者的课程,这是基础。 接着,进一步学习面向开发者的课程,以应用于实际项目。 系统学习 LLM 开发: 掌握深度学习和自然语言处理基础,包括机器学习、深度学习、神经网络等基础理论,以及自然语言处理基础,如词向量、序列模型、注意力机制等。相关课程有吴恩达的深度学习课程、斯坦福 cs224n 等。 理解 Transformer 和 BERT 等模型原理,包括 Transformer 模型架构及自注意力机制原理,以及 BERT 的预训练和微调方法。掌握相关论文,如 Attention is All You Need、BERT 论文等。 学习 LLM 模型训练和微调,包括大规模文本语料预处理,使用 LLM 预训练框架,如 PyTorch、TensorFlow 等,以及微调 LLM 模型进行特定任务迁移。相关资源有 HuggingFace 课程、论文及开源仓库等。 进行 LLM 模型优化和部署,包括模型压缩、蒸馏、并行等优化技术,模型评估和可解释性,以及模型服务化、在线推理、多语言支持等。相关资源有 ONNX、TVM、BentoML 等开源工具。 进行 LLM 工程实践和案例学习,结合行业场景进行个性化的 LLM 训练,分析和优化具体 LLM 工程案例,研究 LLM 新模型、新方法的最新进展。 持续跟踪前沿发展动态,关注顶会最新论文、技术博客等资源。 对于低年级小学生的 Genie 模型科普: Genie 模型通过“观看视频”的方法学习,就像小朋友通过看、听、读书和练习来学习新知识。它观看了大量互联网视频,从而学会很多事情。 Genie 模型运用“深度学习”技术让自己更聪明,通过分析学习到的视频内容找出规律和联系,然后根据提示创造全新的虚拟世界。 Genie 模型里有“模型参数”,就像玩具机器人的调节按钮,这些参数能调节模型做不同的事情。 Genie 模型在学习时无需人们告知每个动作的名称,而是通过不断尝试和练习来学习。
2024-12-26
初学编程,用什么AI辅助编程和学习比较好?
对于初学编程者,以下是一些较好的 AI 辅助编程和学习的工具及建议: 1. 可以借助流行的语言和框架(如 React、Next.js、TailwindCSS)来学习编程。 2. 先运行代码再进行优化,采用小步迭代的方式,一次解决一个小功能。 3. 借助 AI 生成代码后请求注释或解释,以帮助理解代码。 4. 遇到问题时按照复现、精确描述、回滚这三步来解决。 5. Cursor 是一款目前较好用的 AI 编程工具,它具有以下特点: 集成了强大的 AI 辅助编码功能,可帮助开发者更快速、高效地编写代码。 提供智能的代码自动补全建议,加快编码速度。 能够实时代码分析,提供改进建议和错误检测。 支持多种编程语言,适用于不同类型的项目开发。 内置终端,方便执行命令和管理项目。 内置 Git 支持,便于版本控制和协作开发。 提供多种自定义主题选择,可根据个人喜好定制界面。 跨平台,支持 Windows、macOS 和 Linux 等多个操作系统。 针对大型项目进行了性能优化,在处理大量代码时仍能保持流畅。 支持多人实时协作编辑,便于团队开发。 您可以通过 https://www.cursor.com/ 链接进入 Cursor 产品主页,在右上角点击下载,下载后解压安装即可使用。
2024-12-26
如何学习AI
以下是新手学习 AI 的方法: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2024-12-25
如何学习AI
以下是新手学习 AI 的方法: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始学习,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2024-12-25
学习AI
新手学习 AI 可以参考以下步骤: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念。 了解人工智能的主要分支,如机器学习、深度学习、自然语言处理等以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解其工作原理和交互方式。 对于中学生学习 AI,建议如下: 1. 从编程语言入手学习: 可以从 Python、JavaScript 等编程语言开始,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台: 可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。 探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识: 了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。 学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目: 参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。 尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态: 关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。 思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 记住,学习 AI 是一个长期的过程,需要耐心和持续的努力。不要害怕犯错,每个挑战都是成长的机会。随着时间的推移,您将逐渐建立起自己的 AI 知识体系,并能够在这一领域取得成就。完整的学习路径建议参考「通往 AGI 之路」的布鲁姆分类法,设计自己的学习路径。
2024-12-25
如何学习跟生产相关AI内容
以下是关于如何学习跟生产相关 AI 内容的建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 通过与这些 AI 产品的对话,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 此外,谷歌生成式 AI 课程的学习路径将引导您完成有关生成式 AI 产品和技术的精选内容集合,从大型语言模型的基础知识,到如何在 Google Cloud 上创建和部署生成式 AI 解决方案。其链接为:https://www.cloudskillsboost.google/journeys/118 ,包含 10 个独立课程。 对于小白理解技术原理与建立框架,您可以参考以下通俗易懂的内容: 视频一主要回答了什么是 AI 大模型,原理是什么。 概念:生成式 AI 生成的内容,叫做 AIGC。 概念与关系:相关技术名词 AI——人工智能 机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。 无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。 强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。 深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。 生成式 AI——可以生成文本、图片、音频、视频等内容形式 LLM——大语言模型。对于生成式 AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑——2017 年 6 月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT 含义:Transformer 是关键。Transformer 比 RNN 更适合处理文本的长距离依赖性。
2024-12-25