直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

贝叶斯网络

回答

贝叶斯网络:

  • 在 1985 年“ A Learning Algorithm for Boltzmann Machines”中,玻尔兹曼机器类似于神经网络,其单元在给定相连单元值和权重的情况下能计算自身概率,取值为 1 或 0,是随机的,遵循概率分布而非决定性方式。玻尔兹曼机器部分与概率分布有关,其分布决定了数学和推理方法,是一种基于能量的模型实例,适用于基于能量的学习理论框架。一个简单的信念,或者说贝叶斯网络,玻尔兹曼机器基本上就是如此,但有着非直接/对称联系和可训练式权重,能够学习特定模式下的概率。
  • 在深度学习领域的讨论中,有人是贝叶斯主义者,喜欢贝叶斯非参数方法。当时神经网络因无法证明相关数学定理而被边缘化,但有人从一开始就被神经网络吸引。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

深度 | 神经网络和深度学习简史(第二部分):BP算法之后的又一突破——信念网络

[title]深度|神经网络和深度学习简史(第二部分):BP算法之后的又一突破——信念网络[heading1]神经网络迎来信念网络事实上,在成为1986年讨论反向传播学习算法这篇有重大影响力论文的合作者之前,Hinton在研究一种神经网络方法,可以学习1985年「 A Learning Algorithm for Boltzmann Machines」中的概率分布。玻尔兹曼机器就是类似神经网络的网络,并有着和感知器(Perceptrons)非常相似的单元,但该机器并不是根据输入和权重来计算输出,在给定相连单元值和权重的情况下,网络中的每个单元都能计算出自身概率,取得值为1或0。因此,这些单元都是随机的——它们依循的是概率分布而非一种已知的决定性方式。玻尔兹曼部分和概率分布有关,它需要考虑系统中粒子的状态,这些状态本身基于粒子的能量和系统本身的热力学温度。这一分布不仅决定了玻尔兹曼机器的数学方法,也决定了其推理方法——网络中的单元本身拥有能量和状况,学习是由最小化系统能量和热力学直接刺激完成的。虽然不太直观,但这种基于能量的推理演绎实际上恰是一种基于能量的模型实例,并能够适用于基于能量的学习理论框架,而很多学习算法都能用这样的框架进行表述。一个简单的信念,或者说贝叶斯网络——玻尔兹曼机器基本上就是如此,但有着非直接/对称联系和可训练式权重,能够学习特定模式下的概率。

访谈:Ilya | 2023年11月长篇访谈

[title]访谈:Ilya | 2023年11月长篇访谈[heading2]Ilya自己在深度学习领域的研究经历主持人:我们从最初的深度学习开始讨论。在AlexNet出现之前,深度学习中没有任何东西真正有效。然后考虑到当时的环境,你们下了一个非常独特的赌注。是什么促使你朝这个方向发展?Ilya:在那个黑暗时代,人工智能并不是一个人们抱有希望的领域,人们根本不习惯任何形式的成功。由于没有取得任何成功,因此引发了很多争论,不同的思想流派对机器学习和人工智能应该如何发展有不同的争论。有人热衷于老式人工智能的知识表示。有些人是贝叶斯主义者,他们喜欢贝叶斯非参数方法。有人喜欢图形模型,有人喜欢神经网络。这些人被边缘化,因为神经网络不具备无法证明关于他们的数学定理的特性。如果你不能证明某件事的定理,那就意味着你的研究不好。但是,我从一开始就被神经网络所吸引,因为我觉得这些都是小大脑,谁在乎你是否能证明关于它们的任何定理,因为我们正在训练小大脑,也许它们会变成,也许它们有一天会做某事。我们之所以能够做到AlexNet,是两三个因素的结合。第一个因素是,这是在GPU开始用于机器学习之后不久。人们有一种直觉,认为这是一件好事,但当时人们并不像今天那样确切地知道GPU的用途。他们想,让我们玩一下那些又酷又快的计算机,看看我们能用它们做什么。它特别适合神经网络。所以这绝对对他们有帮助。我非常幸运,因为意识到神经网络的原因是因为它们太小了。就像如果你尝试用神经网络解决视觉任务一样,它有大约一千个神经元,它能做什么?它什么也做不了。你的学习有多好以及其他一切并不重要。但如果你有一个更大的神经网络,它将做出前所未有的事情。主持人:是什么让你有这样的直觉?

教程 | 可视化CapsNet,详解Hinton等人提出的胶囊概念与原理

[title]教程|可视化CapsNet,详解Hinton等人提出的胶囊概念与原理选自freecodecamp作者:Nick Bourdakos机器之心编译参与:Pedro、思源尽管卷积神经网络已经做出了令人惊艳的成绩,但还是存在着一些根本性问题。是时候开始思考新的解决方案和改进了。现在就让我们一起来了解一下胶囊网络(capsules networks)。在之前的文章中我曾简要地讨论过胶囊网络(https://hackernoon.com/capsule-networks-are-shaking-up-ai-heres-how-to-use-them-c233a0971952)是如何解决一些传统问题的。在过去的几个月里,我一直沉浸在各种各样的胶囊网络里。我觉得现在是时候一起更加深入地探索胶囊网络的实际运作方式了。为了让后面的讨论更加容易,我开发了一款与胶囊网络实现配套的可视化工具,它能够让您看到网络的每一层是如何工作的。这些内容都可以在GitHub上找到(https://github.com/bourdakos1/CapsNet-Visualization)。如下所示是CapsNet的结构。如果您现在还不理解每个部分的具体含义,不必担心。我会尽我所能一层一层地进行详细讨论。part 0:网络输入胶囊网络(CapsNet)的输入是提供给神经网络的真实图片。在这个例子中输入的图片长宽都为28个像素。一张图片实际上有3个维度用来存储不同颜色通道的信息。因为是灰度图,而用作示例的图片仅仅有一个颜色通道。大家所熟悉的大多数图片都有3或4个通道用来存储红-绿-蓝和可能用于存储灰度或透明度的额外通道。

其他人在问
windows电脑和安卓手机可以怎么注册并使用chatgpt? 请详细说明如何访问国外网络和注册及使用、
以下是 Windows 电脑和安卓手机注册并使用 ChatGPT 的详细步骤: 安卓手机: 1. 对于自带谷歌框架的机型(如红米 K60): 打开系统设置。 拉到最底下,点击更多设置。 点击账号与同步。 点击谷歌基础服务。 打开基础服务按钮。 2. 安装 Google Play: 到小米自带的应用商店搜索 Google Play 进行安装。 安装好后打开谷歌商店,点击右上角登录谷歌账号。 3. 安装 ChatGPT: 到谷歌商店搜索 ChatGPT 进行下载安装,建议把谷歌邮箱也安装上,方便接收验证码。 如果您只想体验 ChatGPT 3.5 版本,不升级 GPT4,可跳转到第 4 步第 6 小步进行登录使用,如果想直接订阅 GPT4 Plus 版本,请接着往下看。 Windows 电脑:未提供相关内容。 需要注意的是,在中国访问国外网络需要合法合规的途径。同时,ChatGPT 的使用也需要遵守其相关规定和服务条款。
2024-11-14
有没有国内网络能打开的免费好用的美术类AI工具?
以下为您推荐国内网络能打开的免费好用的美术类 AI 工具: 1. 扣子 + ByteArtist 网址:https://www.coze.cn/home 优点:不需要翻墙,无收费,可以直接生成 注册:手机号、抖音号或飞书号 操作步骤:需要在 coze 的 bot 里面添加绘图插件 时间:5min 2. 无界 AI 网址:https://www.wujieai.cc/ 优点:国内网络即可稳定使用,有免费出图点数,支持中文关键词输入,无需额外下载风格模型,可直接取用 希望这些工具能满足您的需求。
2024-11-11
有没有能自动获取网络上的素材来混剪的ai
目前尚未有能够完全自动获取网络上的素材并进行混剪的成熟 AI 工具。获取网络素材涉及到版权等法律问题,同时,混剪也需要遵循一定的创作原则和规范。但有一些视频编辑软件提供了一定程度的自动化功能,例如自动匹配音乐节奏、智能剪辑片段等,不过仍需要用户在合法合规的前提下进行素材的选择和处理。
2024-11-02
神经网络
神经网络是机器学习文献中的一类模型,受到生物神经网络的启发,是一种特定的算法,能应用于从输入到输出空间复杂映射的各类机器学习问题。 神经网络的发展历程如下: 早期,康奈尔航天实验室的 Mark I 感知机是第一台感知机的硬件,罗森布拉特用定制硬件的方法实现了感知机的想法,展示出它可对简单形状进行正确分类,自此机器学习问世。 神经网络本质上是多层感知机,在早期只有一层输出层。例如分辨手写数字时,输入是图像像素,有 10 个输出神经元,分别对应 10 个可能的数字,权值最高的和被视为正确输出。 神经网络的架构主要分为三类: 前馈神经网络:这是实际应用中最常见的类型。第一层是输入,最后一层是输出。若有多个隐藏层,则称为“深度”神经网络。各层神经元的活动是前一层活动的非线性函数。 循环网络:在连接图中有定向循环,可按箭头回到起始点。其动态复杂,训练难度大,但更具生物真实性。 Geoffrey Hinton 对神经网络的发展做出了重要贡献。早在 80 年代初期,他和同事开展研究时,因电脑性能限制成果有限,且当时 AI 主流研究方向不同,处境艰难。但他们坚持下来,到 2004 年创立了 Neural Computation and Adaptive Perception 项目。随着时间推移和计算机能力发展,神经网络更加快速、灵活、高效和可扩展。 神经网络可用于解决分类和回归等问题,在多个输出值的函数或具有多个类别的分类任务中,多输出函数能用位于同一层的多个感知机来学习。
2024-11-01
AIGC的底层科学原理是神经网络吗?
AIGC 的底层科学原理包含神经网络。 神经网络是一种模仿生物神经网络的结构和功能的数学模型或计算模型,用于对函数进行估计或近似。它由大量的人工神经元联结进行计算,是一种自适应系统,具备学习功能。 在 AI 领域,神经网络是一种重要的技术。深度学习就是一种参照人脑结构,包含神经网络和神经元的方法(因层数较多而称为深度)。神经网络可以用于监督学习、无监督学习、强化学习等多种学习方式。 同时,Transformer 模型的出现也对 AIGC 产生了重要影响,它完全基于自注意力机制处理序列数据,比循环神经网络更适合处理文本的长距离依赖性。
2024-10-30
神经网络和深度学习简史
神经网络和深度学习有着丰富的发展历史: 1. 1958 年感知机神经网络诞生。 2. 70 年代经历了人工智能寒冬。 3. 1986 年 BP 算法让神经网络再度流行。 4. 尽管取得了一些成功,但在人工智能寒冬期间,用于神经网络研究的资金很少,人工智能一词近乎成为伪科学的代名词。 5. 1997 年,Hochreiter 和 Schmidhuber 为递归神经网络开发了长短期记忆(LSTM),但在当时被忽视。 6. 随着计算机变得更快和图形处理单元(GPU)的引入,神经网络逐渐与支持向量机相竞争。 7. 训练大型、深层网络存在梯度消失问题,解决方法包括逐层预训练,如 Schmidhuber 于 1992 年为递归神经网络开发的预训练方法,以及 Hinton 和 Salakhutdinov 于 2006 年为前馈网络开发的预训练方法。1997 年提出的长短期记忆(LSTM)也是解决递归神经网络中梯度消失问题的方案之一。
2024-10-23