人工智能将通过以下方式重新定义我们的学习:
总之,人工智能将在学习的模式、方法和应用等方面带来不可逆转的改变。
鉴于人工智能依赖的神经网络基础,这些专家AI可能通过元学习(或学会学习)比我们预期的更快地获得知识,并带着我们人类一同进步。AI的性质让我们可以做一些我们无法对人做的事情;即将他们一部分一部分地拆解,并研究每一个小部分。通过构建系统以深入探索专家AI的内部工作机制,我们将创造一个学习的飞轮。最终,专家AI可能超越领域专家的角色,成为下一代专家——无论是人类还是AI——的教师。
开发这些具有潜在空间层次结构的堆叠AI模型——复杂数据的简化地图,以帮助AI模型理解模式和关系——将反映对每个基本元素的理解或预测能力。我相信,这最初可能会平行于人类教育和教育范例,但随着时间的推移,它可能会专门发展,以在AI学习中培养新型的专业知识。这些堆叠模型可能会以与人脑皮层类似的方式发展。但是,与人类拥有视觉皮层和运动皮层不同,AI可能会拥有生物皮层和药物设计皮层——在这两种情况下,都是针对特定任务专门设计的神经架构。具有讽刺意味的是,创建专门从事诸如医疗保健这样的特定领域的AI可能比创建更接近HAL 9000的东西——具有跨领域的典型人类水平知识——更容易。实际上,我们更需要特定领域的专家AI,而不是一个能做任何普通人能做的事情的全能AI。我预计不仅会创造一个专家AI,而且会创造许多专家AI,它们在编码、数据和测试方面采用多样化的方法,以便在需要时这些模型可以提供第二个(或第三个、第四个)意见。同时,我们必须将AI从其在线基础上摘下,并将其投入到原子的世界中。我们应该让我们最熟练的人类专家配备可穿戴设备,以收集微妙的、现实世界的互动,供AI学习,就像我们即将崭露头角的学术和行业明星一样。解决健康和医学领域最复杂和不确定的问题在位元的世界中根本不存在。必须让这些专家AI接触到顶级从业人员的多样化视角,以避免复制危险的偏见。但AI的黑盒性远不如大众想象中的那么强;我们今天依赖的人类决策,正如我以前[指出的](https://www.nytimes.com/2018/01/25/opinion/artificial-intelligence-black-box.html),可以说更加不透明。我们不能因为对传播人类偏见的恐惧而限制我们探索AI如何帮助我们民主化我们的人类专家知识的意愿,而这些专家是不幸地无法扩展的。
毫无疑问,AI将不可逆转地改变我们如何预防和治疗疾病。医生将把文档工作交给AI书记员;初级医疗服务提供者将依赖聊天机器人进行分诊;几乎无穷无尽的预测蛋白结构库将极大地加速药物开发。然而,为了真正改变这些领域,我们应该投资于创建一个模型生态系统——比如说,“专家” AI——它们像我们今天最优秀的医生和药物开发者那样学习。成为某个领域顶尖人才通常以多年的密集信息输入开始,通常是通过正规的学校教育,然后是某种形式的学徒实践;数年时间都致力于从该领域最出色的实践者那里学习,大多数情况下是面对面地学习。这是一个几乎不可替代的过程:例如,医学住院医生通过聆听和观察高水平的外科医生所获取的大部分信息,是任何教科书中都没有明确写出来的。通过学校教育和经验,获得有助于在复杂情况下确定最佳答案的直觉特别具有挑战性。这一点对于人工智能和人类都是如此,但对于AI来说,这个问题因其当前的学习方式以及技术人员当前对待这个机会和挑战的方式而变得更加严重。通过研究成千上万个标记过的数据点(“正确”和“错误”的例子)——当前的先进神经网络架构能够弄清楚什么使一个选择比另一个选择更好。我们应该通过使用彼此堆叠的模型来训练AI,而不是仅仅依靠大量的数据,并期望一个生成模型解决所有问题。例如,我们首先应该训练生物学的模型,然后是化学的模型,在这些基础上添加特定于医疗保健或药物设计的数据点。预医学生的目标是成为医生,但他们的课程从化学和生物学的基础开始,而不是诊断疾病的细微差别。如果没有这些基础课程,他们未来提供高质量医疗保健的能力将受到严重限制。同样,设计新疗法的科学家需要经历数年的化学和生物学学习,然后是博士研究,再然后是在经验丰富的药物设计师的指导下工作。这种学习方式可以帮助培养如何处理涉及细微差别的决策的直觉,特别是在分子层面,这些差别真的很重要。例如,雌激素和睾酮只有细微的差别,但它们对人类健康的影响截然不同。