AI 的基础架构通常包括以下几个关键部分:
从技术层面来看,在最简单的情况下,使用 AI 做归纳推理时,输入一系列测量结果,然后让其预测尚未完成的测量结果。此时,AI 被视为黑匣子,重要的是其能否给出正确答案。但不可避免地,AI 中存在一些底层结构,使其最终会假设某种数据模型。
在实际应用中,对 AI 的监管是基于其在特定应用中可能产生的结果,具有很强的情境特异性。例如,并非将关键基础设施中的所有 AI 应用都归为高风险,像识别机器表面划痕这类应用风险可能相对较低。同样,用于在线服装零售商客户服务请求分类的 AI 聊天机器人,与作为医疗诊断过程一部分的类似应用,监管方式不应相同。
现在让我们考虑独特客户,建立业务的另一个重要部分。再次,你有AI的基础元素,从语言生成到增长引擎,到广告定制和优化。这一切都将相互影响。再一次,强大的结论在于,这些抽象层最终将变得可互操作,以至于整个公司能够像一个神经网络一样运作。这就是一人公司崛起的时代,它将使我们不是做得更少,而是做得更多。更多的人能够解决问题,创造一个更好的社会。那么接下来会发生什么呢?现实是,这个房间里的人将决定接下来会发生什么。你们是正在建设这个未来的人。我们个人对未来非常兴奋,因为我们认为AI定位于帮助降低成本,提高生产力,在我们社会中一些最关键的领域实现更好的教育、更健康的人口、更高效的人口。
Can AI Predict What Will Happen?It’s not the only role of science—and in the sections that follow we’ll explore others.But historically what’s often been viewed as a defining feature of successful science is:can it predict what will happen?So now we can ask:does AI give us a dramatically better way to do this?这并不是科学的唯一作用,在接下来的部分中我们将探索其他作用。但从历史上看,通常被视为成功科学的一个决定性特征是:它能预测将会发生什么吗?所以现在我们可以问:人工智能是否为我们提供了一种更好的方法来做到这一点?In the simplest case we basically want to use AI to do inductive inference.We feed in the results of a bunch of measurements,then ask the AI to predict the results of measurements we haven’t yet done.At this level,we’re treating the AI as a black box; it doesn’t matter what’s happening inside; all we care about is whether the AI gives us the right answer.We might think that somehow we can set up the AI up so that it “isn’t making any assumptions”—and is just “following the data”.But it’s inevitable that there’ll be some underlying structure in the AI,that makes it ultimately assume some kind of model for the data.在最简单的情况下,我们基本上想用人工智能来做归纳推理。我们输入一系列测量结果,然后要求人工智能预测我们尚未完成的测量结果。在这个层面上,我们将人工智能视为一个黑匣子;里面发生什么并不重要;我们关心的只是人工智能是否给出了正确的答案。我们可能会认为,我们可以通过某种方式设置人工智能,使其“不做出任何假设”,而只是“遵循数据”。但人工智能中不可避免地会存在一些底层结构,这使得它最终假设某种数据模型。
context-specific.83We will not assign rules or risk levels to entire sectors ortechnologies.Instead,we will regulate based on the outcomes AI is likely to generate inparticular applications.For example,it would not be proportionate or effective to classify allapplications of AI in critical infrastructure as high risk.Some uses of AI in critical infrastructure,like the identification of superficial scratches on machinery,can be relatively low risk.Similarly,an AI-powered chatbot used to triage customer service requests for an online clothing retailershould not be regulated in the same way as a similar application used as part of a medicaldiagnostic process.