以下是关于 AI 整体发展框架的相关内容:
OpenAI 提出的 AGI 五个等级:
周鸿祎总结的 AI 发展五个阶段:
在医疗保健领域的 AI 发展: 开发具有潜在空间层次结构的堆叠 AI 模型,以帮助 AI 理解模式和关系。可能最初平行于人类教育范例,而后专门发展以培养新型专业知识。创建特定领域的专家 AI 比创建跨领域的全能 AI 更容易,预计会创造许多采用多样化方法的专家 AI。同时,应让 AI 从在线基础投入到原子世界,让人类专家配备可穿戴设备收集互动供 AI 学习,让专家 AI 接触多样化视角以避免偏见。
[title]问:AGI的5个等级是什么?OpenAI在其内部会议上分享了关于通用人工智能(AGI)的五个发展等级。OpenAI自2015年成立以来,一直将AGI作为其战略目标之一,随着ChatGPT、多模态大模型和AI Agent等技术的发展,我们似乎越来越接近实现这一目标。AGI的五个等级分别为:1.聊天机器人(Chatbots):具备基本对话能力的AI,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。2.推理者(Reasoners):具备人类推理水平的AI,能够解决复杂问题,如ChatGPT,能够根据上下文和文件提供详细分析和意见。3.智能体(Agents):不仅具备推理能力,还能执行全自动化业务的AI。目前许多AI Agent产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。4.创新者(Innovators):能够协助人类完成新发明的AI,如谷歌DeepMind的AlphaFold模型,可以预测蛋白质结构,加速科学研究和新药发现。5.组织(Organizations):最高级别的AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。
我试图总结AI发展的五个阶段,供大家参考:第一,小模型阶段,能力单一,无法泛化,无法做到理解,只能干点活儿,就像原来的人脸识别。所以,我早期的人脸识别公司为什么没有掀起工业革命,虽然他们做的也很辛苦,但是很不幸出现在人智障阶段。第二,GPT出现,AGI迎来拐点,机器实现与人类的交流。第三,Sora的出现,打开了AGI的大门,能够认知世界,跟世界互动。所以,未来五年,我觉得Sora加大算力,加大训练,跟具身机器人结合在一起,我认为户加速智能的提升。我觉得现在Sora的训练算力可能还受到一些限制,所以这是第三个阶段。第四,我觉得是强人工智能。现在机器已经能看懂一些常识了,也能交流了,机器还缺什么?大家想象,还缺对这个世界的一些力量的感知,比如说,加速度,比如重力,机器人自己摔了一跤,比如有人推动它怎么办?所以,现在热炒具身智能,这是理解世界的互动,但还不能与世界互动。下一步是能够跟物理世界互动,这样知道别人推它是怎么回事,拿一个鸡蛋是什么总量,怎么打一个鸡蛋?最后,我幻想,如果它最后能够总结出来世界的规律,幻想它能达到爱因斯坦的水平,能够总结出公式,能够像牛顿一样看到苹果从树上掉下来,能够总结重力的公式,这已经超越地球上的所有人了,因为牛顿和爱因斯坦一万人各出了一个,这就叫超级人工智能。所以,我为了让自己的预言能够成功,我们对AGI的要求不要太高,不要到第五步才叫AGI,第五步叫超级人工智能,到那一步大家再担忧硅基生物是不是会消灭碳基生物,到那一步才需要担心。第三步、第四步都可以定义成AGI。
[title]为了在医疗保健中产生真正的改变,AI需要像我们一样学习开发这些具有潜在空间层次结构的堆叠AI模型——复杂数据的简化地图,以帮助AI模型理解模式和关系——将反映对每个基本元素的理解或预测能力。我相信,这最初可能会平行于人类教育和教育范例,但随着时间的推移,它可能会专门发展,以在AI学习中培养新型的专业知识。这些堆叠模型可能会以与人脑皮层类似的方式发展。但是,与人类拥有视觉皮层和运动皮层不同,AI可能会拥有生物皮层和药物设计皮层——在这两种情况下,都是针对特定任务专门设计的神经架构。具有讽刺意味的是,创建专门从事诸如医疗保健这样的特定领域的AI可能比创建更接近HAL 9000的东西——具有跨领域的典型人类水平知识——更容易。实际上,我们更需要特定领域的专家AI,而不是一个能做任何普通人能做的事情的全能AI。我预计不仅会创造一个专家AI,而且会创造许多专家AI,它们在编码、数据和测试方面采用多样化的方法,以便在需要时这些模型可以提供第二个(或第三个、第四个)意见。同时,我们必须将AI从其在线基础上摘下,并将其投入到原子的世界中。我们应该让我们最熟练的人类专家配备可穿戴设备,以收集微妙的、现实世界的互动,供AI学习,就像我们即将崭露头角的学术和行业明星一样。解决健康和医学领域最复杂和不确定的问题在位元的世界中根本不存在。必须让这些专家AI接触到顶级从业人员的多样化视角,以避免复制危险的偏见。但AI的黑盒性远不如大众想象中的那么强;我们今天依赖的人类决策,正如我以前[指出的](https://www.nytimes.com/2018/01/25/opinion/artificial-intelligence-black-box.html),可以说更加不透明。我们不能因为对传播人类偏见的恐惧而限制我们探索AI如何帮助我们民主化我们的人类专家知识的意愿,而这些专家是不幸地无法扩展的。