训练一个 AGI 是一个复杂且尚未完全实现的目标,但目前有一些相关的研究和计划:
另一项机器人学发展——这次来自特斯拉(2023年5月16日)。他们训练了他们的机器人“Optimus”去抓取物体——而且“没有进行特定任务的编程”。一切都是通过人类示范学习的。“这意味着我们现在可以快速扩展到许多任务。”再次强调:如果人类示范是先进机器人学性能所需的一切,那么一个在互联网上所有视频上训练的100万亿参数模型肯定能够实现惊人的机器人学性能...左边的图片展示了1万亿参数的GPT-4在图像识别方面的能力。其回应已经比许多人类所能想出的更加清晰和写得更好。那么,当你在互联网上所有可用数据的基础上训练一个比GPT-4大100倍、与人类大脑大小相当的模型时,会发生什么呢?重要:注意AI模型能够生成同一场景的多个角度,具有物理上准确的光线,甚至在某些情况下还能生成物理上准确的流体和雨水。如果你能生成具有准确、常识性物理的图像和视频,你就拥有了常识推理能力。如果你能生成常识,你就理解了常识。目前公开可用的视频和图像生成AI模型的质量水平示例。这些模型的大小不到100亿参数。当你在互联网上所有可用数据的基础上训练一个比这大10,000倍的模型,并赋予它生成图像和视频的能力时,会发生什么?(答案:图像和视频与真实事物完全无法区分,100%的时间,没有任何例外,没有任何解决方法,无论人们怎么努力,都无法分辨出区别)。-(更新:SORA来自GPT-5 Q*2023模型)
来自Longjumping-Sky-1971的两篇帖子。我之所以包含这些,是因为他提前几周准确预测了GPT-4的发布日期(没有人事先公开发布这些信息,这意味着他有一个内部信息源)。他的帖子现在更有可信度——他声称图像和音频生成将在2023年第三季度进行训练。如果视频生成训练是同时进行的或紧随其后,这与Siqi Chen声称GPT-5在2023年12月完成训练的说法相吻合。直到2020年2月,也就是GPT-3发布前几个月。一篇来自《技术评论》的文章,这是关于OpenAI的“内部故事”,似乎表明OpenAI正处于一个“秘密”项目的早期阶段,涉及一个在图像、文本和“其他数据”上训练的AI系统,而且OpenAI的领导层认为这是实现AGI最有希望的方式。我在想这可能指的是什么。接下来将展示来自OpenAI总裁的一些引述——来自2019年——它将告诉你他们的计划是什么。OpenAI的总裁Greg Brockman在2019年表示,在微软当时投资了10亿美元之后,OpenAI计划在五年内构建一个与人类大脑大小相当的模型,而这正是他们实现AGI的计划。2019+5=2024.这两个信息源显然都在提到同一个实现AGI的计划——一个与人类大脑大小相当的AI模型,将在“图像、文本和其他数据”上进行训练,计划在2019年之后的五年内完成训练,也就是到2024年。这似乎与我在这份文件中列出的所有其他信息源相吻合...正如我将在接下来的几张幻灯片中展示的,AI领域的领导者们突然开始敲响警钟——几乎就像他们知道一些非常具体的信息,而这些信息普通大众并不知道。“我曾经认为这还需要30到50年,甚至更长的时间。显然,我现在不再这么认为了。”来自CNN的报道AI之父离开google的新闻。
|弱人工智能|强人工智能||-|-||弱人工智能指的是针对特定任务或范围较小的任务来设计和训练的AI系统。|强人工智能,或通用人工智能(AGI),是指具有人类水平的智能和理解能力的AI系统。||这些AI系统不是通用智能的;它们只擅长执行提前定义好的任务,但缺乏真正的理解和意识。|这些AI系统有能力完成任何人类可以完成的智力任务,适用于不同的领域,同时拥有某种形式的意识或自我意识。||弱人工智能的例子包括Siri或Alexa等虚拟助手,流媒体服务所使用的推荐算法,以及为特定客服任务所设计的对话机器人。|实现强人工智能是人工智能研究的长期目标,这需要我们开发出在各种任务和环境中都能够进行推理、学习、理解和适应的AI系统。||弱人工智能是高度专业化的,它不具备像人类一样的认知能力,也无法超出为它设定的小范围领域来解决一般问题。|强人工智能目前还只是一个理论概念,还没有任何AI系统能达到这种通用智能水平。|更多信息请见[通用人工智能](https://en.wikipedia.org/wiki/Artificial_general_intelligence)(AGI)。