以下是关于 AI 最早的一些论文文献相关信息:
Introduction智能是一个多方面而难以捉摸的概念,长期以来一直挑战着心理学家、哲学家和计算机科学家。1994年,一组52名心理学家签署了一份有关智能科学的广泛定义的社论,试图捕捉其本质。共识小组将智能定义为一种非常普遍的心理能力,其中包括推理、规划、解决问题、抽象思维、理解复杂思想、快速学习和从经验中学习等能力。这个定义意味着智能不仅限于特定领域或任务,而是涵盖了广泛的认知技能和能力——建立一个能够展示1994年共识定义所捕捉到的通用智能的人工系统是人工智能研究的一个长期而宏伟的目标。在早期的著作中,现代人工智能(AI)研究的创始人提出了理解智能的一系列宏伟目标。几十年来,AI研究人员一直在追求智能的原则,包括推理的普适机制(例如[NSS59],[LBFL93])以及构建包含大量常识知识的知识库[Len95]。然而,最近的许多AI研究进展可以描述为「狭义地关注明确定义的任务和挑战」,例如下围棋,这些任务分别于1996年和2016年被AI系统掌握。在1990年代末至2000年代,越来越多的人呼吁开发更普适的AI系统(例如[SBD+96]),并且该领域的学者试图确定可能构成更普遍智能系统的原则(例如[Leg08,GHT15])。名词「通用人工智能」(AGI)在2000年代初流行起来(见[Goe14]),以强调从「狭义AI」到更广泛的智能概念的追求,回应了早期AI研究的长期抱负和梦想。我们使用AGI来指代符合上述1994年定义所捕捉到的智能广泛能力的系统,其中包括了一个附加的要求,即这些能力在或超过人类水平。然而,我们注意到并没有一个被广泛接受的AGI定义,我们在结论部分讨论其他定义。
生成性AI是一种机器学习类别,计算机可以根据用户的提示生成原始的新内容。目前,文本和图像是这项技术的最成熟应用,但几乎在每一个创意领域都有工作在进行,从动画、音效、音乐,甚至到创造具有完整性格的虚拟角色。当然,AI在游戏中并不是什么新鲜事。即使是早期的游戏,如雅达利的Pong,也有计算机控制的对手来挑战玩家。然而,这些虚拟的敌人并不是我们今天所知道的AI。它们只是由游戏设计师制定的简单脚本程序。它们模拟了一个人工智能对手,但它们不能学习,它们的能力只取决于创建它们的程序员。现在与以前的不同之处在于,由于更快的微处理器和云技术,我们有了更多的计算能力。有了这种能力,我们可以构建大型的神经网络,这些网络可以在高度复杂的领域中识别模式和表示。这篇博文分为两部分:第一部分包括我们对游戏领域的生成性AI的观察和预测。第二部分是我们对该领域的市场地图,概述了各个细分市场并确定了每个市场的关键公司。
一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT含义:Transformer是关键。Transformer比RNN更适合处理文本的长距离依赖性。