Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

人工智能的发展历史及各个阶段起到关键作用的重大突破

Answer

人工智能的发展历史可以追溯到 20 世纪 50 年代,以下是各个阶段起到关键作用的重大突破:

  1. 20 世纪 50 年代:
    • 纽维尔和西蒙开发了名为“逻辑理论家”的程序,能够证明数学定理,此后又开发了“通用问题求解器”。意义:作为符号学派的代表,为形式化证明打开了大门。
    • 英国数学家阿兰·图灵提出了著名的“图灵测试”。
  2. 20 世纪 60 年代:
    • 美国心理学家弗兰克·罗森布拉特提出了感知机模型,这是一种具有学习能力的神经网络。意义:开创了连接主义学派,为 DNN 学习范式开启了窗口。
  3. 1971 年到 2015 年间,与电子游戏相关的人工智能研究论文数量不到 1000 篇,但从 2015 年到 2022 年的 7 年里,相关论文数量就达到 1625 篇,其中 17 篇成为《自然》和《科学》的封面文章。
  4. 1997 年:“深蓝”电脑在国际象棋比赛中战胜世界冠军卡斯帕罗夫。
  5. 2016 年:AlphaGo 在围棋比赛中战胜世界冠军李世石。
  6. 2020 年:GPT-3 发布,非常擅长用电脑写文章和做其他很多用语言的事情。
  7. 2022 年:DALL-E 发布,可以根据描述画出想象中的图画。
  8. 2023 年:GPT-4 发布。

在快速发展的过程中,众多巨人开创了具有重大意义的里程碑事件,推动了人工智能的不断进步。

Content generated by AI large model, please carefully verify (powered by aily)

References

融合RL与LLM思想,探寻世界模型以迈向AGI「中·下篇」

在近现代几十年中,人工智能发展迅猛,从1950年英国数学家阿兰·图灵(Alan Turing)提出了著名的“图灵测试”算起,到1956年的达特茅斯会议,从符号主义学派的专家系统到链接主义学派的感知机和神经网络,从深度学习的高速发展到当前的大语言模型的爆发式发展,在这短短几十年之间,人工智能发展经历的三起二落,以及技术突破所带来的阶段性不同程度的爆发。在快速发展的过程中,我们当然也无法遗忘在过程中众多巨人所为未来开创的具有重大意义的里程碑事件。在这里我试图列举几个我认为为当下人工智能发展带来重大意义的事件和技术:1、20世纪50年代,纽维尔和西蒙开发了一个名为“逻辑理论家”(Logic Theorist)的程序,该程序能够证明数学定理。此后,他们又开发了“通用问题求解器”,用于解决各种问题。意义:符号学派的代表,其开发的“逻辑理论家”(Logic Theorist)的程序,在当时为形式化证明打开了一扇大门,70年后我们发现,当前LLM在尝试进行的复杂数学定理证明是否又能与其建立某种更深层次的联系?2、20世纪60年代,美国心理学家弗兰克·罗森布拉特提出了感知机模型,这是一种具有学习能力的神经网络。意义:连接主义学派的开创,为DNN这一意义深远的学习范式开启那扇窗。3、AlexNet意义:AlexNet的出现标志着神经网络的复苏和深度学习的崛起。4、AlphaGO战胜李世石意义:在围棋这一复杂领域AI第一次战胜人类,神来之笔37步,也预示着在其它的复杂领域上AI在与人类的智能对比的进一步突破的可能

当AI走进小学课堂(全套课程设计)

1956年人工智能被提出1997年深蓝击败卡斯帕罗夫2016年AlphaGo击败李世石2020年GPT-3的发布2022年DALL-E的发布2023年GPT-4的发布2024年即将发布GPT-5说明:这里未来可以改进一下,当时匆忙只写了语言模型和DALL-E,绘图的SD和Midjourney等我都没写进去,已经新出的视频和音乐创作工具等,都可以往上写,但也不用太多。只需要让孩子理解,技术的变革已经越来越快了!内容从图灵测试之后,科学家们就开始努力让机器变得更聪明。到了1956年,人工智能这个词首次被提出,从那时起,人们就开始正式研究如何让机器像人一样思考了。重大突破1997年:有一个叫做深蓝的电脑,在国际象棋比赛中战胜了世界冠军。这是第一次机器在这样的智力游戏中击败了顶尖的人类选手。2016年:有一个更聪明的AI叫AlphaGo,它在围棋比赛中战胜了世界冠军李世石。围棋是一个非常复杂的游戏,这次胜利让全世界都很惊讶。2020年:有一个AI叫GPT-3,它非常擅长用电脑写文章和做其他很多用语言的事情。它可以帮助人们写故事、答复邮件,甚至写程序代码!2022年:还有一些AI,比如DALL-E,可以根据你告诉它的话,画出你想象中的图画。你说“一个穿宇航服的猫在月球上”,它就可以画出来!看到这些有趣的故事,你们是不是觉得人工智能非常神奇呢?从一个小小的想法发展到现在,人工智能已经能帮我们做很多事情了。那么,接下来,我们来探索一下人工智能现在都可以做些什么吧!

游戏:游戏AI发展报告2023:历史演变、技术革新与应用前景

电子游戏的首次亮相,就与人工智能结下了不解之缘,并且在其各自漫长的发展史中一直相互纠缠,难解难分,直至当下。如今,游戏人工智能的研究已经成为了新的热点:据统计,1971年到2015年间,与电子游戏相关的人工智能研究论文数量不到1000篇,但从2015年到2022年的7年里,相关论文数量就达到1625,其中17篇成为《自然》(Nature)和《科学》(Science)的封面文章。游戏人工智能的发展史可以划分为起源时期(1940-1969)、发展时期(1970-1999)和黄金时期(2000-)。如今,电子游戏与人工智能相生相伴,相互助力已有70余年。电子游戏不仅帮助人工智能的先驱者们确立了研究的目标和任务,同时也向社会生动地展示了人工智能的强大能力。因此,每次人工智能在社会影响力上的突破,都与电子游戏有着莫大联系。其中的典型案例,就是20世纪末在国际象棋游戏上打败卡斯帕罗夫的Deep Blue,以及在2016年在围棋游戏上击败李世石的AlphaGo。甚至最近突破性的AI技术ChatGPT也与游戏AI存在一定关联:OpenAI联合创始人和首席科学家苏茨克维(Ilya Sutskever)在与英伟达的创始人兼CEO黄健生(Jensen Huang,中文名黄仁勋)对谈时指出,OpenAI之所以能够在ChatGPT中推出基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF),与团队在Dota2游戏人工智能上的长期研究有关。正是因为在传统的强化学习大模型中有着丰厚积累,才能够在此基础上逐步改进,将新型的强化学习方法与GPT模型结合,创造出基于提示的GPT(InstructGPT),并进一步演变为ChatGPT。

Others are asking
人工智能与机器学习具体是什么
人工智能是一种目标,旨在让机器展现智慧,简称 AI。它包括多种实现方法,如自上而下的方法,即对推理过程进行建模,将其形式化为计算机程序,依赖于知识表示和推理;自下而上的方法,模拟大脑中的神经元,构建人工神经网络,通过举例让其学习解决问题。 机器学习是人工智能的一个子领域,是一种让机器自动从资料中找到公式的手段。机器学习模型分为监督和无监督两种,监督模型使用标记的数据学习并预测未来值,无监督模型则专注于发现原始数据中的模式。深度学习是机器学习的一个子集,使用人工神经网络处理更复杂的模式,可使用标记和未标记的数据进行半监督学习。 生成式人工智能是人工智能的一个子集,试图学习数据和标签之间的关系以生成新内容,如自然语言、图像或音频等,其输出不是数字或类别。生成式人工智能模型使用统计模型预测预期响应,并根据训练数据生成新内容,但可能产生幻觉,即无意义或语法错误的单词或短语。 大语言模型是具有大量参数的“深度学习”模型。ChatGPT 是基于大型语言模型的对话机器人,是 AIGC 技术在文本生成领域的一个应用实例。AIGC 是利用人工智能技术生成包括文本、图像、音频和视频等内容的新型生产方式。
2025-02-25
给我30份中央人民政府网站和工业和信息部网站2020~2023年期间发布的重要的国家层面与人工智能相关政策文件,列个清单
以下是中央人民政府网站和工业和信息部网站 2020 2023 年期间发布的部分重要的国家层面与人工智能相关政策文件清单: 1. 互联网信息服务算法推荐管理规定(算法推荐规定),于 2023 年 3 月 1 日生效。 2. 互联网信息服务深度合成管理规定(深度合成规定),于 2023 年 1 月 10 日生效。 3. 生成式人工智能服务管理暂行办法(生成式 AI 办法),于 2023 年 7 月 13 日公布并于 2023 年 8 月 15 日生效。 4. 生成式人工智能服务安全基本要求(征求意见稿),于 2023 年 10 月 11 日公开征求意见,意见反馈截止日期为 2023 年 10 月 25 日。 5. 科技伦理审查办法(试行)(征求意见稿)(伦理审查办法(草案)),于 2023 年 4 月 14 日公开征求意见,意见反馈截止时间为 2023 年 5 月 3 日。 6. 国家人工智能产业综合标准化体系建设指南(征求意见稿),于 2024 年 1 月 17 日公开征集意见,意见反馈截止时间为 2024 年 1 月 31 日。 由于未能获取到 30 份相关政策文件,建议您通过中央人民政府网站和工业和信息部网站的搜索功能,以获取更全面和准确的信息。
2025-02-25
有没有一个人工智能工具,可以针对某个网站的更新内容进行分析
以下是为您找到的一些可能针对网站更新内容进行分析的人工智能工具: 1. NotebookLM:可以综合不同材料生成笔记,但存在交互设计不够清晰的问题。 2. Excel 中的 Copilot:能帮助写复杂公式、创建可视化图表及书写 Python 代码完成复杂任务。 3. Loop:可以生成对应内容的表格和其他 Office 软件链接。 4. Stream 中的 Copilot:能够帮助理解视频内容,询问并跳转到对应时间点。 5. Bard:推出了英语版 Bard Extensions,可从 Google 工具中查找并显示相关信息,还能使用“Google it”按钮核实答案,分享聊天时可继续对话并询问。 6. PaLM 2 模型:根据用户反馈应用强化学习技术训练,更加直观和富有想象力。 7. Youtube 的 AI 工具:包括 Dream Screen 可添加背景、YouTube Create 编辑手机视频、AI Insights 获取创意和大纲建议、Aloud 自动配音、创作者音乐中的辅助搜索找到配乐。 8. Dzine:更新了 Insert Character 能力,可快速替换画面角色。 9. 谷歌 IOS 中 Google Lens:在手机 Chrome 浏览器中可更快视觉搜索,还将 AI Overviews 广泛集成到搜索结果中。
2025-02-24
怎么进入人工智能这个行业
要进入人工智能行业,可以从以下几个方面入手: 1. 学习基础知识:了解人工智能的发展历史、基本概念和原理,包括神经网络、机器学习等。 2. 掌握相关技能:例如编程(如 Python)、数学(如线性代数、概率论)等。 3. 深入研究特定领域:如计算机视觉、自然语言处理等,选择自己感兴趣的方向进行钻研。 4. 实践项目:通过实际参与项目,积累经验和提升能力。 5. 持续学习:人工智能领域发展迅速,要不断跟进最新的技术和研究成果。 人工智能作为一个领域始于二十世纪中叶,最初符号推理流行,后因方法局限性出现“人工智能寒冬”。随着计算资源便宜和数据增多,神经网络方法在多个领域展现出色性能,过去十年“人工智能”常被视为“神经网络”的同义词。
2025-02-20
2024 年中国人工智能+产业规模
目前关于 2024 年中国人工智能+产业规模的相关信息如下: 国家统计局数据显示,2022 年全国研究与试验发展(R&D)经费投入总量首次超过 3 万亿元,达到 30782.9 亿元,比上年增加 2826.6 亿元,增长 10.1%,表明国家对科技创新和算力设施的重视和持续投入。我国算力设施产业链规模巨大,已达到万亿元级别。2022 年我国算力核心产业规模达到 1.8 万亿元,预计到 2023 年,中国算力产业规模将超过 3 万亿元。 在企业数量方面,截至 2024 年 3 月,全国算力存量企业共有 75,343 家。其中,广东省、北京市和江苏省的企业数量位居前三,分别有 10,315 家、7,167 家和 6,728 家。此外,人工智能企业数量也超过 4400 家。 德勤的报告指出,中国 AI 产业快速发展,得益于政策支持、经济增长和技术创新。成长型 AI 企业作为产业创新的重要力量,数量占比高达九成,活跃于各行业领域。预计到 2025 年,中国人工智能核心产业规模将突破 5000 亿元。 在影视行业,若假设 2027 年 AI 影视市场可以获得国内总市场份额的 10%,则国内 AI 影视总市场规模预计将达约 380 亿元以上;若假设 2030 年可以获得 25%以上市场份额,则国内 AI 影视总市场规模将达千亿级别。 营销行业或成生成式 AI 最早实现商业化落地的行业之一,未来,AI 技术还将持续推动营销行业的深刻变革。
2025-02-20
人工智能(AI)、机器学习(ML)、深度学习(DL)、生成式AI(AIGC)的区别与联系
AI(人工智能)是一个广泛的概念,旨在让机器模拟人类智能。 机器学习(ML)是AI的一个分支,指计算机通过数据找规律进行学习,包括监督学习(使用有标签的训练数据,学习输入和输出之间的映射关系,如分类和回归)、无监督学习(处理无标签数据,让算法自主发现规律,如聚类)和强化学习(从反馈中学习,以最大化奖励或最小化损失,类似训练小狗)。 深度学习(DL)是一种机器学习方法,参照人脑构建神经网络和神经元,由于网络层数较多被称为“深度”。神经网络可用于监督学习、无监督学习和强化学习。 生成式 AI(AIGC)能够生成文本、图片、音频、视频等内容形式。 它们之间的联系在于:深度学习是机器学习的一种重要方法,机器学习又是实现人工智能的重要途径,而生成式 AI 是人工智能的一个应用领域。例如,生成式 AI 中的一些技术可能基于深度学习和机器学习的算法。2017 年 6 月,谷歌团队发表的论文《Attention is All You Need》首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖于循环神经网络或卷积神经网络,对相关技术的发展具有重要意义。大语言模型(LLM)如谷歌的 BERT 模型,可用于语义理解(如上下文理解、情感分析、文本分类),但不擅长文本生成,对于生成式 AI,生成图像的扩散模型不属于大语言模型。
2025-02-19
写清搭建的coze类的智能体用到了什么样的技术,难点在哪里,起到了什么样的效果,如果用类似的方法,可以完成什么样的工作。
搭建 Coze 类的智能体所用到的技术及相关情况如下: 技术:Bot 的创建部分包括 3 个自研插件及 4 个自研工作流,涉及人设与回复逻辑、变量记忆、长期记忆、数据库、开场白、用户问题建议、快捷指令、语音等功能。还包括通过 Docker 容器部署,接入如 chatgptonwechat(CoW)项目与微信取得关联。 难点:工作量最大且最具难度和挑战的部分是自研插件和工作流的搭建。 效果:实现了多模态资讯的跨平台推送。 类似方法可完成的工作:工作流驱动的 Agent 搭建,如规划任务的关键方法,包括总结任务目标与执行形式,将任务分解为可管理的子任务,确立逻辑顺序和依赖关系,设计每个子任务的执行方法;实施时分步构建和测试 Agent 功能,在 Coze 上搭建工作流框架,详细配置子任务节点并验证可用性;完善时全面评估并优化 Agent 效果,通过反复测试和迭代达到预期水平。例如可以搭建“结构化外文精读专家”Agent 等。
2024-08-26