Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI的历史

Answer

AI 作为一个领域始于二十世纪中叶。

早期,符号推理流行,带来了如专家系统等重要进展,但因从专家提取知识并以计算机可读形式表现及保持知识库准确性的任务复杂且成本高,应用场景难以大规模拓展,导致 20 世纪 70 年代出现“人工智能寒冬”。

随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词。

AI 技术的发展历程包括:

  1. 早期阶段(1950s - 1960s):专家系统、博弈论、机器学习初步理论。
  2. 知识驱动时期(1970s - 1980s):专家系统、知识表示、自动推理。
  3. 统计学习时期(1990s - 2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)。
  4. 深度学习时期(2010s - 至今):深度神经网络、卷积神经网络、循环神经网络等。

当前 AI 前沿技术点有:

  1. 大模型(Large Language Models):GPT、PaLM 等。
  2. 多模态 AI:视觉 - 语言模型(CLIP、Stable Diffusion)、多模态融合。
  3. 自监督学习:自监督预训练、对比学习、掩码语言模型等。
  4. 小样本学习:元学习、一次学习、提示学习等。
  5. 可解释 AI:模型可解释性、因果推理、符号推理等。
  6. 机器人学:强化学习、运动规划、人机交互等。
  7. 量子 AI:量子机器学习、量子神经网络等。
  8. AI 芯片和硬件加速。

最初,查尔斯·巴贝奇发明计算机用于按明确程序运算。现代计算机虽先进,但仍遵循相同受控计算理念。但有些任务如根据照片判断人的年龄,无法明确编程,这正是 AI 感兴趣的。

Content generated by AI large model, please carefully verify (powered by aily)

References

人工智能简介和历史

人工智能作为一个领域始于二十世纪中叶。最初,符号推理非常流行,也带来了一系列重要进展,例如专家系统——能够在某些有限问题的领域充当专家的计算机程序。然而,人们很快发现这种方法无法实现应用场景的大规模拓展。从专家那里提取知识,用计算机可读的形式表现出来,并保持知识库的准确性,是一项非常复杂的任务,而且因为成本太高,在很多情况下并不适用。这使得20世纪70年代出现了“人工智能寒冬”([AI Winter](https://en.wikipedia.org/wiki/AI_winter))。随着时间的推移,计算资源变得越来越便宜,可用的数据也越来越多,神经网络方法开始在计算机视觉、语音理解等领域展现出可与人类相媲美的卓越性能。在过去十年中,“人工智能”一词大多被用作“神经网络”的同义词,因为我们听到的大多数人工智能的成功案例都是基于神经网络的方法。我们可以观察一下这些方法是如何变化的,例如,在创建国际象棋计算机对弈程序时:

问:AI的技术历史和发展方向,目前最前沿的技术点有哪些

AI技术的发展历程和前沿技术点可以概括如下:[heading2]AI技术发展历程[content]1.早期阶段(1950s-1960s):专家系统、博弈论、机器学习初步理论2.知识驱动时期(1970s-1980s):专家系统、知识表示、自动推理3.统计学习时期(1990s-2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)4.深度学习时期(2010s-至今):深度神经网络、卷积神经网络、循环神经网络等[heading2]当前AI前沿技术点[content]1.大模型(Large Language Models):GPT、PaLM等2.多模态AI:视觉-语言模型(CLIP、Stable Diffusion)、多模态融合3.自监督学习:自监督预训练、对比学习、掩码语言模型等4.小样本学习:元学习、一次学习、提示学习等5.可解释AI:模型可解释性、因果推理、符号推理等6.机器人学:强化学习、运动规划、人机交互等7.量子AI:量子机器学习、量子神经网络等8.AI芯片和硬件加速

人工智能简介和历史

译者:Miranda,原文见https://microsoft.github.io/AI-For-Beginners/lessons/1-Intro/README.md[heading1][课前测试](https://red-field-0a6ddfd03.1.azurestaticap[content]人工智能(Artificial Intelligence)是一门令人兴奋的科学,它研究我们如何使计算机表现出智能行为,例如做一些人类所擅长的事情。最初,查尔斯·巴贝奇(Charles Babbage)发明了计算机,用于按照一套明确定义的程序(即算法)来对数字进行运算。现代计算机虽然比19世纪提出的原始计算机模型要先进得多,但仍然遵循着相同的受控计算理念。因此,如果我们知道实现某些目标所需的每一个步骤及其顺序,就有可能编写出程序,使计算机按照我们的想法去做这些事。✅“根据照片判断一个人的年龄”是一件无法明确编程的任务,因为我们并不知道当我们在做这件事时,是如何经过某些清晰的步骤,从而在脑海中得到一个数字的。然而,对于有些任务,我们并不能知道明确的解法。例如从一个人的照片中来判断他/她的年龄。我们之所以能做这件事,是因为我们见过了很多不同年龄的人,但我们无法明确自己的大脑具体是通过哪些步骤来完成这项任务的,所以也无法编写明确的程序让计算机来完成。这种类型的任务正是人工智能(简称AI)感兴趣的。✅想一想,如果人工智能得以实现,哪些任务可以被交给计算机完成?考虑金融、医学和艺术领域,这些领域如今是如何从人工智能中受益的?

Others are asking
ai换脸
以下是每个人都可以用 10 分钟轻松制作 AI 换脸、AI 数字人视频的方法: AI 换脸步骤: 1. 点击右下角的创建实例按钮,创建并启动实例(即启动一台服务器),在容器实例列表中可看到创建的实例。 2. 点击快捷工具中顶部的 JupyterLab,打开工具。通过终端启动 facefusioin,点击顶部的“+”号选项卡,新打开一个终端窗口,在终端区域启动一个终端选项卡。 3. 在打开的终端窗口中,输入以下命令: 查看文件列表,输入“ls”并按回车,显示当前位置所在目录下的文件列表。 进入 facefusion 目录,输入“cd facefusion”并按回车。 启动 facefusion,输入“python./run.py executionproviders cuda cpu”,注意后面的参数“executionproviders cuda cpu”非常重要,如果不加“cuda”,默认不使用 GPU 能力,推理将非常慢。当出现提示信息时,说明启动成功。 4. 打开 facefusion 软件,返回实例列表,点击自定义服务按钮,会打开新的浏览器窗口,通过 web 浏览器访问 facefusion 提供的 UI 界面。 5. 在 facefusion 软件界面上,上传准备好的图片、视频,在右侧可看到预览效果,点击下方的开始按钮,执行换脸处理。 执行完成后,在输出的位置会出现处理后的视频,输出窗口的右上角有一个下载按钮,点击可导出变量后的视频到本地。 成本和时间: 1. 时间:大约 10 分钟左右。 2. 制作数字人视频:免费。 3. 数字人换脸:约 0.8 元。 4. 数字人换脸时长:经实际测试 1 分 28 秒的视频,总转换时间在 200 秒。 变脸前和变脸后的视频示例: 1. 变脸前的视频: 2. 变脸后的视频: 本次 GPU 服务器的使用花费: 总成本: 1. 时间:大约 10 分钟左右。 2. 制作数字人视频:免费。 3. 数字人换脸:约 0.8 元。 4. 数字人换脸时长:经实际测试 1 分 28 秒的视频,总转换时间在 200 秒,下方是运行 facefusion 的终端反馈的信息。如上图所示,GPU 服务器此次整体运行时长所需花费 0.97 元,facefusion 软件运行其实只占服务器运行时长的一部分,所以换脸的成本应该在 0.8 元左右。
2025-03-11
我想制作AI数字人,如何去寻找相关资料和教程
以下是寻找制作 AI 数字人相关资料和教程的途径: 1. 在线文档和公众号:可以查看。 2. B 站:在 B 站搜索相关视频教程。 3. 具体操作方法: 在剪映中,右侧窗口顶部打开“数字人”选项,选取免费且适合的数字人形象,如“婉婉青春”。选择数字人形象时,软件会播放其声音,可判断是否需要,点击右下角“添加数字人”将其添加到当前视频。剪映会根据提供的内容生成对应音视频并添加到轨道中,左下角会提示渲染完成时间,可点击预览查看效果。 为让视频更美观,可增加背景图片。删除先前导入的文本内容,点击左上角“媒体”菜单并“导入”按钮选择本地图片上传,将图片添加到视频轨道上,可通过拖拽轨道右侧竖线使其与视频对齐。 此外,还有一些开源的算法代码仓库可供参考: 1. ASR 语音识别: openai 的 whisper:https://github.com/openai/whisper wenet:https://github.com/wenete2e/wenet speech_recognition:https://github.com/Uberi/speech_recognition 2. AI Agent: 大模型包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等。 Agent 部分可使用 LangChain 的模块去做自定义,包含了 Agent 实现的几个组件 3. TTS: 微软的 edgetts:https://github.com/rany2/edgetts,只能使用里面预设的人物声音,目前接口免费。 VITS:https://github.com/jaywalnut310/vits,还有很多分支版本。 sovitssvc:https://github.com/svcdevelopteam/sovitssvc,专注到唱歌方面。 除了算法,人物建模模型可以通过手动建模实现,但这种简单的构建方式还存在一些问题,如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应动作、数字人如何使用知识库做出某个领域的专业性回答等。
2025-03-11
ai导航网站市场策略
以下是关于 AI 导航网站市场策略的相关信息: 市场数据: 近一年赛道单月访问量增加了 3,284 万,年增长率为 171%。 GetResponse Email Generator 的访问量减少了 97 万,而 Beacons AI 2.0 的访问量增长了 2,111 万,占整个赛道变化的 64%。 23 年 4 月访问量头部产品月访问量下降幅度明显,如 Writer 月访问量减少了 366 万,降低了 67%;GetResponse Email 月访问量减少了 97 万,降低了 17%;unbounce 月访问量减少了 36 万,降低了 36%。 导航网站市场特点: 天花板潜力:小众市场 对标公司:producthunt、hao123 总体趋势:增长乏力,月平均增速为 24 万 PV/月 原生产品占比:较高 竞争情况: Top1 占比:24% Top3 占比:62% 马太效应:弱 网络效应:中 大厂是否入局:否 大厂占比:低 技术门槛:低 Top1 公司(非大厂):TAAFT,估值未披露,3 月 PV 为 537 万。 对于中小企业利用人工智能(AI)进行转型提升市场营销效果方面,目标市场分析是关键。首先使用 AI 工具进行市场细分,选择能处理复杂数据集并提供深入洞察的工具,收集广泛市场数据并分析,将市场细分为不同客户群体。其次基于分析结果定制营销策略,执行并根据反馈和销售数据调整,持续监测效果、更新数据并优化策略。通过目标市场分析,中小企业能更精准识别和理解潜在客户,提高营销活动的 ROI,增强企业与客户联系,提升品牌形象和市场份额。 此外,还有一个关于“AI+交易”的摊位信息,其活动主题为“AI+交易:来定制专属于你的私人高级交易顾问吧!”,期望借助 AI 分析行情,提高资金使用效率。摊位区域为 D,摊位编号为 22,摊位类型为量化交易。
2025-03-11
如何学习使用AI模型
以下是关于学习使用 AI 模型的一些建议和知识: Teachable Machine: 这是由 Google 开发的机器学习工具,可应用于商品说明书、自动驾驶、教学互动等多个场景。使用步骤如下: 1. 收集数据:可上传图片、录制声音或动作视频作为训练数据。 2. 训练模型:用收集的数据训练模型,并测试其能否正确识别新的图片、声音或动作。 3. 导出模型:完成训练后,可下载或上传到网上用于其他项目。 它具有多种优势: 1. 允许用户快速、简单地创建机器学习模型,无需专业知识或编程技能。 2. 提供多种创建机器学习模型的方式,非常灵活和用户友好。 3. 支持使用文件或实时捕捉示例,用户可选择上传已有文件或实时录制。 4. 可以在本地完成训练,保护用户隐私。 5. 生成的模型是真实的 TensorFlow.js 模型,可在任何运行 JavaScript 的地方工作,还能导出到不同格式在其他地方使用。 AI 模型相关技术原理: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习参照人脑有神经网络和神经元,因为有很多层所以叫深度,神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,生成图像的扩散模型不是大语言模型,对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,不依赖于循环神经网络或卷积神经网络。
2025-03-11
AI音乐产业报告
以下是为您提供的关于 AI 音乐产业的相关报告内容: 1. 量子位智库发布的《AI 音乐应用产业报告(2024 年)》指出,AI 音乐生成技术通过学习大量音乐数据,已能创作出具有一定艺术性的音乐作品。音频模型尤其受到关注,因其能直接生成流畅自然的音乐。AI 音乐简化了音乐制作流程,为音乐产业带来变革。流媒体平台可能成为商业化的最大受益者,而传统音乐工程可能面临冲击。数据和情感表达的精准把控是技术迭代和商业化的关键。报告还提到,AI 音乐生成产品如 Suno 和 Udio 等,正在推动“人人皆可创作”的时代,同时面临技术、音乐属性和商业化等方面的挑战。 2. 《2024 年度 AI 十大趋势报告》发布,其中包含 AIGC 音乐应用产业报告。报告指出 AI 生成音乐存在基于乐理规则的符号生成模型和基于音频数据的音频生成模型两种主流技术路线。开发者正在使用 AI 生成音乐来填充游戏过程与游戏 UI 中需要使用到的各类音效、不同游戏场景中用以渲染氛围的各种音乐。AI 生成音乐作为音乐资产在游戏制作和发行环节使用都是非常可行的,像 MusicLM 等模型已经支持生成多音轨的作品。使用 AI 生成音乐为原型、佐以专业制作人的协调,将使 AI 音乐更快进入游戏制作与发行的生产线。 3. 2024 年度 AI 十大趋势报告还提到,AI 能基于玩家游戏行为评估玩家技能水平和游戏风格,同时动态调整游戏难度,增加或降低敌人的数量和强度,改变游戏环境等;不断收集的玩家数据,还能使 NPC 和游戏系统更加适配玩家水平。同时在游戏运营过程中,AI 客服和 AI 分析也是提升玩家体验的重要一环。 4. 许多充满灵感的开发者正在尝试将 AI 作为游戏玩法的一环,如 2023 年 Genfun.ai 和 Meshy 联合制作的游戏《Soul Chronicle》,在当时是首款实时 3D+AIGC+UGC 的 MMO 手游。最大突破是首先制作出了一种与游戏完美融合的 3D AIGC 技术,在游戏中可以实时生成角色皮肤。2024 年 Bitmagic 释出了他们推出的能直接创建“游戏世界”的平台——《Roleverse》的最新成果,在平台内可以使用提示在游戏内定制角色,对角色进行缩放、挤压和拉伸,也可以轻松地对游戏世界进行编辑。
2025-03-11
ai制作幽默表情包系列的工作流,用dify或make实现的全流程
以下是使用 Dify 或 Make 实现 AI 制作幽默表情包系列的全流程: 1. 素材准备 平面设计稿:确定表情包的基本设计和角色形象。 2. 制作流程 转 3D:将平面设计稿转换为 3D 形式,增加立体感和丰富度。 AI 生成场景:利用相关工具生成适合的场景。 AI 图生视频:将生成的图片转换为视频。 剪辑转 gif:对视频进行剪辑,并转换为 gif 格式。 压缩:使用图像压缩工具,如 https://imageresizer.com/zh/%E5%9B%BE%E5%83%8F%E5%8E%8B%E7%BC%A9 ,对 gif 进行压缩,以满足上传要求。 上传微信表情平台审核:完成压缩后,上传至微信表情平台进行审核。 相关工具: 即梦:https://jimeng.jianying.com/aitool/image/generate Recraft: https://www.recraft.ai/
2025-03-11
人工智能发展历史
人工智能的发展历史如下: 起源于二十世纪中叶,最初符号推理流行,带来了专家系统等重要进展,但因方法局限性和成本问题,20 世纪 70 年代出现“人工智能寒冬”。 随着计算资源变便宜和数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为神经网络奠定基础。 1950 年,图灵最早提出图灵测试作为判别机器是否具备智能的标准。 1956 年,在美国达特茅斯学院召开的会议上,“人工智能”一词被正式提出并确立为一门学科。此后近 70 年,AI 的发展起起落落。 AI 技术发展历程包括早期阶段(1950s 1960s)的专家系统、博弈论、机器学习初步理论;知识驱动时期(1970s 1980s)的专家系统、知识表示、自动推理;统计学习时期(1990s 2000s)的机器学习算法(决策树、支持向量机、贝叶斯方法等);深度学习时期(2010s 至今)的深度神经网络、卷积神经网络、循环神经网络等。 当前 AI 前沿技术点包括大模型(如 GPT、PaLM 等)、多模态 AI(视觉 语言模型、多模态融合)、自监督学习(自监督预训练、对比学习、掩码语言模型等)、小样本学习(元学习、一次学习、提示学习等)、可解释 AI(模型可解释性、因果推理、符号推理等)、机器人学(强化学习、运动规划、人机交互等)、量子 AI(量子机器学习、量子神经网络等)、AI 芯片和硬件加速。
2025-03-10
AI的发展历史
AI 的发展历史可以追溯到二十世纪中叶,大致经历了以下几个阶段: 1. 早期阶段(1950s 1960s): 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续的神经网络奠定基础。 1950 年,图灵最早提出图灵测试,作为判别机器是否具备智能的标准。 1956 年,在美国达特茅斯学院召开的会议上,人工智能一词被正式提出,并作为一门学科确立下来。这一时期专家系统、博弈论、机器学习初步理论等受到关注。 2. 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理等是研究重点。 3. 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等得到发展。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等技术兴起。 在发展过程中,AI 也经历了起伏。20 世纪 70 年代出现了“人工智能寒冬”,但随着计算资源变得便宜、数据增多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能。当前 AI 的前沿技术点包括: 1. 大模型如 GPT、PaLM 等。 2. 多模态 AI,如视觉 语言模型、多模态融合。 3. 自监督学习,如自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习,如元学习、一次学习、提示学习等。 5. 可解释 AI,包括模型可解释性、因果推理、符号推理等。 6. 机器人学,涉及强化学习、运动规划、人机交互等。 7. 量子 AI,如量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。
2025-03-04
有没有这样的产品,能够通过输入X主页,获取这个人的历史所有推特的信息分析与总结
目前没有这样合法合规且普遍可用的产品。获取他人的推特信息需要遵循相关平台的规定和法律法规,未经授权获取他人的信息是不被允许的。
2025-02-28
AI的历史
AI 作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因从专家提取知识并以计算机可读形式表现及保持知识库准确性的任务复杂且成本高,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 AI 技术的发展历程如下: 1. 早期阶段(1950s 1960s):专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等。 当前 AI 前沿技术点包括: 1. 大模型(Large Language Models):GPT、PaLM 等。 2. 多模态 AI:视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 3. 自监督学习:自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习:元学习、一次学习、提示学习等。 5. 可解释 AI:模型可解释性、因果推理、符号推理等。 6. 机器人学:强化学习、运动规划、人机交互等。 7. 量子 AI:量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 最初,查尔斯·巴贝奇发明计算机用于按明确程序运算。现代计算机虽先进但仍遵循相同理念。但有些任务如根据照片判断人的年龄无法明确编程,因不知大脑完成任务的具体步骤,这类任务正是 AI 感兴趣的。
2025-02-25
有没有可以分析历史事件关联性的AI
很抱歉,上述提供的内容中没有直接提到可以分析历史事件关联性的 AI 相关信息。但目前在 AI 领域,有一些自然语言处理和数据分析的技术及工具可能会被应用于历史事件关联性的分析。例如,利用大规模的语言模型结合历史数据进行文本挖掘和关联分析。不过,具体的专门用于此目的的成熟 AI 应用可能还需要进一步的研究和开发。
2025-02-24
有没有能进行历史进程分析的AI
以下是关于历史进程分析的 AI 相关内容: AI 技术的发展历程和前沿技术点可以概括如下: 发展历程: 1. 早期阶段(1950s 1960s):包括专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):有专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):出现机器学习算法如决策树、支持向量机、贝叶斯方法等。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等得到发展。 当前前沿技术点: 1. 大模型(Large Language Models):如 GPT、PaLM 等。 2. 多模态 AI:包括视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 3. 自监督学习:如自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习:有元学习、一次学习、提示学习等。 5. 可解释 AI:涉及模型可解释性、因果推理、符号推理等。 6. 机器人学:包含强化学习、运动规划、人机交互等。 7. 量子 AI:如量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 对于大众来说,AI 领域的使用随着国内互联网的发展,在近 20 年才开始普及。最初的应用主要是基于 NLP 技术的聊天机器人和客服机器人。随后,中英文翻译、语音识别、人脸识别等技术取得突破,在日常生活中的应用广泛,如语音助手、智能翻译设备、人脸识别支付系统等。但以前的技术突破大多限于特定领域,模型应用范围相对狭窄。而随着 OpenAI ChatGPT 等大型语言模型的突破,展示了通过大规模模型预训练涌现出广泛智能应用的新发展路线,一个模型就能实现多种能力。 此外,在法律法规方面,某些用于司法和民主进程的 AI 系统应被归类为高风险,考虑到其对民主、法治、个人自由以及有效补救和公平审判权利的潜在重大影响。但某些用于纯辅助行政活动且不影响个别案件实际司法管理的 AI 系统不应被归类为高风险。
2025-02-24