Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI的发展历史

Answer

AI 的发展历史可以追溯到二十世纪中叶,大致经历了以下几个阶段:

  1. 早期阶段(1950s - 1960s):专家系统、博弈论、机器学习初步理论出现。心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续的神经网络奠定基础。计算机先驱图灵最早提出图灵测试,作为判别机器是否具备智能的标准。1956 年,在达特茅斯会议上,人工智能一词被正式提出,并作为一门学科确立下来。
  2. 知识驱动时期(1970s - 1980s):专家系统、知识表示、自动推理得到发展。但由于从专家那里提取知识并以计算机可读形式表现出来的任务复杂且成本高,20 世纪 70 年代出现“人工智能寒冬”。
  3. 统计学习时期(1990s - 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等兴起。
  4. 深度学习时期(2010s - 至今):深度神经网络、卷积神经网络、循环神经网络等技术发展迅速。当前的前沿技术点包括大模型(如 GPT、PaLM 等)、多模态 AI(视觉 - 语言模型、多模态融合)、自监督学习(自监督预训练、对比学习、掩码语言模型等)、小样本学习(元学习、一次学习、提示学习等)、可解释 AI(模型可解释性、因果推理、符号推理等)、机器人学(强化学习、运动规划、人机交互等)、量子 AI(量子机器学习、量子神经网络等)、AI 芯片和硬件加速。
Content generated by AI large model, please carefully verify (powered by aily)

References

问:AI的技术历史和发展方向,目前最前沿的技术点有哪些

AI技术的发展历程和前沿技术点可以概括如下:[heading2]AI技术发展历程[content]1.早期阶段(1950s-1960s):专家系统、博弈论、机器学习初步理论2.知识驱动时期(1970s-1980s):专家系统、知识表示、自动推理3.统计学习时期(1990s-2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)4.深度学习时期(2010s-至今):深度神经网络、卷积神经网络、循环神经网络等[heading2]当前AI前沿技术点[content]1.大模型(Large Language Models):GPT、PaLM等2.多模态AI:视觉-语言模型(CLIP、Stable Diffusion)、多模态融合3.自监督学习:自监督预训练、对比学习、掩码语言模型等4.小样本学习:元学习、一次学习、提示学习等5.可解释AI:模型可解释性、因果推理、符号推理等6.机器人学:强化学习、运动规划、人机交互等7.量子AI:量子机器学习、量子神经网络等8.AI芯片和硬件加速

走入AI的世界

2022年11月30日,OpenAI发布基于GPT 3.5的ChatGPT,自此开始,一股AI浪潮席卷全球,但AI(人工智能,Artificial Intelligence)并不是近几年才有的新鲜事,他的起源,最早可以追溯到上世纪的1943年。1943年,心理学家麦卡洛克和数学家皮特斯提出了机器的神经元模型,为后续的神经网络奠定了基础。1950年,伟大的计算机先驱图灵最早提出了图灵测试,做为判别机器是否具备智能的标准(即在一个对外不可见的房间内放置一台可以与外界沟通的机器,如果外界交互的人无法区分房间里到底是真人还是机器,那么我们就说房间里的机器具备了智能,通过了图灵测试)。1956年,在美国一个小镇的达特茅斯学院中,马文·明斯基和约翰·麦凯西拉着香农大佬站台背书,共同发起召开了著名的达特茅斯会议,在这次会议上,人工智能Artificial Intelligence一词被正式提出,并做为一门学科被确立下来。此后接近70年的漫长时间里,AI的发展起起落落,两次掀起人类对AI毁灭人类世界的恐慌,热度拉满,但又最终以“不过如此”冷却收场。图1 AI发展史

人工智能简介和历史

人工智能作为一个领域始于二十世纪中叶。最初,符号推理非常流行,也带来了一系列重要进展,例如专家系统——能够在某些有限问题的领域充当专家的计算机程序。然而,人们很快发现这种方法无法实现应用场景的大规模拓展。从专家那里提取知识,用计算机可读的形式表现出来,并保持知识库的准确性,是一项非常复杂的任务,而且因为成本太高,在很多情况下并不适用。这使得20世纪70年代出现了“人工智能寒冬”([AI Winter](https://en.wikipedia.org/wiki/AI_winter))。随着时间的推移,计算资源变得越来越便宜,可用的数据也越来越多,神经网络方法开始在计算机视觉、语音理解等领域展现出可与人类相媲美的卓越性能。在过去十年中,“人工智能”一词大多被用作“神经网络”的同义词,因为我们听到的大多数人工智能的成功案例都是基于神经网络的方法。我们可以观察一下这些方法是如何变化的,例如,在创建国际象棋计算机对弈程序时:

Others are asking
我想用AI制作一个帮助自己及时获得某细分工业领域国内外信息的工具,应该如何开始?
以下是使用 AI 制作帮助自己及时获得某细分工业领域国内外信息工具的步骤: 1. 让 AI 阅读学习一篇您认为优秀的行业调研报告,总结其中的方法论,输出一份“行业调研报告”的研究方法和操作框架。 2. 询问 AI 该文章在收集行业数据时使用了哪些一手数据和二手数据,并请其推荐一些靠谱的行业资料收集网站。 3. 要求 AI 参考上述内容,为您写一份“XXX 行业调研报告”,并请其作为“行业调研报告撰写专家”,推荐 10 个“XXX 行业”信息网站和 5 个“XXX 行业”研究微信公众号,然后输出一份“XXX 行业调研报告”框架。 4. 要求 AI 针对上述“XXX 行业调研报告”框架,丰富每一章节内容,每章内容字数大于 200 字。 5. 完成以上 4 个步骤后,AI 会为您写出一个“XXX 行业调研报告”的初稿。接下来,您可以根据自己的需求,让 AI 进一步完善每一个章节的内容。然后结合您自己的独特经验和知识,对文章内容进行润色和调整。 需要注意的是,要使调研报告有深度,可以通过以下两个路径: 1. 自己对行业比较了解,整理深度洞察和见解。 2. 一步一步深度咨询 AI,借助 AI 的海量知识,一边学习、一边研究、一边洞察总结。(通过借助 AI,可以加速我们的学习和研究能力) 操作示例如下:获取“kimi 对话原文”链接: 欢迎与 JessieZTalk 交流,在 AIGC 的路上共同进步!
2025-01-07
如何利用Ai生成长文的脑图
以下是关于利用 AI 生成长文脑图的相关信息: 一、AI 生图相关课程与分享 讨论了 AI 生图的学习课程安排,包括邀请白马老师授课、介绍相关工具网站吐司,还提及了 AI 工具的消费和应用情况等。 二、AI 绘图模型 1. 特点、优势、应用场景以及在实际操作中的使用方法和技巧。 2. 工具 SD 的各种玩法、不同界面、模型分类及应用场景,强调了其在创意设计中的作用和优势。 三、图像生成模型 1. 特点、发展历程、优势与应用。 2. 吐司网站的使用方法。 四、获取额外算力 通过特定链接注册或填写邀请码 BMSN,新用户 7 天内可额外获得 100 算力。 五、文生图的操作方式 在首页有对话生图对话框,输入文字描述即可生成图片,不满意可通过对话让其修改。 六、模型及生成效果 Flex 模型对语义理解强,不同模型生成图片的积分消耗不同,生成的图片效果受多种因素影响。 七、图生图及参数设置 可通过电图基于图片做延展,生图时能调整尺寸、生成数量等参数,高清修复会消耗较多算力建议先出小图。 八、特定风格的生成 国外模型对中式水墨风等特定风格的适配可能存在不足,可通过训练 Lora 模型改善。 九、与思维导图相关的 AI 工具 1. GitMind:免费跨平台,支持多种模式,可自动生成思维导图。 2. ProcessOn:国内思维导图+AIGC 工具,可利用 AI 生成思维导图。 3. AmyMind:轻量级在线,无需注册登录,支持自动生成节点。 4. Xmind Copilot:基于 GPT 的助手,可一键拓展思路,生成文章大纲。 5. TreeMind:输入需求由 AI 自动完成思维导图生成。 6. EdrawMind:提供一系列 AI 工具,包括头脑风暴功能,提升生产力。 十、AI 摆摊项目 1. AI 图像处理:图像生成、照片修复与动起来、动漫化头像、老照片复活、创意壁纸制作等。 2. 文案与内容创作:文案定制、朋友圈文案生成、爆款文案编写、创意故事、情话生成等。 3. 音频与音乐制作:专属歌曲创作、音频处理、声音克隆、AI 唱歌、背景音乐定制等。 4. 视频处理:视频换脸、照片转视频、视频动漫化、视频剪辑、数字人制作等。 5. 智能体与 Coze:搭建智能体、GPTs 创建、coze 工作流、微信机器人等。 6. AI 教育与咨询:AI 应用培训、课程设计、商业化咨询、AI+行业应用咨询等。
2025-01-07
要熟练使用ai的话,英语得是哪个级别的?
要熟练使用 AI ,对英语水平的要求会因具体的应用场景和个人需求而有所不同。 一般来说,如果是为了进行基本的交流和获取常见的信息,具备大学英语四级左右的水平可能就能够初步应对。但如果想要更深入地理解和运用 AI 中的复杂技术文档、进行专业领域的交流,或者参与国际前沿的研究和讨论,可能需要达到大学英语六级甚至更高的水平,如雅思 6.5 分及以上。 例如,在一些需要准确理解和运用复杂句子结构、多样化词汇,并能进行深入的观点阐述和交流的场景中,较高的英语水平会更有优势。 同时,学英语的目的和需求不同,所需的英语水平也不同。比如,为了跨语言交流、应试、工作、获取信息或理解文化等,学习的必要性和路径都会有所差异。 在使用 AI 辅助英语学习时,要注意一些事项:AI 只是辅助工具,不能替代人的思考;给 AI 的信息要尽可能准确、清晰;要注重思维启发和知识学习而非单纯获取答案;掌握一些向 AI 提问的技巧;养成做一道题就新开一个对话的好习惯;对于英语、语文之外的学科的学习要慎用 AI 。 此外,英语学习的重点在于“有效输入”,然后是理解后的输出。可以尝试不开字幕听感兴趣的优质播客,每天熟读并背诵一篇 100 字短文等方法。
2025-01-07
学ai前要先学会英语吗?
学习 AI 之前是否要先学会英语,因人而异。 对于一些人来说,英语基础较差并不影响他们开始接触和使用 AI 工具。例如,有文科生在不懂代码、英语也差的情况下,依然能够注册尝试各种 AI 工具,并在学习后取得一定成果。 然而,在学习 AI 的过程中,英语可能会起到一定的辅助作用。比如,了解英文世界里的 AI 发展动态,能够获取更多前沿信息。同时,像在口语练习方面,利用相关的 AI 工具可能有助于提升英语能力,从而更好地理解和应用 AI 技术。 总之,英语不是学习 AI 的绝对前提条件,但具备一定的英语能力可能会为学习 AI 带来更多便利和优势。
2025-01-06
小白如何0基础学Ai
对于 0 基础学习 AI 的小白,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库中有很多大家实践后的作品、文章分享,欢迎实践后进行分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人进行互动,了解其工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 6. 岗位技能要求: 对于“AI 提示词工程师”岗位,需要具备市场调研、观察目标群体工作流、创造并拆解需求、选型现有 AI 解决方案做成产品来解决需求、抽象出来集成为一个互联网 APP 产品、写 PRD、画 APP 产品原型图、组织团队进行 APP 产品开发等综合能力。 7. 学习资源: 对于 0 基础小白,可在网上找教程,推荐看科普类教程,阅读 OpenAI 的文档,理解每个参数的作用和设计原理。 推荐一些练手的 Prompt 工具和相关教程文档。 8. 学习模式和注意事项: 可以参考《雪梅 May 的 AI 学习日记》,采用输入→模仿→自发创造的学习模式。 注意学习内容可能因 AI 发展迅速而过时,可去 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新内容。 学习时间可灵活安排,学习资源大多免费开源。
2025-01-06
我先系统了解AIGC 行业
以下是关于 AIGC 行业的系统介绍: AIGC(Artificial Intelligence Generated Content,人工智能生成内容)的发展历程可以从内容生产方式的演变来了解。在互联网发展过程中,内容生产方式经历了从 PGC(ProfessionalGenerated Content,专业生成内容)到 UGC(UserGenerated Content,用户生成内容),再到 AIGC 的转变。 在 Web1.0 时代,互联网内容生产以 PGC 为主,由专家和专业机构生产高质量内容,如雅虎、IMDb 等。PGC 的优势在于专业性和易变现,但存在创作门槛高、产量不足等挑战。 随着互联网发展和用户需求多样化,Web 2.0 时代到来,用户参与内容创作,UGC 成为主流。UGC 内容多样、个性化,通过推荐系统满足用户需求,降低了专业门槛,促进了互联网的民主化和个性化内容创作。 在当前,国内 AIGC 行业主要在《网络安全法》《数据安全法》以及《个人信息保护法》的框架下,由《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》共同监管。 此外,还有一些具体的应用案例,如 Collov 是来自美国硅谷的家居垂直行业 AIGC 工具,专注于利用人工智能技术来实现空间设计与家具营销二合一,打通供应链,为企业提高更低成本、更智能高效的空间设计与家具营销解决方案。它能够完成人类设计师以及高美感内容的视觉理解、推理和生成任务,并将生成技术服务于家装、工装、建筑、具身智能机器人、智能驾驶等多领域的商业场景,替代传统人工设计和采集流程。AI 技术的应用显著提高了设计和营销的效率,减少了对传统人工的依赖,增强了客户的交付满意度,提升了企业的市场竞争力。
2025-01-06
人工智能的历史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但这种方法因无法大规模拓展应用场景,且从专家提取知识、表现及保持知识库准确性复杂且成本高,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 例如在创建国际象棋计算机对弈程序时,方法不断变化。 此外,人工智能和机器学习在金融服务行业应用已超十年,促成了诸多改进。大型语言模型通过生成式人工智能代表重大飞跃,正改变多个领域。 最初查尔斯·巴贝奇发明计算机,遵循受控计算理念。但有些任务如根据照片判断人的年龄无法明确编程,这类任务正是人工智能感兴趣的。如今金融、医学和艺术等领域正从人工智能中受益。
2025-01-02
人工智能历史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因从专家提取知识并以计算机可读形式表现及保持知识库准确性复杂且成本高,20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源便宜、数据增多,神经网络方法在计算机视觉、语音理解等领域展现卓越性能,过去十年中“人工智能”常被视为“神经网络”同义词。 在创建国际象棋计算机对弈程序方面,早期以搜索为基础,发展出阿尔法贝塔剪枝搜索算法,搜索策略在对局结束时效果好,开始时因搜索空间大需通过学习人类对局改进,后续采用基于案例的推理,现代能战胜人类棋手的程序基于神经网络和强化学习。 在创建“会说话的程序”方面,早期如 Eliza 基于简单语法规则将输入句子重新表述为问题,现代助手如 Cortana、Siri 或谷歌助手是混合系统,使用神经网络转换语音并识别意图,未来期待完整基于神经网络的模型独立处理对话,最近的 GPT 和 TuringNLG 系列神经网络取得巨大成功。 最初查尔斯·巴贝奇发明计算机用于按明确程序运算,现代计算机虽先进但仍遵循相同理念。但有些任务如根据照片判断年龄无法明确编程,因不知大脑完成任务的具体步骤,这种类型任务是人工智能感兴趣的。 译者:Miranda,原文见 https://microsoft.github.io/AIForBeginners/lessons/1Intro/README.md 。
2024-12-25
人工智能历史图谱
人工智能的历史可以追溯到二十世纪中叶。 起初,符号推理流行,带来了专家系统等重要进展,但因提取知识复杂、成本高等问题,20 世纪 70 年代出现“人工智能寒冬”。 随着计算资源便宜和数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年“人工智能”常被视为“神经网络”的同义词。 在国际象棋对弈程序方面,早期以搜索为基础,发展出阿尔法贝塔剪枝搜索算法,后来采用基于案例的推理,如今基于神经网络和强化学习,能从自身错误中学习,学习速度快于人类。 在创建“会说话的程序”方面,早期如 Eliza 基于简单语法规则,现代助手如 Cortana、Siri 等是混合系统,使用神经网络转换语音、识别意图,未来有望出现完整基于神经网络的模型处理对话,如 GPT 和 TuringNLG 系列神经网络取得成功。 近期神经网络研究在 2010 年左右有巨大发展,大型公共数据集出现,如 ImageNet 催生了相关挑战赛。2012 年卷积神经网络用于图像分类使错误率大幅下降,2015 年微软研究院的 ResNet 架构达到人类水平准确率,此后神经网络在图像分类、对话语音识别、自动化机器翻译、图像描述等任务中表现成功。 在过去几年,大型语言模型如 BERT 和 GPT3 取得巨大成功,得益于大量通用文本数据,可先预训练再针对具体任务专门化。
2024-12-25
chatgpt发展历史
ChatGPT 的发展历史如下: 在过去的一年里,许多人已主动或被动地了解了 ChatGPT,不少人可能已使用过。它能在人类生活的各个方面发挥作用。 2022 年,OpenAI 宣发时称 ChatGPT 是一种模型,其官网帮助页面称 ChatGPT 是一种服务,目前所熟知的 ChatGPT 逐渐演变成了一种可兼容多种 GPT 模型的聊天应用(服务)。 2022 年 8 月,GPT4 完成训练,是 OpenAI 的旗舰项目,强调指令遵循能力,但存在可靠性问题。 OpenAI 团队曾把产品给朋友和家人使用并考虑公开发布,之后减少对浏览功能的侧重。 团队将指令型数据和聊天数据混合,希望创造出既可以处理具体任务又能流畅聊天的模型,发现 chat 模型使用更简单,能更好地了解并处理潜在局限性,展现出更连贯的特征和更稳定的行为。
2024-12-25
如何使用AI进行中学历史教学,详细些介绍
以下是关于如何使用 AI 进行中学历史教学的一些方法和案例: 1. 利用 GPT 生成“沉浸式”历史片段游戏,让学生扮演特定角色“设身处地”地做决策,例如模拟明朝灭亡时期在南京的场景。 2. 让学生的作业是找出 GPT 生成内容中的错误,以加深对历史知识的理解和批判性思维。 3. 在历史课中,对于制作展示宏观经济学原理理解的信息图表等任务,可以使用 AI 生成的图像。 4. 对于一些需要快速制作以展示学习成果的视频,如科学课中的学习展示,可利用 AI 生成的跳切来节省时间。 同时需要注意,AI 生成的历史模拟内容并非完全准确,可能存在错误和幻觉,但有时幻觉也可能成为一种特点而非缺陷。在使用 AI 辅助教学时,要引导学生正确对待和利用 AI 生成的内容,培养他们的批判性思维和对历史知识的深入理解。
2024-12-20
如何使用AI进行中学历史教学,详细些
以下是一些使用 AI 进行中学历史教学的方法和案例: 1. 利用 GPT 生成“沉浸式”历史片段游戏,让学生扮演特定角色“设身处地”地做决策,例如模拟明朝灭亡时期在南京的情境。 2. 让学生的作业是找出 GPT 生成内容中的错误,以加深对历史知识的理解和批判性思维。 3. 在历史课中,对于制作展示宏观经济学原理理解的信息图表等任务,可接受 AI 生成的图像。 4. 对于不同的历史情境模拟,可参考详细的提示链接,并根据 Claude 或 ChatGPT 进行定制。 需要注意的是,这些模拟并非完全准确,可能存在错误和幻觉,但有时幻觉也可能成为一种特点而非缺陷。同时,在教学中要引导学生正确看待和利用 AI ,培养他们的批判性思维和对知识的深入理解。
2024-12-20
Ai最新发展成果
以下是 AI 的一些最新发展成果: 医疗领域: ChatGPT 和 Google Bard 等技术极大加速了医疗健康生物制药的研究,AI 在抗癌、抗衰老、早期疾病防治等方面发挥着重要作用。 AI 提前三年诊断胰腺癌。 两名高中生与医疗技术公司合作,发现了与胶质母细胞瘤相关的新靶基因。 AI 帮助抗衰老,筛查出高效的药物候选物。 使用 AI 寻找阿尔兹海默症的治疗方法。 AI 帮助早期诊断帕金森。 应用形态重构: AI Agent 取得突破,为机器人获得自主行动能力指明新方向。 AI 编程工具的进展预示着人机协作模式的变革。 2024 年关键进展时间线: 2 月,OpenAI 发布视频生成模型 Sora,开创 AI 视频生成新纪元。 3 月,Suno 发布 V3 版本,AI 音乐生成进入生产力可用状态。 4 月,Meta 发布高性能开源大模型 Llama3,降低了 AI 技术的准入门槛。 5 月,GPT4 发布,RayBan 与 Meta 合作的智能眼镜销量突破百万,字节上线即梦 AI。 6 月,快手发布可灵。 9 月,OpenAI 发布 o1 预览版。 10 月,Rosetta 和 AlphaFold 算法的研发者因在蛋白质结构设计和预测中的突破性贡献获得诺贝尔化学奖,约翰·霍普菲尔德和杰弗里·辛顿因人工神经网络和深度学习的开创性贡献获诺贝尔物理学奖,Anthropic 大模型 Claude 3.5 Sonnet 获得“computer use”功能。 12 月,OpenAI 发布 o3 系列模型。 基础通识课: 讨论了 AI 模型的基础、最新进展,包括视频生成模型、相关论文,以及 AI 在诺奖和蛋白质研究领域的应用等。 回顾了人工智能的发展历程,从图灵测试到如今大模型和多模态模型百花齐放。 指出大模型由数据、算法、算力构成,算法有技术架构的迭代,数据质量对生成理想的大模型至关重要。 针对弱智 8 的问题对大模型进行测试,开展让大模型回复问题并找出真人回复的活动,且国内大模型的回答能力有很大改进。 早期大语言模型回复缺乏情感,如今有所改进,后续将体验几个大模型的回复场景。
2025-01-03
关于AI大模型的发展介绍
AI 大模型的发展具有重要意义和深远影响: 1. 与传统语音技能的差异:语音技能的 NLU 是通过规则、分词策略等训练而成,运作逻辑可观测,具有 ifelse 式逻辑性;而大模型凭借海量数据在向量空间中学习知识关联性,运作逻辑难以观测,脱离了 ifelse 层面。 2. 带来的变革量级:汪华老师认为此次 AI 变革 100%能达到与移动互联网同级,50%可能发展至与蒸汽机出现同量级,能否到达 AGI 阶段尚不明确。 3. 背景和趋势:随着大模型技术成熟和规模增大,为 AI Agent 提供强大能力,有望构建具备自主思考、决策和执行能力的智能体,广泛应用于多个行业和领域。 4. 整体架构: 基础层:为大模型提供硬件支撑和数据支持,如 A100、数据服务器等。 数据层:包括企业根据自身特性维护的静态知识库和动态三方数据集。 模型层:有 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)和多模态模型(如文生图、图生图等模型,训练数据为图文或声音等多模态数据集)。 平台层:如大模型的评测体系或 langchain 平台等,提供模型与应用间的组成部分。 表现层:即应用层,是用户实际看到的地方。
2024-12-31
2024年《全球人工智能治理研究报告》议题“国家主权原则和人工智能发展”的内容及理解
以下是 2024 年《全球人工智能治理研究报告》中关于“国家主权原则和人工智能发展”的相关内容: 在 2024 年人工智能发展状况的安全与全球治理方面: 英国创建了世界上第一个人工智能安全研究所(AISA),其有三个核心功能:在部署前对高级模型进行评估;建立国家能力并开展研究;协调国际合作伙伴。AISA 还发布了 Inspect 框架用于 LLM 安全评估。英国宣布与美国等效机构签署谅解备忘录,并计划在美国旧金山设立办事处。 英国通过其高级研究与发明机构(ARIA),花费 5900 万英镑开发“守门员”系统,负责了解和减少关键领域中其他人工智能代理的风险。英国政府还计划设立“AI 安全研究实验室”,旨在汇集政府关于敌对国家使用进攻性 AI 的知识。美国能源部利用内部测试床评估人工智能对关键基础设施和能源安全的风险。 在技术和方法方面: 离线直接比对方法不会很快大规模取代 RLHF。谷歌 DeepMind 团队发现 RLHF 在涵盖总结、有用性、对话性等数据集上的测试中胜出,能更有效地改善生成任务。Cohere for AI 探索放弃近端策略优化 RLHF 中的算法,有利于其 RLOO 训练器,可降低 GPU 使用率和提高训练速度。 但 RLHF 存在可能滋生谄媚行为的问题,如 Anthropic 认为 SOTA AI 助手表现出奉承行为是因为人类偏好数据等。开发透明度虽在提高,但仍有很大改进空间。 在安全研究方面: 随着 AI 发展,新功能带来新漏洞,开发人员加大了对“越狱”的研究。OpenAI 提出通过“指令层次结构”修复攻击,Anthropic 表明“警告防御”的潜力,Gray Swan AI 的安全专家试用“断路器”。LLM 测试初创公司 Haize Labs 与 Hugging Face 合作创建首个红队抵抗组织基准。除越狱外,还存在更隐蔽的攻击,潜在攻击面广泛,涵盖从训练到偏好数据和微调等内容。 对于“国家主权原则和人工智能发展”的理解,可能需要综合考虑各国在人工智能安全研究和治理方面的举措,以及技术发展对国家主权可能产生的影响。各国积极建立相关机构和采取措施,表明在人工智能快速发展的背景下,维护国家主权和安全的重要性。同时,技术发展中的问题和挑战也需要各国共同协作应对,以实现人工智能的健康、安全和可持续发展。
2024-12-31
为什么大模型在往智能体的方向发展
大模型之所以往智能体的方向发展,主要有以下原因: 1. 决策模块的需求:决策模块是具身智能系统的核心,早期的决策方式存在局限,大模型的出现极大地增强了具身智能体的智能程度,大幅提高了环境感知、语音交互和任务决策的能力。 2. 能力提升:随着大模型技术的成熟和规模增大,为 AI Agent 提供了强大能力,有望构建具备自主思考、决策和执行能力的智能体,进一步提升应用能力,广泛应用于多个行业和领域。 3. 特点优势:基于大模型的智能体具有强大的学习能力、灵活性和泛化能力,能够适应不同任务和环境,解决新的类似问题。 4. 应用拓展:在多模态的视觉语言模型基础上,具身智能的大模型的发展方向是视觉语言动作模型和视觉语言导航模型,实现从自然语言指令到可执行动作指令的直接转换。
2024-12-30
聊聊ai的发展
AI 的发展历程如下: 1. 智能起源:早期的 AI 更多应用于完成人脸识别等分类判断任务,充满机器感。 2. 生成式 AI 的诞生:在写文章、画画、写歌等方面展现出类似人类的智慧,能力惊人。 3. 发展阶段: 早期阶段(1950s 1960s):专家系统、博弈论、机器学习初步理论。 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理。 统计学习时期(1990s 2000s):机器学习算法(决策树、支持向量机、贝叶斯方法等)。 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等。 4. 当前前沿技术点: 大模型(Large Language Models):GPT、PaLM 等。 多模态 AI:视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 自监督学习:自监督预训练、对比学习、掩码语言模型等。 小样本学习:元学习、一次学习、提示学习等。 可解释 AI:模型可解释性、因果推理、符号推理等。 机器人学:强化学习、运动规划、人机交互等。 量子 AI:量子机器学习、量子神经网络等。 AI 芯片和硬件加速。 对于希望继续精进 AI 的人,可以尝试了解以下基础内容: 1. AI 背景知识: 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。
2024-12-27
聊聊ai的发展
AI 的发展历程如下: 1. 智能起源:早期的其他 AI 更多应用于完成人脸识别等分类判断任务,充满机器感。而生成式 AI 的诞生带来了变革,它能像人一样创作交流,在写文章、画画、写歌等方面展现出人类般的智慧,能力惊人。 2. 发展阶段: 早期阶段(1950s 1960s):专家系统、博弈论、机器学习初步理论。 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理。 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等。 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等。 3. 当前前沿技术点: 大模型(Large Language Models):如 GPT、PaLM 等。 多模态 AI:视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 自监督学习:自监督预训练、对比学习、掩码语言模型等。 小样本学习:元学习、一次学习、提示学习等。 可解释 AI:模型可解释性、因果推理、符号推理等。 机器人学:强化学习、运动规划、人机交互等。 量子 AI:量子机器学习、量子神经网络等。 AI 芯片和硬件加速。 如果希望在 AI 领域继续精进,还可以尝试了解以下基础内容: 1. AI 背景知识: 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。
2024-12-27