直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

详细描述AI大模型历史

回答

AI 大模型的发展具有丰富的历史。

早期阶段,人工智能经历了从图灵测试、早期的图灵机器人和 ELISA,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统等的发展。

随着技术的进步,大模型逐渐兴起。其由数据、算法、算力构成,算法有技术架构的迭代,如英伟达的显卡辅助模型训练,而数据质量对生成理想的大模型至关重要。

近年来,从 2022 年开始掀起了生成式 AI 的革命。生成式 AI 是深度学习中的一个细分流派,相较之前的所有 AI 实现方法,在结果质量和效果上有了根本性、跨时代的进步。在某些细分场景应用中,甚至让人感觉通过了图灵测试。

随着大模型技术愈发成熟、规模增大,为 AI Agent 提供了强大能力,有望构建具备自主思考、决策和执行能力的智能体,广泛应用于多个行业和领域。如今,大模型和多模态模型呈现出百花齐放的态势。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

开发:AI应用大模型商业化落地现状与思考

大家下午好!很荣幸能够作为本次活动的分享嘉宾,我是甲木,LangGPT团队成员,很高兴给大家带来《大模型商业化落地现状与思考》的分享。本次分享的内容主要分为五个模块,从大模型的背景入手、深入探讨其在商业领域的现状和应用。接着,我们将分析在商业化过程中所遇到的挑战,并分享一些实战经验,最后将展望AI作为通用技术能够发挥生产力效能所要经历的几个阶段。[heading2]一、大模型的背景和趋势[content]首先,我们先来看大模型的背景和发展趋势。关于AI的演进历程,很多媒体包括各类研究资料都已经做过详细的介绍,相信今天在座的各位对AI的基本情况都已有所了解,因此我不会过多赘述AI的演进历程。(有兴趣的小伙伴可以多从公开资料中查找一下~)我们的重点将放在大模型当前的应用能力上,随着大模型技术的愈发成熟,规模增大,大模型为AI Agent()提供强大能力。Agent+大模型将有望构建具备自主思考、决策和执行能力的智能体,进一步提升大模型的应用能力,广泛应用于多个行业和领域。

02-基础通识课

AI模型及相关进展:讨论了AI模型的基础、最新进展,包括视频生成模型、相关论文,以及AI在诺奖和蛋白质研究领域的应用等。人工智能的发展历程与大语言模型人工智能发展历程:从图灵测试、早期的图灵机器人和ELISA,到IBM的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统,再到OpenAI发布ChatGPT模型,经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段。大模型的基石:大模型由数据、算法、算力构成,算法有技术架构的迭代,如英伟达的显卡辅助模型训练,而数据的质量对生成理想的大模型至关重要。弱智8相关活动:针对弱智8的问题对大模型进行测试,还开展了让大模型回复问题并找出真人回复的活动,且国内大模型的回答能力有很大改进。大语言模型的特点:早期大语言模型回复缺乏情感,如今有所改进,后续将体验几个大模型的回复场景。

走入AI的世界

如果要将图1中那条起起落落的黄色曲线做更详细的说明,就是图2中展示的信息,这部分内容大家可以根据兴趣选择性阅读了解,要点我已列出,在此不做更多赘述。图2 AI发展经历的三个阶段2022年开始掀起的这一轮AI大模型革命,更准确的来说是生成式AI的革命(生成式AI,Generative artificial intelligence,简称GenAI),图3给出了关于生成式AI的更多技术解释,图片左边的文字可选择性阅读了解,我们更需要将注意力集中在图的右侧,理解这些概念之间的包含关系,即:人工智能是一个大而泛的概念,其中有一个流派叫做“机器学习”,而机器学习中涌现出一个分支,即应用了深度神经网络的机器学习,我们称之为“深度学习”,深度学习中又涌现出一个细分流派,就是这一轮大热的生成式AI。图3什么是生成式AI-1从结果(质量/效果)上看,生成式AI相较之前的所有AI实现方法,有了根本性的,跨时代的进步,做为AI应用的学习者,我建议你在理解这些概念的时候可以粗暴的做这样的划分:生成式AI和其他AI。因为在80年的AI发展史中,AI从未有一刻像现在如此像人,在某些细分场景应用中,我深刻的感受了“他”已经通过了图灵测试,激发起我内心深深的惊叹和敬畏!

其他人在问
请问有没有AI工具可以实现把一个物体生成多个角度
目前有一些 AI 工具可以实现把一个物体生成多个角度。例如,在图像生成方面,像 OpenAI 等机构的相关模型能够生成同一场景的多个角度,包括具有物理上准确的光线,甚至在某些情况下还能生成物理上准确的流体和雨水。 在生成 AI 人物形象时,也可以通过选择不同的拍摄角度来实现。常用的角度包括高角度、低角度和平视角度。 高角度:位于被拍摄对象的上方,适合拍摄俯视角度的场景,可以突出被拍摄对象的大小和高度。 低角度:位于被拍摄对象的下方,适合拍摄仰视角度的场景,可以突出被拍摄对象的高度和威严感。 平视角度:与被拍摄对象在同一高度,适合拍摄平面场景,可以突出被拍摄对象的水平线和平衡感。 此外,人物构图的视角还可以按照相机相对于被拍摄对象的位置,分为正面、背面和侧面等不同方向。 正视角:拍摄对象正对着相机的姿态,使人像呈现出正面的视角。 后视角:从被摄对象的背后拍摄的视角,能营造出神秘或者引人遐想的氛围。
2024-11-05
ai未来发展
AI 的未来发展具有以下几个方面的特点和趋势: 1. 应用场景不断扩展: 自动驾驶:用于开发自动驾驶汽车,提升交通安全性和效率。 交通管理:优化交通信号灯和交通流量,缓解拥堵。 物流和配送:优化物流路线和配送计划,降低运输成本,包括无人机送货到偏远地区。 教育:提供个性化学习体验。 农业:分析农田数据,提高农作物产量和质量。 娱乐:开发虚拟现实和增强现实体验。 能源:优化能源使用,提高能源效率。 2. 资金投入增加:预计 2024 年有团队会花费超过 10 亿美元训练单个大型模型,生成式 AI 的热潮持续且更加“奢华”。 3. 面临计算压力挑战:政府和大型科技公司承受计算需求压力,逼近电网极限。 4. 对选举的潜在影响:虽尚未成真,但需警惕。 5. 为公司赋能:许多公司将 AI 融入工作流程,快速达成 KPI,如 ServiceNow、Palo Alto Networks、Hubspot、Klarna 等公司通过不同方式获益。 6. 未来有望围绕 AI 功能重新设计 UX 和 UI,开发全新用户界面以提供新体验。 总之,AI 领域充满惊喜、伦理挑战和巨大的商业价值,未来将继续突破界限、挑战极限,并可能重新定义一些熟悉的词汇。
2024-11-05
视频导出动作的AI
以下是关于视频导出动作的 AI 相关信息: AI 视频导出方面:普通社交媒体分享选 1080P,需放大选 720P,码率越高越好,可自定义最高 5 万。 Move AI 推出的 Move API 能从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据,相关链接为 https://move.ai/api 。
2024-11-05
有没有关于动捕的AI
以下是关于动捕的 AI 相关信息: Move AI 是由一家成立于 19 年的英国公司推出的产品。它的特点是通过手机拍摄视频画面实现动作捕捉,无需佩戴动捕设备即可获取动作捕捉数据,能够极大降低 3D 动画制作成本。 目前测试版应用还比较简陋,公开可下载的 Move AI 版本目前也不再接受新用户注册,全部功能开放使用应该还需要一定时间。 Move AI 支持多台移动端设备同时录制视频,视频上传到 web 端后进行动作检测,支持导出为 FBX 等格式的文件,并导入 iClone 8、Blend、Maya 等软件中,驱动模型进行动作播放。 目前无法实践测试效果,找了半年前的一个测评案例给大家看下,by JSFILMZ,完整使用过程可见:https://www.youtube.com/watch?v=PDFqN_pvEUE 。 该产品若开放使用,会对电影、游戏 3D 动画制作、虚拟主播直播、影视剧制作等场景会产生深刻影响。未来设计师可能只需要拍摄特定动作并映射到制作好的 3D 模型中,快速制作动画方案。 此外,在游戏创作中,还有一些公司涉足动捕相关的生成式 AI 领域,如 Kinetix、DeepMotion、RADiCAL、Move Ai 和 Plask。
2024-11-05
AI大模型的历史路径
AI 大模型的发展历史路径大致如下: 1. 早期阶段(1950s 1960s):出现专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理得到发展。 3. 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等兴起。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等技术不断发展。 自 2022 年 11 月 30 日 ChatGPT 发布以来,AI 大模型在全球范围内掀起了大规模的人工智能浪潮。国内学术和产业界在过去一年也有了实质性突破,大致分为三个阶段: 1. 准备期:ChatGPT 发布后,国内产学研迅速形成大模型共识。 2. 成长期:国内大模型数量和质量开始逐渐增长。 3. 爆发期:各行各业开源闭源大模型层出不穷,形成百模大战的竞争态势。 随着大模型技术的愈发成熟和规模增大,为 AI Agent 提供了强大能力,有望构建具备自主思考、决策和执行能力的智能体,广泛应用于多个行业和领域。当前 AI 前沿技术点包括大模型(如 GPT、PaLM 等)、多模态 AI、自监督学习、小样本学习、可解释 AI、机器人学、量子 AI 以及 AI 芯片和硬件加速等。
2024-11-05
AI大模型历程
AI 大模型的发展历程如下: 1. 早期阶段(1950s 1960s):包括专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):出现专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等得到发展。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等技术兴起。 自 2022 年 11 月 30 日 ChatGPT 发布以来,国内大模型大致经历了三个阶段:准备期(ChatGPT 发布后国内产学研迅速形成大模型共识)、成长期(国内大模型数量和质量开始逐渐增长)、爆发期(各行各业开源闭源大模型层出不穷,形成百模大战的竞争态势)。 当前,随着大模型技术的愈发成熟和规模增大,为 AI Agent 提供了强大能力,有望构建具备自主思考、决策和执行能力的智能体,并广泛应用于多个行业和领域。当前 AI 的前沿技术点包括:大模型(如 GPT、PaLM 等)、多模态 AI(视觉 语言模型如 CLIP、Stable Diffusion 以及多模态融合)、自监督学习(自监督预训练、对比学习、掩码语言模型等)、小样本学习(元学习、一次学习、提示学习等)、可解释 AI(模型可解释性、因果推理、符号推理等)、机器人学(强化学习、运动规划、人机交互等)、量子 AI(量子机器学习、量子神经网络等)、AI 芯片和硬件加速。
2024-11-05
大模型预测文本
大模型的构建过程通常包括以下步骤: 1. 收集海量数据:如同教孩子成为博学多才的人,让其阅读大量书籍、观看纪录片、与人交谈一样,对于 AI 模型,要收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。 2. 预处理数据:就像为孩子整理学习资料,AI 研究人员需要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、将文本分割成易于处理的片段。 3. 设计模型架构:如同为孩子设计学习计划,研究人员要设计 AI 模型的“大脑”结构,通常是一个复杂的神经网络,比如 Transformer 架构,这种架构擅长处理序列数据如文本。 4. 训练模型:如同孩子开始阅读和学习,AI 模型开始“阅读”提供的数据,反复尝试预测句子中的下一个词,通过不断重复这个过程,逐渐学会理解和生成人类语言。 大模型存在一些问题: 1. 输出结果具有不可预测性,静态的训练数据导致知识存在截止日期,无法即时掌握最新信息,通用的基础大模型无法满足实际业务需求。 2. 知识具有局限性,模型自身的知识源于训练数据,对于实时性、非公开或离线的数据无法获取。 3. 存在幻觉问题,会在没有答案时提供虚假信息、过时或通用的信息,从可信度低非权威来源提供结果等。 4. 数据安全性是企业关注的重点,企业不愿承担数据泄露风险,将私域数据上传第三方平台训练。 而 RAG 是解决上述问题的有效方案,它能让大模型从权威、预先确定的知识来源中检索、组织相关信息,更好地控制生成的文本输出,用户也能深入了解 LLM 生成最终结果的过程。RAG 可与微调结合使用,两者不冲突。RAG 类似于为模型提供教科书,适用于回答特定询问或解决特定信息检索任务,但不适合教模型理解广泛领域或学习新语言、格式或样式。微调类似于让学生内化知识,适用于模型需要复制特定结构、样式或格式的情况。参考资料:《RetrievalAugmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf)
2024-11-05
应急大模型推荐哪个
以下为一些应急大模型的推荐及相关信息: 常用的模型网站有: 不同类型的模型安装位置: 大模型(Ckpt):放入 models\\Stablediffusion VAE 模型:一些大模型需要配合 vae 使用,对应的 vae 同样放置在 models\\Stablediffusion 或 models\\VAE 目录,然后在 webui 的设置栏目选择。 Lora/LoHA/LoCon 模型:放入 extensions\\sdwebuiadditionalnetworks\\models\\lora,也可以在 models/Lora 目录 Embedding 模型:放入 embeddings 目录 不同照片风格对应不同大模型,例如生成真人 AI 小姐姐,可选用 chilloutmix 的大模型。生成真实场景下的字体,可选择 lofi.v2 等大模型。不同的大模型对 ControlNet 模型的控制力有不同的适应度,可能需要微调参数。
2024-11-05
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
智谱清言的开源大模型哪些种类
智谱清言的开源大模型种类包括: 多模态模型: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,具备 GUI 图像的 Agent 能力。代码链接:、始智社区。 CogVLM17B:强大的开源视觉语言模型(VLM),在多模态权威学术榜单上综合成绩优异。代码链接:。 Visualglm6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。代码链接:。 RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。代码链接:。 此外,智谱清言是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。智谱清言在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体来看,智谱清言更擅长专业能力,但在代码能力上还有一定优化空间,知识百科与其他第一梯队模型相比稍显不足。综合来看,智谱清言是一个很有竞争力的大模型。可应用的场景相对广泛,根据 SuperCLUE 测评结果,优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。另外在较复杂推理应用上的效果会比较不错,在广告文案、文学写作方面也是一个很好的选择。
2024-11-04
人工智能发展历史
人工智能的发展历史如下: 起源阶段: 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续的神经网络奠定基础。 1950 年,图灵最早提出图灵测试,作为判别机器是否具备智能的标准。 1956 年,在美国达特茅斯学院,马文·明斯基和约翰·麦凯西等人共同发起召开达特茅斯会议,“人工智能”一词被正式提出,并确立为一门学科。 发展历程: 二十世纪中叶,符号推理流行,带来专家系统等重要进展,但因方法局限性,20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源变便宜,数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中,“人工智能”常被视为“神经网络”的同义词。 早期阶段(1950s 1960s):有专家系统、博弈论、机器学习初步理论。 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理。 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等。 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等。 前沿技术点: 大模型:如 GPT、PaLM 等。 多模态 AI:视觉 语言模型(CLIP、Stable Diffusion)、多模态融合。 自监督学习:自监督预训练、对比学习、掩码语言模型等。 小样本学习:元学习、一次学习、提示学习等。 可解释 AI:模型可解释性、因果推理、符号推理等。 机器人学:强化学习、运动规划、人机交互等。 量子 AI:量子机器学习、量子神经网络等。 AI 芯片和硬件加速。
2024-10-30
能否介绍一下ai的历史
人工智能(Artificial Intelligence)的历史源远流长。 早在 19 世纪,查尔斯·巴贝奇发明了计算机,用于按照明确的程序进行数字运算,现代计算机虽更先进,但仍遵循相同的受控计算理念。 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为神经网络奠定基础。 1950 年,计算机先驱图灵最早提出图灵测试,作为判别机器是否具备智能的标准。 1956 年,在美国达特茅斯学院,马文·明斯基和约翰·麦凯西等人共同发起召开了著名的达特茅斯会议,正式提出“人工智能”一词,并确立其为一门学科。 此后近 70 年,AI 的发展起伏不定,曾两次引发人类对其毁灭世界的恐慌,热度时高时低。 在发展过程中,对于一些任务,如根据照片判断一个人的年龄,由于无法明确解法,无法编写明确程序让计算机完成,这类任务正是 AI 所关注的。 2022 年 11 月 30 日,OpenAI 发布基于 GPT 3.5 的 ChatGPT,引发了全球的 AI 浪潮。
2024-10-27
AI的发展历史
AI 的发展历史如下: 起源追溯到上世纪 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续神经网络奠定基础。 1950 年,计算机先驱图灵最早提出图灵测试,作为判别机器是否具备智能的标准。 1956 年,在美国达特茅斯学院,马文·明斯基和约翰·麦凯西等人共同发起召开达特茅斯会议,“人工智能”一词被正式提出,并作为一门学科确立下来。 此后近 70 年,AI 的发展起起落落,经历了多次起伏。 早期阶段(1950s 1960s):有专家系统、博弈论、机器学习初步理论。 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理。 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等。 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等。 最初符号推理流行,后因应用拓展困难出现“人工智能寒冬”。随着计算资源便宜和数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中,“人工智能”常被用作“神经网络”的同义词。
2024-10-25
AI的历史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但这种方法因从专家提取知识并以计算机可读形式表现的复杂性和高成本,在很多情况下不适用,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 AI 技术的发展历程可概括为: 1. 早期阶段(1950s 1960s):专家系统、博弈论、机器学习初步理论。 2. 知识驱动时期(1970s 1980s):专家系统、知识表示、自动推理。 3. 统计学习时期(1990s 2000s):机器学习算法如决策树、支持向量机、贝叶斯方法等。 4. 深度学习时期(2010s 至今):深度神经网络、卷积神经网络、循环神经网络等。 当前 AI 前沿技术点包括: 1. 大模型:如 GPT、PaLM 等。 2. 多模态 AI:视觉 语言模型如 CLIP、Stable Diffusion 及多模态融合。 3. 自监督学习:自监督预训练、对比学习、掩码语言模型等。 4. 小样本学习:元学习、一次学习、提示学习等。 5. 可解释 AI:模型可解释性、因果推理、符号推理等。 6. 机器人学:强化学习、运动规划、人机交互等。 7. 量子 AI:量子机器学习、量子神经网络等。 8. AI 芯片和硬件加速。 最初,查尔斯·巴贝奇发明计算机,用于按明确程序运算数字。现代计算机虽先进,但仍遵循相同受控计算理念。但有些任务如“根据照片判断一个人的年龄”无法明确编程,因不知具体步骤,这类任务正是 AI 感兴趣的。
2024-10-10
AI的概念以及发展历史
人工智能(Artificial Intelligence,简称 AI)是一门研究如何使计算机表现出智能行为,例如做一些人类所擅长的事情的科学。 AI 的发展历史始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但这种方法因无法实现应用场景大规模拓展,且从专家提取知识并用计算机可读形式表现并保持准确性的任务复杂、成本高,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能。过去十年中,“人工智能”一词常被用作“神经网络”的同义词,因为多数成功案例基于神经网络方法。 例如在创建国际象棋计算机对弈程序时,方法不断变化。最初查尔斯·巴贝奇发明计算机用于按明确程序运算,现代计算机虽更先进但仍遵循相同理念。但像“根据照片判断一个人的年龄”这类任务无法明确编程,因为我们不知大脑完成此任务的具体步骤,而这类任务正是 AI 感兴趣的。
2024-09-29