Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

2025年人工智能大模型的技术提升有哪些,是参数?推理能力?还是语料

Answer

2025 年人工智能大模型的技术提升可能体现在以下几个方面:

  1. 视频生成能力:如 2024 年推出的多个先进的 AI 模型能够从文本输入生成高质量视频,相比 2023 年有显著进步。
  2. 模型规模与性能:更小的模型能驱动更强的性能,如 2022 年最小能在 MMLU 上得分高于 60%的模型是具有 5400 亿参数的 PaLM,到 2024 年,参数仅 38 亿的微软 Phi-3-mini 也能达到相同阈值。
  3. 推理能力:尽管加入了如思维链推理等机制显著提升了大语言模型的性能,但在一些需要逻辑推理的问题上,如算术和规划,尤其在超出训练范围的实例上,这些系统仍存在问题。
  4. AI 代理:在短时间预算设置下,顶级 AI 系统得分高于人类专家,但随着时间预算增加,人类表现会超过 AI。
  5. 算法变革:如 DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构显著提升了算力利用效率,同时 2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能,其训练过程聚焦于强化学习,提升了模型的推理能力。
Content generated by AI large model, please carefully verify (powered by aily)

References

2025 年 AI 指数报告,斯坦福.pdf

1.7.High-quality AI video generators demonstrate significant improvement.In 2024,several advanced AI models capable of generating high-quality videos from text inputs were launched.Notable releases include OpenAI’s SORA,Stable Video 3D and 4D,Meta’s Movie Gen,and Google DeepMind’s Veo 2.These models produce videos of significantly higher quality compared to those from 2023.2.8.Smaller models drive stronger performance.In 2022,the smallest model registering a score higher than 60% on MMLU was PaLM,with 540 billion parameters.By 2024,Microsoft’s Phi-3-mini,with just 3.8 billion parameters,achieved the same threshold.This represents a 142-fold reduction in over two years.3.9.Complex reasoning remains a problem.Even though the addition of mechanisms such as chain-of-thought reasoning has significantly improved the performance of LLMs,these systems still cannot reliably solve problems for which provably correct solutions can be found using logical reasoning,such as arithmetic and planning,especially on instances larger than those they were trained on.This has a significant impact on the trustworthiness of these systems and their suitability in high-risk applications.4.10.AI agents show early promise.The launch of RE-Bench in 2024 introduced a rigorous benchmark for evaluating complex tasks forAI agents.In short time-horizon settings(two-hour budget),topAI systems score four times higher than human experts,but as the time budget increases,human performance surpasses AI—outscoring it two to one at 32 hours.AI agents already match human expertise in select tasks,such as writing Triton kernels,while delivering results faster and at lower costs.Chapter 2 PreviewTable of Contents86Artificial Intelligence Index Report 20252.1 Overview of AI in 2024 Chapter 2:Technical PerformanceThe Technical Performance chapter begins with a highlevel overview of significant model releases in 2024 and reviews the current state of AI technical performance.2.1 Overview of AI in 2024

4.5 历史更新

《[AI「视觉图灵」时代来了!字节OmniHuman,一张图配上音频,就能直接生成视频](https://mp.weixin.qq.com/s/0OYlkcxoFvx6Z9IN-aq90w)》字节跳动推出的新技术OmniHuman,利用单张图片和音频生成生动的视频,突破了传统技术的局限。它通过多模态混合训练,解决了高质量数据稀缺的问题,实现了对任意尺寸图像的支持,生成自然的人物运动。《[甲子光年:2025 DeepSeek开启AI算法变革元年](https://waytoagi.feishu.cn/record/S5Jtrlw9neyXMccQ6CAcZsxHnXu)》DeepSeek的出现标志着算力效率拐点显现,其通过优化算法架构,显著提升了算力利用效率,打破了算力至上的传统认知。同时,AI基础大模型的参数量迎来拐点,2025年发布的大模型呈现低参数量特征,为本地化部署到AI终端运行提供了可能。此外,报告强调2025年是算法变革的元年,DeepSeek的推理模型开启了算法变革,其训练过程聚焦于强化学习,提升了模型的推理能力。《[R1之后,提示词技巧的变与不变](https://mp.weixin.qq.com/s/-51tjTWRdi19sEBCQMe1sw)》在R1时代,使用AI提示词的关键在于提供足够的背景信息,而非复杂的结构。简单大白话仍然有效,但信息量不足则难以得到理想结果。示例和框架可帮助理清思路,但最终影响在于你的思考和表达。利用乔哈里视窗分析信息需求,避免过度指令化,让AI自由思考,从而激发更高的创意和效果。“有用的不是技巧,而是你的思考!”

2025 年 AI 指数报告,斯坦福.pdf

100M1M10K100Artificial IntelligenceIndex Report 2025models.Parameter counts have risen sharply since the early 2010s,reflecting the growing complexity of their architecture,greater availability of data,improvements in hardware,and proven efficacy of larger models.High-parameter models are particularly notable in the industry sector,underscoring the substantial financial resources available to industry to cover the computational costs of training on vast volumes of data.Several of the figures below use a log scale to reflect the exponential growth in AI model parameters and compute in recent years.Industry–academiaGovernmentResearch collective2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 2017 2018 2019 2020 2021 2022 2023 2024Publication dateFigure 1.3.11Table of ContentsChapter 1 Preview52Artificial Intelligence1.3 Notable AI Models Chapter 1:Research and DevelopmentIndex Report 2025DeepSeek-V3Qwen2.5-72BMistral Large 2Llama 2-70BPaLM(540B)Megatron-Turing NLG 530BGPT-3 175B(davinci)BERT-LargeTransformerERNIE 3.0 TitanRoBERTa Large1B10B100B1TAcademia Industry Industry–academiaNumber of parameters of select notable AI models by sector,2012–24Source:Epoch AI,2025|Chart:2025 AI Index report100M

Others are asking
AI 分为哪些层?如:语料,大模型
AI 可以分为以下几个层面: 1. 概念层面: AI 即人工智能。 生成式 AI 生成的内容称为 AIGC。 2. 学习方式层面: 机器学习,包括监督学习(有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归)、无监督学习(学习的数据没有标签,算法自主发现规律,经典任务如聚类)、强化学习(从反馈里学习,最大化奖励或最小化损失,类似训小狗)。 3. 技术方法层面: 深度学习,参照人脑有神经网络和神经元(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 即大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类。 4. 技术里程碑层面:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,无需依赖循环神经网络(RNN)或卷积神经网络(CNN)。
2025-03-30
怎么快速生产训练语料
以下是快速生产训练语料的一些方法: 1. 在 LORA 模型训练中: 首先在脚本的 LoraTraining 目录下新建训练文件夹命名为 train。 如果需要训练多个概念,就在(input_角色名称)下面再新建一个文件夹,命名写(训练次数_角色名称_泳装)进行文件夹区分。 在脚本根目录下面建立一个训练文件夹(train),在(train)文件夹内建立一个概念文件夹和一个正则化文件夹(reg,不需要正则化可不建立),在概念文件夹内建立训练素材文件夹(训练素材文件夹前面的需要加“_”你想训练的次数)之后将训练素材放置进去即可。 正则化素材方面,正则化在深度学习中指的是给模型加一些规则和约束,限制要优化的参数有效防止过拟合。假设在训练集里面放入了一个泳装角色的训练素材,那么为了防止过拟合的问题,在正则化文件夹内放入一些同样是泳装的图片素材。正则化素材注意不要过多,不然机器会过多的学习到里面的素材导致跟训练目标角色不一致。 2. 对于神经网络大模型: 大模型生成文字的过程,是根据输入的文字,预测下一个字。通过一次又一次反复的调用同一个神经网络模型,一个一个字的往后续写,直到输出结束符号为止。 大模型的输出并不是一个字,而是所有字都输出一个概率。可以选择最高概率的或者第二高的汉字作为输出结果,也可以从前几名当中随机挑选。 可以将任何网络上的文本直接当作训练素材来训练神经网络模型。把任意一段文字的前几个字作为输入,而下一个字作为答案用做训练素材,从而方便地得到大量的训练素材。 3. 在雅思口语备考中: 如果时间充裕,建议把每个 topic 的问题喂给 GPT,让它一道道问您,您回答,然后转成文本查看发音问题。 让 GPT 对您的内容执行 correct 或者 another native answer 两个指令。前者可以基于您的内容做修正,后者是在自己完全没思路时让它给出答案。 对语料进行分类归纳,如按照教育、工作、购物、科技、消费分成几大类,再弄吃、环保、交通、历史等专题,挑最不熟悉、现场水不出来的准备。考前 1 小时,再顺一遍语料,多看两眼关键表达。
2025-03-14
有没有一种小模型,语料只是一个知识库,超出范围的无法回答?
以下是关于您问题的回答: 在医疗领域,存在一种智能体,其在提示词中约定回答只能来自于知识库。例如生物医药小助手,为了避免在医疗这个严肃领域出现误导性的回答,其回答被限制在特定的知识库范围内,可能存在问题超出知识库范畴的情况,但尚未发现有医学上不严谨的回答现象。 同时,模型存在一定的局限性。在训练过程中,模型虽接触大量知识,但未完美记忆且不清楚知识边界,可能尝试回答深奥话题并虚构不正确内容,产生幻觉。例如要求模型描述虚构的牙刷产品时,会给出逼真但虚构的描述。在构建应用程序时,可使用一些技术避免这种情况,如要求模型先从文本中找相关引文,再用引文回答问题并追溯源文件,以减少幻觉的发生。 另外,“小模型”在特定任务上表现出色,如专门识别猫或狗的模型,但无法用于其他任务。而“大模型”像多功能基础平台,能处理多种任务,应用范围广泛且有更多通识知识,但大模型的知识来源于有限的训练数据,不能拥有无限知识,且知识库不会自动更新,在某些特定或专业领域知识可能不够全面。
2025-03-05
语料库训练相关文档
以下是为您提供的语料库训练相关文档: 中文数据集 |ID|标题|更新日期|数据集提供者|许可|说明|关键字|类别|论文地址|备注| ||||||||||| |6||2020 年|CLUE||CLUENER2020 数据集,是在清华大学开源的文本分类数据集 THUCTC 基础上,选出部分数据进行细粒度命名实体标注,原数据来源于 Sina News RSS。数据包含 10 个标签类别,训练集共有 10748 条语料,验证集共有 1343 条语料|细粒度;CULE|命名实体识别|\\|中文| |7||英文| |8||||EMNLP2015|命名实体识别||| |9||2005 年|MSR/PKU|||bakeoff2005|命名实体识别||| TTS 超全教程 音库制作和文本前端 音库制作 音频录制 音频的录制对合成语音的表现较为重要,较差的语音甚至会导致端到端声学模型无法正常收敛。用于训练的录音至少要保证录音环境和设备始终保持一致,无混响、背景噪音;原始录音不可截幅;如果希望合成出来的语音干净,则要删除含口水音、呼吸音、杂音、模糊等,但对于目前的端到端合成模型,有时会学习到在合适的位置合成呼吸音、口水音,反而会增加语音自然度。录音尽可能不要事先处理,语速的调节尚可,但调节音效等有时会造成奇怪的问题,甚至导致声学模型无法收敛。音频的录制可以参考录音公司的标准,购买专业麦克风,并保持录音环境安静即可。在音库录制过程中,可尽早提前尝试声学模型,比如音库录制 2 个小时语音后,就可尝试训练基线语音合成系统,以防止录音不符合最终的需求。 语料整理 检查文本和录制的语音是否一一对应,录制的音频本身一句话是否能量渐弱,参与训练的语音前后静音段要保持一致,能量要进行规范化。可使用预训练的语音活动检测(Voice Activity Detection,VAD)工具,或者直接根据语音起止的电平值确定前后静音段。可以使用一些开源的工具,比如统一所有语音的整体能量,这将有助于声学模型的收敛。当然,在声学模型模型训练时,首先就要对所有语料计算均值方差,进行统一的规范化,但是这里最好实现统一能量水平,防止一句话前后能量不一致。能量规整的示例代码如下。
2025-01-02
怎么投喂语料库给ai
以下是关于投喂语料库给 AI 的一些方法和步骤: 在音乐学习方面: 1. 步骤 3:把 Midi 导出到 MP3 虚拟演奏文件。可以直接导总谱,也可以分轨导出(适用于不同乐器组合)。由于制谱软件有很重的 midi 味,有时需要调整乐器音色。320kbit 码率是各大音乐平台的门槛,而向 Suno 导出的是 192k 的,后期如果想输出到 QQ 音乐之类,需要转个码。导出以后就可以喂给 AI 了。修改音色这一步不是必须,也有很多染色的软件可以用,比如用 Neutron4 从 Youtube 上面下载一些自己喜欢的乐器音色(比如雅马哈大钢琴),然后用宿主软件打开插件,导入这段音频,就可以实现渲染。 2. 步骤 4:丢给 AI 做二次创作。比较喜欢丢完整的小节给 AI,这样节奏的识别性更好,当然也可以在中间掐断,AI 的识别能力还是不错的。接下来就是细化去 roll 后面的部分,大家可以自由发挥。 在 OpenAI 方面: 如果作为输入的一部分提供,模型可以利用外部信息源。这可以帮助模型生成更明智和最新的响应。例如,如果用户询问有关特定电影的问题,将有关电影的高质量信息(例如演员、导演等)添加到模型的输入中可能会很有用。嵌入可用于实现高效的知识检索,以便在运行时将相关信息动态添加到模型输入中。文本嵌入是一个向量,可以衡量文本字符串之间的相关性。相似或相关的字符串将比不相关的字符串靠得更近。这一事实以及快速向量搜索算法的存在意味着嵌入可用于实现高效的知识检索。特别是,一个文本语料库可以被分割成块,每个块都可以被嵌入和存储。然后,给定的查询可以被嵌入,可以进行向量搜索,以找到与查询最相关的语料库的嵌入文本块(即,在嵌入空间中最接近的)。可以在中找到示例实现。有关如何使用知识检索来最小化模型编造错误事实的可能性的示例,请参阅策略“指示模型使用检索到的知识来回答查询”。
2024-12-30
大模型中的参数和语料是什么意思
大模型中的参数和语料含义如下: 语料:大模型通过输入大量的语料来学习,从而获得类似人类的“思考”能力,能够进行诸如文本生成、推理问答、对话、文档摘要等工作。这些语料通常来自互联网,包括论文、代码、公开网页等,数据量巨大,一般以 TB 级别计。 参数:大模型的参数数量非常多,例如 OpenAI 在 2020 年发布的 GPT3 就已经达到 170B 的参数。参数规模的大小对模型的性能和表现有重要影响。 在大模型的训练和使用过程中,可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有有资本购买大量 GPU 的才有能力训练自己的大模型。 2. 确定教材:大模型需要大量的数据量,几千亿序列(Token)的输入基本是标配。 3. 找老师:即采用合适的算法让大模型更好地理解 Token 之间的关系。 4. 就业指导:为了让大模型更好地胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行诸如翻译、问答等工作,在大模型里称之为推导(infer)。 大模型的发展历程起源于 2017 年发布的 Attention Is All You Need 论文,之后基于大量语料的预训练模型百花齐放,如 BERT(参数规模:110M 到 340M)、GPT(参数规模:1750 亿)、LLAMA(参数规模:十亿到千亿)等。 大模型的架构包括 encoderonly、encoderdecoder 和 decoderonly 三种,目前常见的 AI 助手基本采用 decoderonly 架构。
2024-08-10
2025年4月以来有什么突破性的ai技术?
以下是 2025 年 4 月以来的一些突破性 AI 技术及相关进展: 在图片和超短视频的精细操控方面,包括表情、细致动作以及视频与文字的匹配有了新的突破。 有一定操控能力的生成式短视频在风格化和动漫风方面最先成熟,真人风格稍晚。 AI 音频能力有长足进展,带感情的 AI 配音基本成熟。 “全真 AI 颜值网红”出现,可以稳定输出视频并直播带货。 游戏 AI NPC 有里程碑式进展,出现新的游戏生产方式。 AI 男/女朋友聊天基本成熟,在记忆方面有明显突破,能较好模拟人的感情,产品加入视频音频,粘性提升并开始出圈。 实时生成的内容开始在社交媒体内容、广告中出现。 AI Agent 有明确进展,办公场景“AI 助手”开始有良好使用体验。 2025 年 4 月的具体进展包括: 真格基金的戴雨森认为,AI 时代即将迎来各行业的“李世石时刻”。OpenAI 的 o1 和 DeepSeek 的 R1 模型分别在后训练和开源创新方面展现了强大潜力,推动了强化学习的应用。 马斯克在最新演讲中警告 AI 可能只是为取悦企业而非追求真相,并强调教育中 AI 的个性化应用将深远影响学习。他预测特斯拉 Robotaxi 将在 6 月实现完全自动驾驶,同时期待神经连接技术能帮助失明者重见光明。 此外,《人工智能指数报告 2025》(AI Index Report 2025)由斯坦福大学人工智能研究院(HAI)发布,报告涵盖了 AI 在技术性能、经济影响、政策治理、教育、公众舆论、科学与医学等多个维度的最新进展。关键发现包括:AI 技术性能持续突破,在新设立的高难度基准测试上表现大幅提升;AI 日益融入日常生活,如 FDA 批准的 AI 医疗设备增多,自动驾驶服务扩展;企业全面拥抱 AI,美国私营 AI 投资增加,使用 AI 的企业比例上升;中美 AI 竞争加剧,美国主导 AI 模型数量,中国模型在质量上迅速追赶;负责任 AI(RAI)发展不均。报告地址:https://hai.stanford.edu/aiindex/2025aiindexreport 。
2025-04-13
2025年AI研究报告
以下是为您提供的 2025 年 AI 研究报告相关信息: Gartner:《生成式 AI 时代下科技产品的重要发展机遇》(2024/10/16) 强调了生成式 AI 技术对对话式 AI 和科技产品创新的显著影响。 预计到 2025 年,生成式 AI 将嵌入 80%的对话式 AI 产品中,推动市场营收大幅增长。 建议技术供应商积极把握机遇,通过理解市场动态、技术成熟度和市场接受度来调整策略。 生成式 AI 的四大关键能力—对话式 AI、AI 代理、合成数据和个性化—能够提升产品价值和客户体验。 提出了将生成式 AI 功能添加到产品中的四个关键步骤,并强调了独立软件供应商在企业应用中嵌入生成式 AI 能力的趋势。 如需下载研究报告,。 甲子光年:2025 DeepSeek 开启 AI 算法变革元年(2025/02/05) DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构,显著提升了算力利用效率,打破了算力至上的传统认知。 2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能。 报告强调 2025 年是算法变革的元年,DeepSeek 的推理模型开启了算法变革,其训练过程聚焦于强化学习,提升了模型的推理能力。 非 Transformer 架构的算法模型成为新的发展方向,如 LFM 架构模型性能超越同等规模的 Transformer 模型。 如需下载研究报告,。 安永:数据+AI 开启经验规模化复制时代(2023/12/19) 人工智能正在经历新的发展浪潮。 某头部公司正在转向 AI Agents 支持平台,结合第 4 代人工智能模型与专业语料库以实现业务创新。 AI Agents 有望为商业领域注入新活力,展示人工智能的潜力和商业价值。 随着平台的发展,新的 AI Agents 涌现,提供专业化、高端化、个性化、规模化、持续化的服务。 人工智能的革新涵盖了生成内容(AIGC)和生成服务(AIGS)的领域。 保险行业面临挑战,AI 的突破为其带来新的应对方向。 知识星球下载: 弘则研究:2023 生成式 AI 驱动向量数据库加速发展(2023/12/18) 向量数据库潜在市场空间是传统结构化关系型数据库的数倍达到千亿美元。 据信通院统计数据,全球数据库市场规模在 2020 年为 671 亿美元,到 2025 年有望达到 798 亿美元,CAGR 3.5%估算关系型数据库全球龙头 Oracle 收入规模小几百亿美元。 仅考虑现有非结构化数据的向量化处理,估算需要的存储空间增量为之前的数倍。 未来随着生成式 AI 应用增量数据的爆发对于向量数据库的需求会更大。 报告下载地址:
2025-04-09
有哪些完整综观地阐述了2022年到2025年AIGC相关技术和在设计领域的应用发展的研究报告
以下是为您找到的一些可能符合您需求的研究报告: 1. 月狐数据联合发布的《AI 产业全景洞察报告 2025》,深入分析了全球及中国人工智能产业的发展现状、全景图谱及企业出海情况。指出全球 AI 产业保持 19.1%的年均增长率,2024 年第三季度交易数量达 1245 笔,融资规模显著提升。美国在 AI 领域融资和应用市场中占据主导地位,中国紧随其后,2024 年一季度大模型规模占全球的 36%。国内 AI 企业出海呈现增长趋势,工具类和图像处理类应用在海外市场受欢迎,但东南亚和东亚地区付费习惯尚未形成。还展示了 AI 在各行业的应用现状,包括智慧医疗、智慧教育、企业服务等,强调了 AIGC 技术在提升用户体验和推动产业发展中的关键作用。链接:https://waytoagi.feishu.cn/record/DFqRrh4kqeqaIFchKtocVwVkn2d 2. 甲子光年的《2025 具身智能行业发展研究报告:具身智能技术发展与行业应用简析》,指出具身智能作为具备物理载体的智能体,强调通过与环境的交互实现智能行为,是人工智能与机器人技术的深度融合。当前,具身智能正处于技术萌芽期,受大模型技术推动成为热点,但在数据采集、模型泛化、技术路线等方面仍面临挑战。报告分析了具身智能的发展背景、现状及应用场景,认为中国在具身智能领域已走在国际前列,具备庞大的市场需求、完善的产业集群和良好的政策支持。链接:https://waytoagi.feishu.cn/record/TERPru4Jee7Gzbcu54WcUjsXnJh 3. 智能纪要:【跨界·未来】AIGC×视觉交互工作坊 Part1:AI 应用前瞻 2025 年 3 月 11 日。涵盖了 AI 在艺术创作中的应用与探索,包括 Lora 模型训练素材、模型训练比赛、Checkpoint 模型、线上与本地工作流、学习资源推荐、AI 创作挑战、装置艺术脉络、机械装置艺术理论、国内外装置艺术区别、AIGC 艺术尝试、机械进化与装置创作等方面。
2025-03-31
有哪些完整综观地阐述了2022年到2025年AIGC相关技术和应用发展的研究报告
以下是一些完整综观地阐述了 2022 年到 2025 年 AIGC 相关技术和应用发展的研究报告: 1. 月狐数据联合发布的《AI 产业全景洞察报告 2025》,深入分析了全球及中国人工智能产业的发展现状、全景图谱及企业出海情况。指出全球 AI 产业保持 19.1%的年均增长率,2024 年第三季度交易数量达 1245 笔,融资规模显著提升。美国在 AI 领域融资和应用市场中占据主导地位,中国紧随其后,2024 年一季度大模型规模占全球的 36%。国内 AI 企业出海呈现增长趋势,工具类和图像处理类应用在海外市场受欢迎,但东南亚和东亚地区付费习惯尚未形成。还展示了 AI 在各行业的应用现状,强调了 AIGC 技术在提升用户体验和推动产业发展中的关键作用。链接:https://waytoagi.feishu.cn/record/DFqRrh4kqeqaIFchKtocVwVkn2d 2. 甲子光年的《2025 具身智能行业发展研究报告:具身智能技术发展与行业应用简析》,指出具身智能作为具备物理载体的智能体,强调通过与环境的交互实现智能行为,是人工智能与机器人技术的深度融合。当前,具身智能正处于技术萌芽期,受大模型技术推动成为热点,但在数据采集、模型泛化、技术路线等方面仍面临挑战。分析了具身智能的发展背景、现状及应用场景,认为中国在具身智能领域已走在国际前列,具备庞大的市场需求、完善的产业集群和良好的政策支持。链接:https://waytoagi.feishu.cn/record/TERPru4Jee7Gzbcu54WcUjsXnJh 3. Celent 的《利用 AI 在支付领域的优势》,讨论了生成式人工智能的潜力和银行业对此的积极探索,并预测 AI 将在提高支付处理效率和创造新的收入流方面发挥关键作用。链接:https://waytoagi.feishu.cn/record/Cwtnr6KSIeL8JDcmljZcc55onPx 4. 华西证券的 AIGC 行业深度报告(14):《从英伟达到华为,零部件迎来大机遇》,英伟达的新一代 GPU 架构将带来零部件的升级,同时,华为的昇腾 910C 芯片和 Atlas 900 SuperCluster 展示了国产算力集群的潜力。链接:https://waytoagi.feishu.cn/record/UXR3rwzGSe92xLcLqFmcRpnhnUc 5. 《2024 端到端自动驾驶行业研究报告》,通过访谈 30 余位专家,分析了端到端技术的发展、主要参与者、驱动力和挑战。预计到 2025 年,模块化端到端系统将开始商业化应用,推动技术、市场和产业格局的变革。链接:https://waytoagi.feishu.cn/record/QBnRra7VfexdazctR1Acc5YGn6d 6. 微软的《释放英国的 AI 潜力:利用 AI 促进经济增长》,英国拥有先进的科技行业和数字优势,但与其他国家相比领先优势有限,英国面临基础设施、数字技能和数字技术采用的瓶颈。链接:https://waytoagi.feishu.cn/record/K1bfraBc7eMFvOc1T21cto8rnhh
2025-03-31
2025年3月27日AI新闻
以下是 2025 年 3 月 27 日的部分 AI 新闻: 《详解 MCP:Agentic AI 中间层最优解,AI 应用的标准化革命》:Anthropic 推出的开放协议 MCP 迅速垄断了 Agentic AI 的中间层,类似于 AI 应用的 USBC 端口。它简化了开发者与数据源的整合,促进了生态形成,可能成为“Agentic AI 领域的 Stripe”,为未来 AI 应用的标准化革命奠定基础。 《对谈|如何用 AI 增强人类学习》:Howie.Serious 与 Indigo 探讨了费曼学习法与 AI 创作的结合,强调输出能迫使知识内化。两位终身学习者分享了如何通过高效利用 AI 提升写作与学习,推动思维深度,指出未来的 AI Agent 应具备更强的自动化整合能力,助力人类保持独特价值与创造力。 《硅谷知名风投 BVP 专栏:消费级 AI 的临界点将至!》:消费级 AI 正迎来临界点,推动一波又一波的变革。随着基础模型成本降低和多模态技术进步,新的消费类 AI 公司不断涌现。未来,AI 将重塑旅行、购物和社交体验,提升个性化服务的准确性与便利性。 此外,2 月 27 日的相关新闻有:小红书 AI 赛道从 0 到 1 做 IP 的相关活动预告、工具分享及日更群计划。3 月 5 日的新闻包括:2025 开年 3 个月 AI 已经狂飙,更新密集发布;Grok 语音模式全面开放,支持 11 种模式(包括 2 种 18 禁),自带语音字幕,目前仅支持英文。
2025-03-27
作为储能行业的软件平台产品经理,如何将AI融入产品中;当今世界(2025年3月27日),AI会对传统行业的平台软件产品产生哪些影响
在当今世界(2025 年 3 月 27 日),AI 对传统行业的平台软件产品产生了多方面的影响。例如,在储能行业,大模型训练与推理对电力需求剧增,尤其需要稳定、低成本的大规模供电,这使得调度与储能变得关键。同时,AI 时代对能源低成本与稳定性的需求极其旺盛,核能(尤其小堆)及储能、电动车电池都将持续发展。 对于储能行业的软件平台产品经理,将 AI 融入产品可以从以下几个方面考虑: 1. 利用 AI 进行电力需求预测和优化调度,以提高供电的稳定性和效率。 2. 借助 AI 技术对储能系统进行智能管理和优化,降低电池成本。 3. 通过 AI 分析用户行为和需求,为用户提供个性化的能源管理方案。 4. 利用 AI 监测和诊断储能设备的运行状态,提前预警故障,提高系统的可靠性。
2025-03-27
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
人工智能软件现在有哪些
以下是一些常见的人工智能软件: 1. 在自然语言处理和神经科学应用方面,大型语言模型取得了进展,拥有更先进的工具用于解码大脑状态和分析复杂脑部活动。 2. 在艺术创作领域,有涉及知识产权保护的相关软件,如软件工程师在设计时应确保生成内容合法合规、注重用户知识产权保护等。创作者使用此类软件时,应了解自身权利并做好保护。 3. 在线 TTS 工具方面,如 Eleven Labs(https://elevenlabs.io/)、Speechify(https://speechify.com/)、Azure AI Speech Studio(https://speech.microsoft.com/portal)、Voicemaker(https://voicemaker.in/)等。这些工具可将文本转换为语音,具有不同的特点和适用场景。但请注意,相关内容由 AI 大模型生成,请仔细甄别。
2025-04-15
什么是通用人工智能
通用人工智能(AGI)是指具有人类水平的智能和理解能力的 AI 系统。它有能力完成任何人类可以完成的智力任务,适用于不同的领域,同时拥有某种形式的意识或自我意识。 目前 AGI 还只是一个理论概念,没有任何 AI 系统能达到这种通用智能水平。 OpenAI 在其内部会议上分享了 AGI 的五个发展等级: 1. 聊天机器人(Chatbots):具备基本对话能力的 AI,主要依赖预设脚本和关键词匹配,用于客户服务和简单查询响应。 2. 推理者(Reasoners):具备人类推理水平的 AI,能够解决复杂问题,如 ChatGPT,能够根据上下文和文件提供详细分析和意见。 3. 智能体(Agents):不仅具备推理能力,还能执行全自动化业务的 AI。目前许多 AI Agent 产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。 4. 创新者(Innovators):能够协助人类完成新发明的 AI,如谷歌 DeepMind 的 AlphaFold 模型,可以预测蛋白质结构,加速科学研究和新药发现。 5. 组织(Organizations):最高级别的 AI,能够自动执行组织的全部业务流程,如规划、执行、反馈、迭代、资源分配和管理等。 常见名词解释: AGI:通用人工智能(Artificial General Intelligence)能够像人类一样思考、学习和执行多种任务的人工智能系统。 NLP:自然语言处理(Natural Language Processing),就是说人话。 LLM:大型语言模型(Large Language Model),数据规模很大,没钱搞不出来,大烧钱模型。
2025-04-15
用通俗易懂的动画描述人工智能工作原理
人工智能的工作原理可以通过以下动画来描述: 在一个动画场景中,首先有一个传统工作流的部分,就像精心搭建的积木城堡,每一块积木的位置和形状都被精确设计和控制,这代表着传统工作流的可控性和高成本、慢速度。 然后是 AI 工作流的部分。想象一下,有一团混乱的色彩在飞舞,这团色彩代表着随机和不可控。但在这混乱中,有一种力量在尝试引导和塑造,就像在狂风中努力抓住风筝线一样,这就是在随机性中寻找可控性。 比如在一个生成音频与视频同步的例子中,动画展示了一个系统。首先,系统将视频输入编码成压缩的表示形式,就像把一大包东西压缩成一个小包裹。然后,扩散模型从随机噪声中不断改进音频,就像在混沌中逐渐塑造出清晰的声音。这个过程受到视觉输入和自然语言提示的引导,最终生成与提示紧密配合的同步逼真音频。最后,音频输出被解码,变成音频波形,并与视频数据完美结合。 总的来说,传统工作流在可控中寻找创新的随机,而 AI 工作流更多是在随机中寻找可控,两者各有优劣,结合起来能创造出更出色的成果。
2025-04-14
人工智能简史
人工智能作为一个领域始于二十世纪中叶。最初,符号推理流行,带来了如专家系统等重要进展,但因方法无法大规模拓展应用场景,且从专家提取知识并以计算机可读形式表现及保持知识库准确的任务复杂、成本高,导致 20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源变便宜,数据增多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能。过去十年中,“人工智能”常被视为“神经网络”的同义词,因多数成功案例基于神经网络方法。 以下是人工智能发展历程中的一些重要节点: 1969 年:经历低潮。Marvin Minsky 和 Seymour Papert 阐述因硬件限制,几层的神经网络仅能执行基本计算,AI 领域迎来第一次泡沫破灭。 1960 1970 年代:早期专家系统。此时期 AI 研究集中在符号主义,以逻辑推理为中心,主要是基于规则的系统,如早期专家系统。 1980 年代:神经网络。基于规则的系统弊端显现,人工智能研究关注机器学习,神经网络根据人脑结构和操作创建和建模。 1997 年:深蓝赢得国际象棋比赛。IBM 深蓝战胜国际象棋冠军卡斯帕罗夫,新的基于概率推论思路广泛应用于 AI 领域。 1990 2000 年代:机器学习。AI 研究在机器人技术、计算机视觉和自然语言处理等领域取得显著进展,21 世纪初深度学习出现使语音识别、图像识别和自然语言处理进步成为可能。 2012 年:深度学习兴起。Geoffrey Hinton 开创相关领域,发表开创性论文引入反向传播概念,突破感知器局限。 2012 年:AlexNet 赢得 ImageNet 挑战赛。引发深度学习热潮。 2016 年:AlphaGo 战胜围棋世界冠军。DeepMind 的 AlphaGo 战胜李世石,标志着人工智能在围棋领域超越人类,对人类理解产生深远影响。
2025-04-10
随着 ChatGPT、Deepseek 等 AI 技术的爆发式发展,人工智能正在加速渗透各行业应用场景,包括茶饮行业。请你对 AI 技术在茶饮行业的影响进行研究分析,并提出 AI 技术可以在连锁奶茶店如何应用的设想。
以下是关于 AI 技术在茶饮行业的影响分析及在连锁奶茶店应用的设想: 影响分析: 1. 提升运营效率:通过自动化流程和智能预测,优化库存管理、员工排班等环节。 2. 改善客户体验:利用智能客服快速响应顾客咨询,提供个性化推荐。 3. 精准营销:基于大数据分析顾客偏好,制定更有针对性的营销策略。 应用设想: 1. 智能点单系统:根据顾客的历史订单和偏好,为其推荐饮品和搭配。 2. 库存管理优化:借助 AI 预测销售趋势,精准控制原材料库存。 3. 员工培训辅助:利用虚拟培训工具,提升员工的服务技能和产品知识。 4. 营销决策支持:通过数据分析,确定最佳的促销活动和推广渠道。 目前的知识库中,相关的具体研究报告主要有: 1. 浙江大学:《DeepSeek 技术溯源及前沿探索朱强》(2025/03/19),介绍了语言模型从基于统计的 Ngram 到 Transformer 的技术演化,以及大模型的发展,如 GPT 系列。 2. 浙江大学:《DeepSeek:回望 AI 三大主义与加强通识教育报告》(2025/03/05),围绕人工智能展开,介绍其发展历程、三大主义、技术进展、应用成果以及教育举措。 3. 清华大学:《气象人工智能技术与应用报告》(2024/12/25),围绕气象人工智能展开,介绍了其发展和应用情况。 如需下载这些研究报告,可。
2025-04-09
知识表示与推理发展过程中有哪些里程碑式的技术
在知识表示与推理的发展过程中,具有以下里程碑式的技术: 1. 知识图谱: 于 2012 年 5 月 17 日由 Google 正式提出,旨在提高搜索引擎能力,增强用户搜索质量和体验。 关键技术包括知识抽取(实体抽取、关系抽取、属性抽取)、知识表示(属性图、三元组)、知识融合(实体对齐、知识加工、本体构建、质量评估、知识更新)、知识推理。 2. Symbolic Agent: 时间:20 世纪 50 70 年代。 特点:基于逻辑和规则系统,使用符号来表示知识,通过符号操作进行推理。 技术:基于规则的系统、专家系统,如 MYCIN、XCON 等。 优点:明确的推理过程,可解释性强。 缺点:知识获取困难,缺乏常识,难以处理模糊性。
2025-03-27
以DeepSeek R1为代表的推理模型,与此前模型(如 ChatGPT-4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于
以 DeepSeek R1 为代表的推理模型与此前模型(如 ChatGPT4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于: 1. 技术路线:DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 一样,属于基于强化学习 RL 的推理模型。 2. 思考方式:在回答用户问题前,R1 会先进行“自问自答”式的推理思考,模拟人类的深度思考,从用户初始问题出发,唤醒所需的推理逻辑与知识,进行多步推导,提升最终回答的质量。 3. 训练方式:在其他模型还在接受“填鸭式教育”时,DeepSeek R1 已率先进入“自学成才”的新阶段。 4. 模型制作:R1 是原生通过强化学习训练出的模型,而蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。此外,DeepSeek R1 还能反过来蒸馏数据微调其他模型,形成互相帮助的局面。 5. 与 Claude 3.7 Sonnet 相比,Claude 3.7 Sonnet 在任务指令跟随、通用推理、多模态能力和自主编程方面表现出色,扩展思考模式在数学和科学领域带来显著提升,在某些方面与 DeepSeek R1 各有优劣。
2025-03-19
推理类模型,以deepseek为代表,与此前的聊天型ai,比如chatgpt3.5,有什么差异
推理类模型如 DeepSeek 与聊天型 AI 如 ChatGPT3.5 存在以下差异: 1. 内部机制:对于大语言模型,输入的话会被表示为高维时间序列,模型根据输入求解并表示为回答。在大模型内部,是根据“最大化效用”或“最小化损失”计算,其回答具有逻辑性,像有自己的思考。 2. 多模态能力:ChatGPT3.5 是纯语言模型,新一代 GPT 将是多模态模型,能把感官数据与思维时间序列一起作为状态,并装载在人形机器人中,不仅能对话,还能根据看到、听到的事进行判断,甚至想象画面。 3. 超越人类的可能性:有人假设人按最大化“快乐函数”行动,只要“效用函数”足够复杂,AI 可完全定义人,甚至超越人类。如在“短期快乐”与“长期快乐”的取舍上,人类难以找到最优点,而 AI 可通过硬件算力和强化学习算法实现,像 AlphaGo 击败世界冠军,在复杂任务上超越人类。 4. 应用领域:文字类的总结、润色、创意是大语言模型 AI 的舒适区,如从 ChatGPT3.5 问世到 ChatGPT4 提升,再到 Claude 3.5 sonnet 在文学创作领域取得成绩,只要有足够信息输入和合理提示词引导,文案编写可水到渠成。
2025-03-18
一句话阐述推理类模型的原理
推理类模型的原理主要包括以下方面: OpenAI 的推理模型通过强化学习进行训练,以执行复杂推理。此类模型在回答前会思考,能产生长链的思维过程。通过训练,它们学会优化思考过程、尝试不同策略并识别错误,从而遵循特定指南和模型政策,提供更有用的回答,避免产生不安全或不适当的内容。 例如 OpenAI o1 这样的推理模型基于链式思维,逐步推理问题的每个步骤来得到答案。 还有一些概率预测的快速反应模型,通过大量数据训练来快速预测可能的答案。
2025-03-18
推理行大模型对于RAG的准确性提升,带来哪些改变
推理行大模型对 RAG 准确性提升带来了以下改变: 1. 当辅以能有效提取文档中结构化信息并整合为提示词的 PDF 解析器时,大语言模型能作出更准确的响应,提高了提供给模型的数据质量和相关性,从而提升模型输出质量。 2. 大模型应用领域常用的 RAG 方法,能让模型用自定义数据生成结果,处理无尽私有数据,将模型当成高效推理机器。但 RAG 存在一些常见误区: 随意输入任何文档不一定能得到准确回答,RAG 流程中的多个环节都会影响最终质量。 RAG 虽能减少幻觉,但不能完全消除,只要有大模型参与就可能产生幻觉。 RAG 仍消耗大模型的 Token,最终需大模型处理检索结果生成通顺回答。 未来,将研究分享更多基于深度学习的文档解析方法,以更全面理解 RAG 质量和文档解析质量的关系。同时,前沿模型研发团队力争做到吞吐量、速度和准确度的最佳平衡。
2025-03-03
推理模型的技术原理
推理模型是一种新的范式,专注于解决复杂、多步骤的问题。其技术原理主要包括以下方面: 1. 思考输入意图:通过对输入内容的深入理解,明确问题的核心和需求。 2. 逐步提供答案:不像传统模型一次性给出结果,而是分步骤进行推理和回答。 3. 擅长领域:在解谜和高级数学等具有挑战性的任务中表现出色。 4. 与传统模型的区别:传统模型可能更倾向于直接给出结果,而推理模型会通过逐步思考来提供答案。 5. 成本和易错性:推理模型成本高昂且容易出错,适用场景有限。 6. 模型变体:如 DeepSeek 推出的多种变体(如 R1Zero 和 R1Distill)展示了不同的训练策略和性能表现。 7. 思考过程:类似于人类的慢思考过程,结合行业特点给出重要事项和先后顺序。 8. 运算原理:快思考是概率预测,脱口而出但不一定对;慢思考在概率预测基础上做二层逻辑,即链式思维,展开问题找多条路径并互相验证。 9. 适用场景:指令遵循领域 instruct 模型效果好,推理和创造性问题适合用慢思考的推理模型。
2025-03-01