Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型的发展历史

Answer

大模型的发展历史如下:

  • 2017 年,发布了 Attention Is All You Need 论文,开启了大模型发展的序幕。
  • 2018 年,Google 提出 BERT(Bidirectional Encoder Representations from Transformers),通过双向预训练并行获取上下文语义信息和掩码语言建模,开创了预训练语言表示范式,参数规模在 110M 到 340M 之间。
  • 2018 年,OpenAI 提出 GPT(Generative Pre-trained Transformer),开创了仅使用自回归语言建模作为预训练目标而无需额外监督信号的方式,展示了强大的语言生成能力,参数规模达 1750 亿。
  • 2021 年,Meta 提出 Large LAnguage Model Approach(LLAMA),这是首个开源模型,为构建更大规模、更通用的语言模型提供了系统化的方法与工具,参数规模在十亿到千亿之间。

2023 年是大模型澎湃发展的一年,从 22 年 11 月 ChatGPT 的惊艳面世,到 23 年 3 月 GPT4 作为“与 AGI(通用人工智能)的第一次接触”,到 23 年末多模态大模型的全面爆发,再到刚刚面世的 Sora 再次震惊世界。随着大模型技术的愈发成熟和规模增大,为 AI Agent 提供强大能力,有望构建具备自主思考、决策和执行能力的智能体,广泛应用于多个行业和领域。

Content generated by AI large model, please carefully verify (powered by aily)

References

大模型入门指南

这一切的起源是2017年发布的Attention Is All You Need([4])论文,之后基于大量语料的预训练模型百花齐放,比如:BERT(Bidirectional Encoder Representations from Transformers):Google在2018年提出,创新性的双向预训练并行获取上下文语义信息,以及掩码语言建模(MLM)让模型更好地推断语义信息。它开创了预训练语言表示范式,对自然语言处理产生了深远影响。参数规模:110M到340MGPT(Generative Pre-trained Transformer):OpenAI在2018年提出,开创了仅使用自回归语言建模作为预训练目标而无需额外监督信号。它展示了通过无监督大规模预训练获得的语言生成能力,对研究与应用都带来重大影响。参数规模:1750亿Large LAnguage Model Approach(LLAMA):Meta在2021年提出,首个开源模型。为构建更大规模、更通用的语言模型提供了系统化的方法与工具。参数规模:十亿到千亿

AGI万字长文(上)| 2023回顾与反思

2023年是大模型澎湃发展的一年:从22年11月ChatGPT的惊艳面世,到23年3月GPT4作为“与AGI(通用人工智能)的第一次接触”,到23年末多模态大模型的全面爆发,再到刚刚面世的Sora再次震惊世界。大模型给了世界太多的惊喜、惊讶、迷茫、甚至恐惧。有人问我:“AGI的出现可以和人类哪次发现/发明相比?”“大概是人类开始使用‘火’的时刻。万有引力、iPhone什么的都不值一提。”就像我在去年4月份文章中写的——在AGI和任何新事物的出现的时候:我们总是倾向于高估它的短期,但却低估它的长期。(前文[《AGI|高估的短期与低估的长期》](http://mp.weixin.qq.com/s?__biz=MzIwMTE0MDIwMA==&mid=2247484405&idx=1&sn=5e5c3104511adedad247d23149b14a80&chksm=96f33172a184b8647e786bf57685eb8e085e0f3f1e91aa3be797b49708b82135f41088959e2b&scene=21#wechat_redirect))目前正是这个大趋势的真实写照:

开发:AI应用大模型商业化落地现状与思考

大家下午好!很荣幸能够作为本次活动的分享嘉宾,我是甲木,LangGPT团队成员,很高兴给大家带来《大模型商业化落地现状与思考》的分享。本次分享的内容主要分为五个模块,从大模型的背景入手、深入探讨其在商业领域的现状和应用。接着,我们将分析在商业化过程中所遇到的挑战,并分享一些实战经验,最后将展望AI作为通用技术能够发挥生产力效能所要经历的几个阶段。[heading2]一、大模型的背景和趋势[content]首先,我们先来看大模型的背景和发展趋势。关于AI的演进历程,很多媒体包括各类研究资料都已经做过详细的介绍,相信今天在座的各位对AI的基本情况都已有所了解,因此我不会过多赘述AI的演进历程。(有兴趣的小伙伴可以多从公开资料中查找一下~)我们的重点将放在大模型当前的应用能力上,随着大模型技术的愈发成熟,规模增大,大模型为AI Agent()提供强大能力。Agent+大模型将有望构建具备自主思考、决策和执行能力的智能体,进一步提升大模型的应用能力,广泛应用于多个行业和领域。

Others are asking
AI编程大模型排行榜
以下是一些关于 AI 编程大模型的相关信息: 1. ShowMeAI 周刊 No.13 中提到的相关内容: Learn About:继 NotebookLM 之后又一个 AI Native 产品,谷歌真正的 AI Native Education 尝试。 ima.copilot V.S. 秘塔 V.S. 天工:国区 Perplexity 青出于蓝而胜于蓝,秘塔一骑绝尘。 Markdown:技术圈(最)常用的文本编辑语言,一种「四通八达」的中转格式,并附上好用的转换工具。 把 17 岁高中生涂津豪的 Thinking Claude 提示词,设置在 Cursor 里。 两篇优秀的 AI 编程教程:跟着资深工程师&全栈开发者,挖掘 LLM 编程能力的极限。 恭喜阶跃星辰!step2 在 LiveBench 榜单杀进前 5,斩获国产大模型第 1 名,并顺带聊聊榜单和测评的「内幕」。 举个栗子:当把大模型「开源」用「做饭吃饭」来解释,一起都豁然开朗起来,甚至还玩起了谐音梗。 很有共鸣:为什么大部分人用不起来 AI?可能还没体验到效率飞升的 Aha Moment。 集体讨论:大家都是怎么快速处理长视频、长音频、长文本材料的?都有哪些工作流和工具的配合应用? 2. Trae:字节开发的一款和 AI 深度集成的 AI 编程工具,可让用户限时免费无限量使用地球上最强大的编程大模型 Claude Sonnet,全自动化进行 AI 编程。包含完整的 IDE 功能,如代码编写、项目管理、插件管理、源代码管理等,提供智能问答、实时代码建议、代码片段生成、从 0 到 1 开发项目。 3. 8 月正式上线的国内大模型: 北京的五家企业机构:百度(文心一言)https://wenxin.baidu.com ;抖音(云雀大模型)https://www.doubao.com ;智谱 AI(GLM 大模型)https://chatglm.cn ;中科院(紫东太初大模型)https://xihe.mindspore.cn ;百川智能(百川大模型)https://www.baichuanai.com/ 。 上海的三家企业机构:商汤(日日新大模型)https://www.sensetime.com/ ;MiniMax(ABAB 大模型)https://api.minimax.chat ;上海人工智能实验室(书生通用大模型)https://internai.org.cn 。 能生成 Markdown 格式的:智谱清言、商量 Sensechat、MiniMax 。 目前不能进行自然语言交流的:昇思(可以对文本进行是否由 AI 生成的检测,类似论文查重,准确度不错)、书生 。 受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值) 。 特色功能:昇思——生图,MiniMax——语音合成 。 阿里通义千问、360 智脑、讯飞星火等均不在首批获批名单中。广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。
2025-02-24
如何正确的向AI大模型提问
向 AI 大模型正确提问可以参考以下方法: 1. 对于利用 Embedding 技术增强 GPT 能力的过程,OpenAI 发布的相关文档指出,可通过两步搜索来实现。具体步骤包括: 准备搜索数据(仅一次): 搜集数据:获取需要的数据,包括公开数据或者私有的数据。 切块:将文档切分成短小的部分。 嵌入:通过 OpenAI API 对切块的数据进行 Embedding 结果。 存储:存储 Embedding 结果,对于大型数据集的 Embedding 结果,可以使用向量数据库进行保存。 搜索(每次查询一次):给定用户问题,从 OpenAI API 生成查询的 embeddings,使用 embeddings 按照与查询相关性对文本部分进行排序,推荐使用余弦相似性作为距离函数。 提问(每次查询一次):将问题和最相关的部分插入到发送给 GPT 的消息中返回 GPT 的答案。 2. Embedding 具有多种作用,如搜索(其中结果按与查询字符串的相关性进行排名)、聚类(其中文本字符串按相似性分组)、建议(建议包含相关文本字符串的项目)、异常检测(识别出相关性很小的离群值)、多样性测量(分析相似性分布)、分类(其中文本字符串按其最相似的标签分类)。 3. 关于 RAG(检索增强生成),它是一种结合了检索和生成的技术,可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。其基本流程如下: 首先,给定一个用户的输入,例如一个问题或一个话题,RAG 会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录,这些文本片段称为上下文。 然后,RAG 会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如 GPT。这个输入通常会包含一些提示,指导模型如何生成期望的输出,例如一个答案或一个摘要。 最后,RAG 会从大模型的输出中提取或格式化所需的信息,返回给用户。如果您想构建能够利用私有数据或实时数据进行推理的 AI 应用,需要用特定的信息来增强模型的知识,将相关信息检索并插入到模型的输入中。
2025-02-24
表格内填充的内容如何批量循环调用大模型生成内容
以下是关于表格内填充内容如何批量循环调用大模型生成内容的相关信息: 大模型生成文字并非一次性输出整段,而是通过反复调用神经网络模型,一个字一个字地续写,直到输出结束符号。其输出不是确定的一个字,而是所有字的概率,可选择概率高的字或随机挑选。 在生成标题、导语、大纲等涉及文本理解与创作的任务时,可通过配置 LLM 节点来实现。为节省 token 消耗和模型调度费用,在满足预期的情况下,应减少大模型处理环节。例如,豆包·function call 32k 模型能在一轮对话中稳定生成这些内容。配置时要关注节点的各项设置,如根据实际情况调大模型的最大回复长度,并设计填入用户提示词。
2025-02-24
目前市面上有多少不同的大模型,请枚举出来
目前市面上的大模型列举如下: 北京企业机构: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海企业机构: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 大型模型主要分为两类: 1. 大型语言模型,专注于处理和生成文本信息。 2. 大型多模态模型,能够处理包括文本、图片、音频等多种类型的信息。 大模型的整体架构从整体分层的角度来看,大致分为以下几层: 1. 基础层:为大模型提供硬件支撑,数据支持等,例如 A100、数据服务器等等。 2. 数据层:这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型)或多模态模型。LLm 如 GPT,一般使用 transformer 算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,用户实际看到的地方。 另外,阿里通义千问、360 智脑、讯飞星火等均不在首批获批名单中。据悉,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品。
2025-02-24
rag 模型微调
RAG(检索增强生成)模型微调相关知识如下: 通用语言模型通过微调可完成常见任务,如分析情绪和识别命名实体。对于更复杂和知识密集型任务,可基于语言模型构建系统并访问外部知识源。Meta AI 引入的 RAG 方法把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与输入原始提示词组合后送给文本生成器得到输出,能适应事实变化,获取最新信息并生成可靠输出。 通用的 RAG 微调方法如 Lewis 等人(2021)提出的,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。 在微调阶段: 检索器微调的常用方法包括直接微调、添加可训练的 Adapter 模块、LSR、LLM Reward RL。 生成器微调的主要方法包括直接微调、GPT4 蒸馏、基于反馈的强化学习。 协同微调是在 RAG 系统中同时对检索器和生成器进行微调,如 RADIT 分别对 LLM 和检索器进行微调。 同时,RAG 提高了嵌入模型质量,传统 RAG 解决方案中的问题也得到解决。
2025-02-24
模型微调
以下是关于模型微调的相关信息: 微调步骤: 1. 微调脚本: LoRA 微调: 脚本见: 具体实现代码见: 单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调: 脚本见: 具体实现代码见: 2. 加载微调模型: LoRA 微调:基于 LoRA 微调的模型参数见基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数。 全量参数微调:调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 微调介绍: 微调可让您从 API 提供的模型中获得更多收益,包括比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省了 Token、更低的延迟请求。GPT3 已经在来自开放互联网的大量文本上进行了预训练。微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例。这样可以节省成本并实现更低延迟的请求。在高层次上,微调涉及准备和上传训练数据、训练新的微调模型、使用您的微调模型等步骤。 可微调的模型: 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。 OpenAI 的模型概述: OpenAI API 由具有不同功能和价位的多种模型提供支持。您还可以通过微调针对您的特定用例对我们的原始基本模型进行有限的定制。包括 GPT4 Beta、GPT3.5、DALL·E Beta、Whisper Beta、Embeddings、Codex Limited Beta、Moderation、GPT3 等模型。
2025-02-24
AI是什么,AI的历史
人工智能(Artificial Intelligence)是一门研究如何使计算机表现出智能行为,例如做一些人类所擅长的事情的科学。 其历史始于二十世纪中叶,最初符号推理流行,带来了专家系统等重要进展,但因从专家提取知识并表现和保持知识库准确性复杂且成本高,20 世纪 70 年代出现“人工智能寒冬”。 随着时间推移,计算资源更便宜,数据更多,神经网络方法在计算机视觉、语音理解等领域展现出卓越性能,过去十年中,“人工智能”常被用作“神经网络”的同义词。 例如在创建国际象棋计算机对弈程序时,方法不断变化。最初,查尔斯·巴贝奇发明了计算机,用于按照明确程序运算,现代计算机虽先进但仍遵循相同受控计算理念。但像“根据照片判断一个人的年龄”这类任务无法明确编程,因为我们不知大脑完成此任务的具体步骤,而这类任务正是人工智能感兴趣的。
2025-02-24
文生图历史
文生图技术的发展历史如下: 1. 早期发展(2014 年以前):最初的文生图尝试集中在将简单文本描述转化为图像。这些早期方法依赖于基本的图像处理技术和简单的模型,效果有限,生成的图像质量通常不高。 2. 深度学习的崛起(2014 年 2018 年):随着深度学习的发展,尤其是卷积神经网络(CNN)的成功应用,文生图模型开始采用神经网络来改进图像生成的质量和多样性。在这一时期,如生成对抗网络(GAN)及其变体层出不穷,开始被用于文生图任务,展示了生成更逼真图像的潜力。 3. 引入 Transformer(2019 年 2021 年):Transformer 架构原本在自然语言处理(NLP)领域取得巨大成功,开始被应用于文生图模型,提高模型处理复杂文本和生成高质量图像的能力。如 OpenAI 的 DALLE 模型,采用了 Transformer 结构来生成与文本描述匹配的图像,成为这一时期的标志性进展。与此同时,以 DDPM 为代表的工作,为 Diffusion Model 奠定了理论基础,众多基于 Transformer 和 Diffusion Model 的研究成果从 2021 下半年开始如雨后春笋般涌现。 4. LLM 与文生图模型的结合(2022 年 2023 年):大型语言模型(LLM)如 GPT3 开始与文生图模型结合,利用 LLM 强大的语言理解能力来提升图像生成的相关性和创造性。 文生图模型的演进历史整体上反映了计算机视觉(CV)和自然语言处理(NLP)的融合与发展。从早期的基础尝试到结合了深度学习、Transformer 和大型语言模型的先进方法,文生图模型在技术上实现了巨大的飞跃,不断延伸 AI 在艺术和创造力方面的边界。我们预计,未来的文生图模型将进一步提升在复杂文本理解和高质量图像生成方面的能力,为多模态交互和创意表达提供更加强大的工具。 此外,在星流一站式 AI 设计工具中,生图历史按照每日进行记录。点击日期对应的区域可以查看当日生成的图像,可通过输入提示词搜索相关的图像。点击单个图像可以查看具体的生图信息与参数一键导入使用。在生图历史中收藏的图像,会收集在特定区域。拖动图像可以直接导入无限画布。
2025-02-23
我是高中历史老师,我想知道用什么AI模型可以“将自己的PPT变成一篇论文”
目前在将 PPT 转换为论文方面,GPT 模型可能会有所帮助。例如,在“教育:一个历史老师用 GPT 给学生讲课”的案例中,学生利用 GPT 相关功能进行模拟体验,并根据要求撰写论文,包括分析模拟的准确性、进行事实核查等。 另外,Claude 模型也能在相关工作中发挥作用。比如可以帮助快速寻找符合条件的论文、提取精炼论文中的信息,甚至找到适合的 PPT 制作工具并指导使用。 此外,一些神经网络大模型通过预测下一个字的方式生成文字,这种方式具有一定的创意性,且可拓展到图像、声音等领域。但需要注意的是,AI 的预测不一定保证完全正确。
2025-02-22
人工智能发展历史
人工智能的发展历史如下: 起源于二十世纪中叶,最初符号推理流行,带来了专家系统等重要进展,但因方法局限性和成本问题,20 世纪 70 年代出现“人工智能寒冬”。 随着计算资源变便宜和数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为神经网络奠定基础。 1950 年,图灵最早提出图灵测试作为判别机器是否具备智能的标准。 1956 年,在达特茅斯学院召开的会议上,人工智能一词被正式提出并确立为一门学科。此后近 70 年,AI 发展起起落落。 AI 技术发展历程包括:早期阶段(1950s 1960s)的专家系统、博弈论、机器学习初步理论;知识驱动时期(1970s 1980s)的专家系统、知识表示、自动推理;统计学习时期(1990s 2000s)的机器学习算法(决策树、支持向量机、贝叶斯方法等);深度学习时期(2010s 至今)的深度神经网络、卷积神经网络、循环神经网络等。 当前 AI 前沿技术点包括:大模型(如 GPT、PaLM 等)、多模态 AI(视觉 语言模型、多模态融合)、自监督学习(自监督预训练、对比学习、掩码语言模型等)、小样本学习(元学习、一次学习、提示学习等)、可解释 AI(模型可解释性、因果推理、符号推理等)、机器人学(强化学习、运动规划、人机交互等)、量子 AI(量子机器学习、量子神经网络等)、AI 芯片和硬件加速。
2025-02-13
用AI处理销售订单历史数据需要什么前提条件
用 AI 处理销售订单历史数据通常需要以下前提条件: 1. 数据质量:销售订单历史数据应准确、完整、一致,且格式规范,便于 AI 系统进行处理和分析。 2. 数据规模:需要有足够数量的销售订单数据,以确保 AI 模型能够从中学习到有效的模式和规律。 3. 数据标准化:数据应遵循一定的标准和规范,例如统一的字段定义、编码方式等。 4. 明确的业务目标:清楚地定义使用 AI 处理数据想要达到的具体目标,例如预测销售趋势、优化库存管理等。 5. 技术基础设施:具备支持 AI 处理的硬件和软件环境,包括足够的计算资源、合适的数据库和数据存储系统。 6. 数据安全和合规:确保数据的处理和使用符合相关法律法规,保护客户隐私和企业数据安全。 7. 专业的技术团队:包括数据科学家、工程师等,能够进行数据预处理、模型训练和优化、系统部署和维护。 8. 对业务的深入理解:了解销售业务流程和特点,以便将 AI 技术与实际业务需求相结合。
2025-02-11
我想做短视频,用英语讲历史,场景全部用AI完成,帮我推荐一下工具
以下是为您推荐的用 AI 完成英语讲历史短视频的工具和制作流程: 制作流程: 1. 内容分析:使用 AI 工具(如 ChatGPT)分析历史内容,提取关键场景、角色和情节。 2. 生成描述:根据历史内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将英语讲解文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 工具推荐: 1. 图像生成工具:Stable Diffusion、Midjourney。 2. 视频编辑软件:Clipfly、VEED.IO。 3. AI 配音工具:Adobe Firefly。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-02-09
当前DEEPSEEK发展壮大情况下,个人应具备AI方面什么能力避免被时代淘汰,如何提升这些能力,细化具体可执行的步奏
在 DEEPSEEK 发展壮大的情况下,个人为避免被时代淘汰,应具备以下 AI 方面的能力并通过以下具体可执行的步骤来提升: 1. 善用工具: 历史表明,使用工具的人通常表现更优,人类发展就是工具演化的过程。 不会用 AI 工具自动化重复性任务,可能面临被淘汰,应适应这种转变。 因自动化效率提升,可腾出时间进行高层次思考。 具体步骤:积极学习和掌握 AI 工具的使用方法,将重复性工作交给工具处理,培养利用工具提升效率的习惯。 2. 抽象与整合: “大语言模型”压缩了大量知识,可快速回放,无需直接学习所有知识细节,要在更高层次学习并抽象更多细节。 AI 能使人类更易学习技能或知识,技术进步使“整合”而非专业化成为可能,人们在更高层次工作,为 AI 提供方向并作选择。 具体步骤:锻炼高层次的思维能力,学会从复杂信息中提炼关键要点,不断提升整合能力,将精力集中于制定“策略”,把执行细节交给自动化系统。
2025-02-24
未来5年AI的发展方向
未来 5 年 AI 的发展方向可能包括以下几个方面: 1. 模型发展:从小模型阶段向更强大的模型演进,如 GPT 的出现标志着 AGI 的拐点,Sora 的出现打开了 AGI 的大门,未来可能加大算力和训练,与具身机器人结合,加速智能提升。 2. 能力提升:从能与人类交流到具备对世界力量的感知和与物理世界互动的能力,逐步发展到强人工智能。 3. 应用拓展:在关键领域改变成本结构和提高生产力,如降低医疗、教育等领域的成本,使服务更易获得和负担得起。AI 涉及的领域不断扩大,应用范围更加广泛。 4. 社会影响:可能带来更好的教育、更健康的人口和更有生产力的人,解放人力去解决更重要的问题,创造更美好的社会。但也需要政府和民营企业共同努力,进行人员再培训和能力增强,以应对可能的就业机会变化。 5. 技术突破:如没有编码能力的人独自创建的应用程序或网站走红,OpenAl o1 的开源替代品在推理基准测试中超越它,苹果设备上的研究成果加速个人设备上 AI 的发展等。同时,在一些领域也存在挑战,如对人形机器人的投资水平可能下降,挑战者难以对 NVIDIA 的市场地位造成重大打击等。此外,还可能面临国家安全审查、立法实施等方面的问题。
2025-02-20
我想做一个产品(生涯规划领域的垂直大模型),这个产品服务的对象是所有人:帮助所有人进行更好的职业规划。每个人都能通过使用这个产品更好地了解自己,了解自己的天赋、兴趣、优势,然后找到自己的热爱的领域和热爱的事业,并且能够个性化地推荐相关的行业和职业,包括职业的主要工作内容和核心能力要求等等。 请对这个产品进行可行性分析,并给出产品的发展规划,别忘了给这个项目起一个名字。
以下是对您提出的生涯规划领域垂直大模型产品的可行性分析和发展规划,并为项目取名为“生涯智途”。 可行性分析: 1. 需求广泛:帮助人们进行职业规划是一个普遍存在的需求,涵盖了各个年龄段和职业阶段的人群。 2. 数据可用性:可以通过各种渠道收集大量与职业相关的数据,包括行业报告、职位描述、人才需求等。 3. 技术支持:当前大模型技术的发展为实现这样的产品提供了可能,能够处理和分析大量复杂的数据。 发展规划: 1. 数据收集与整理:广泛收集各类职业数据,建立丰富的数据库,确保数据的准确性和完整性。 2. 模型训练与优化:利用收集到的数据进行模型训练,不断优化模型,提高预测和推荐的准确性。 3. 功能开发: 个性化测评:开发能够准确评估用户天赋、兴趣、优势的功能模块。 精准推荐:根据用户的特点,提供个性化的行业和职业推荐,并详细介绍职业的工作内容和核心能力要求。 持续学习与更新:随着行业变化,及时更新数据和模型,以提供最新的职业信息。 4. 用户体验优化:设计简洁、易用的界面,提供良好的用户交互体验。 5. 市场推广:通过线上线下多种渠道进行推广,提高产品的知名度和用户覆盖面。 希望以上分析和规划对您有所帮助。
2025-02-18
目前ai发展成熟吗
目前 AI 仍处于不断发展的阶段,尚未完全成熟。 人类是工具的创造者,每一代都在前人的基础上创造出更强大的工具,如今 AGI 成为了人类进步的又一工具。长期以来,人类创新推动生活各方面繁荣改善,AI 也在持续快速发展。 例如,Transformer 架构早在 2017 年就已提出,但 AI 近几年才爆发,其中神经网络的规模是重要影响因素。以 GPT 模型为例,从 2018 年第一代的 1 亿左右参数量,到 2023 年第四代的万亿规模,规模越大智能程度越高,且在达到一定规模后出现“涌现”能力,智能程度飞速上升,但这种“涌现”出现的机理目前尚无统一解释。 在未来,AI 有望在多个领域取得进展,如 2024 年内,图片超短视频的精细操控、AI 音频能力、“全真 AI 颜值网红”、游戏 AI NPC、AI 男/女朋友聊天、实时生成的内容、AI Agent 等方面会有发展;2025 2027 年,AI 3D 技术、全真 AI 虚拟人、AR/VR 技术、具身智能等技术可能会有明显突破。 然而,AI 立法、伦理讨论仍大规模落后于技术进展,AI 造成的 DeepFake、诈骗、网络攻击等问题开始引发担忧,且可能导致结构性失业等社会问题。
2025-02-18
有关于数据标注行业发展趋势的文章吗?
以下是关于数据标注行业发展趋势的相关内容: 数据标注行业呈现出以下几个主要的发展趋势: 从量到质的转变:早期大模型训练侧重通过大量算力和大规模数据集来提升性能,但随着技术进步,数据质量成为提高模型性能的关键瓶颈,更注重提高数据的质量和相关性,而非单纯增加数据量和算力。 数据标注向知识密集型转变:多模态模型需处理多种类型数据,使数据标注过程更细致复杂。例如进行情绪判断或推理时,需要更高水平的理解和分析能力。这要求从事标注的人员不仅要接受专业培训,在某些情况下还需要特定领域专家执行。 数据标注的自动化和合成数据的使用:随着人工智能技术发展,数据标注领域正经历自动化转型,可使用大模型自动标注数据,提高标注效率并减少人力成本。合成数据使用越来越普遍,因其成本较低、能避免隐私问题及可生成长尾场景数据。例如在自动驾驶领域,可用于生成罕见但关键的路况场景,提高模型的鲁棒性和准确性。 此外,相关法律法规也对生成式人工智能技术研发过程中的数据标注做出规定,如提供者应制定清晰、具体、可操作的标注规则,开展数据标注质量评估,对标注人员进行必要培训等。
2025-02-17
DEEPSEEK发展现状介绍一下
DeepSeek 的发展现状如下: 1. 训练成本方面:远高于传闻的 600 万美元,总计约 13 亿美元。定价低于实际成本,导致高额亏损。MixtureofExpert 方法虽降低计算需求,但大规模内存使用可能增加总成本。 2. 竞争优势方面:以低成本开发顶级 AI 模型的 Mistral AI 被中国 DeepSeek 迅速赶超,DeepSeek 的“极简算力”模式可能削弱 Mistral 的竞争优势。 3. 市场表现方面:展示出媲美领先 AI 产品性能的模型,成本仅为一小部分,在全球主要市场的 App Store 登顶。 4. 实际使用体验方面:在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化表现不错,编程能力略逊于 GPT。GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。 5. 热度方面:微信指数达 10 亿多次,陈财猫将分享提示词及小说创作心得。
2025-02-17