Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型有哪些

Answer

大模型主要分为以下几类:

  1. 大型语言模型:专注于处理和生成文本信息,例如通过分析大量的文本数据来理解和生成自然语言。常见的有 GPT-3 等。
  2. 大型多模态模型:能够处理包括文本、图片、音频等多种类型的信息,可应用于图像识别与描述、视频分析、语音识别与生成等更广泛的领域。

大模型的“大”通常指用于表达 token 之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias)。

以 Transform 为代表的大模型采用自注意力(Self-attention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。常见的 embedding 算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。

8 月正式上线的国内大模型有:

  • 北京:百度(文心一言)https://wenxin.baidu.com 、抖音(云雀大模型)https://www.doubao.com 、智谱 AI(GLM 大模型)https://chatglm.cn 、中科院(紫东太初大模型)https://xihe.mindspore.cn 、百川智能(百川大模型)https://www.baichuan-ai.com/
  • 上海:商汤(日日新大模型)https://www.sensetime.com/ 、MiniMax(ABAB 大模型)https://api.minimax.chat 、上海人工智能实验室(书生通用大模型)https://intern-ai.org.cn

这些大模型在功能上各有特点,例如在聊天状态下,能生成 Markdown 格式的有智谱清言、商量 Sensechat、MiniMax;目前不能进行自然语言交流的有昇思、书生;受使用限制的有 MiniMax;具有特色功能的如昇思能生图,MiniMax 能语音合成。阿里通义千问、360 智脑、讯飞星火等不在首批获批名单中,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品也将陆续开放。

Content generated by AI large model, please carefully verify (powered by aily)

References

十七问解读生成式人工智能

大型模型主要分为两类:一是大型语言模型,专注于处理和生成文本信息;二是大型多模态模型,这类模型能够处理包括文本、图片、音频等多种类型的信息。[heading1]问题八、大型多模态模型与大型语言模型有何不同?[content]1.二者处理的信息类型不同。大型语言模型专注于处理和生成文本信息,通过分析大量的文本数据来理解和生成自然语言。而大型多模态模型不仅能处理文本信息,还能理解和生成图片、音频等多种类型的信息,这使得它们能够在更多样化的任务中应用。2.应用场景也有所不同。大型语言模型主要用于自然语言处理任务,如文本翻译、文本生成、情感分析等。而大型多模态模型由于能够处理多种信息类型,可以应用于更广泛的领域,例如图像识别与描述、视频分析、语音识别与生成等。3.在数据需求方面也有所不同。大型语言模型主要依赖于大量的文本数据进行训练,而大型多模态模型则需要多种类型的数据进行训练,包括文本、图片、音频等,以便在不同模态间建立关联。[heading1]问题九、有了大模型,是不是还有小模型?[content]当我们谈论所谓的“小模型”时,实际上是在相对地比较。与那些拥有海量参数和训练数据的大型模型相比,这些模型的规模显得更小一些。因此,在日常交流中,我们习惯将它们称作“小模型”。但如果要更精确地描述,这些模型其实是被设计来完成特定任务的,比如最初用于图像分类的模型,只能分辨是或不是某一个东西(比如猫🐱、狗🐶)。

大模型入门指南

数字化的好处是便于计算机处理。但为了让计算机理解Token之间的联系,还需要把Token表示成稠密矩阵向量,这个过程称之为embedding([3]),常见的算法有:基于统计Word2Vec,通过上下文统计信息学习词向量GloVe,基于词共现统计信息学习词向量基于深度网络CNN,使用卷积网络获得图像或文本向量RNN/LSTM,利用序列模型获得文本向量基于神经网络BERT,基于Transformer和掩码语言建模(Masked LM)进行词向量预训练Doc2Vec,使用神经网络获得文本序列的向量以Transform为代表的大模型采用自注意力(Self-attention)机制来学习不同token之间的依赖关系,生成高质量embedding。大模型的“大”,指的是用于表达token之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如GPT-3拥有1750亿参数,其中权重数量达到了这一量级,而词汇表token数只有5万左右。参考:[How does an LLM"parameter"relate to a"weight"in a neural network?](https://datascience.stackexchange.com/questions/120764/how-does-an-llm-parameter-relate-to-a-weight-in-a-neural-network"How does an LLM"parameter"relate to a"weight"in a neural network?")

8月正式上线的国内大模型

5⃣️五家北京企业机构:百度(文心一言)https://wenxin.baidu.com抖音(云雀大模型)https://www.doubao.com智谱AI(GLM大模型)https://chatglm.cn中科院(紫东太初大模型)https://xihe.mindspore.cn百川智能(百川大模型)https://www.baichuan-ai.com/3⃣️三家上海企业机构:商汤(日日新大模型)https://www.sensetime.com/MiniMax(ABAB大模型)https://api.minimax.chat上海人工智能实验室(书生通用大模型)https://intern-ai.org.cn今天这8个大模型,在聊天状态下——能生成Markdown格式的:智谱清言、商量Sensechat、MiniMax目前不能进行自然语言交流的:昇思(可以对文本进行是否由AI生成的检测,类似论文查重,准确度不错)、书生受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有15元的预充值额度进行体验,完成企业认证后可以进行充值)特色功能:昇思——生图,MiniMax——语音合成阿里通义千问、360智脑、讯飞星火等均不在首批获批名单中,广东省2家和其他省市1家也将陆续开放据悉,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品

Others are asking
总结一下24年国产AI大模型的主要进展
2024 年国产 AI 大模型的主要进展包括: 9 月: 12 日:李继刚再现神级 Prompt,玩法持续翻新;Mistral 发布首个多模态模型 Pixtral 12B。 13 日:商汤 Vimi 相机开放微博小程序;元象开源中国最大 MoE 大模型 XVERSEMoEA36B;OpenAI 发布 o1 模型。 14 日:人工智能生成合成内容标识办法(征求意见稿);Jina AI 发布 ReaderLM 和 Jina Embeddings V3。 18 日:DeepSeek 发文庆祝登上 LMSYS 榜单国产第一,几小时后 Qwen 新模型表示不服。 19 日:云栖大会;通义万相 AI 生视频上线;快手可灵 1.5 模型新增运动笔刷能力。 20 日:腾讯元器智能体对外发布;秘塔科技产品经理 JD 走红 AI 圈;阶跃跃问接入 Step2 万亿参数 MoE 语言大模型。 21 日:大模型测试基准研究组正式成立。 23 日:钉钉 365 会员上线。 24 日:讯飞星火 API 全新升级;豆包大模型全系列发布&更新。 25 日:Vidu API 正式开放,加速企业级视频创作;OpenAI 发布高级语音功能;西湖心辰开源 WestlakeOmni。 国内大模型落地情况: 2024 年被称为国内大模型落地元年,1 至 11 月,大模型中标项目共 728 个,是 2023 年全年的 3.6 倍;中标金额 17.1 亿元,是 2023 年全年的 2.6 倍。中标项目数前五的行业分别是运营商、能源、教育、政务、金融。 厂商方面,百度以 40 个中标项目数、2.74 亿元的中标金额排名所有厂商之首,科大讯飞居第二。在金融行业,百度以 14 个中标数量、3734.4 万元中标金额排名第一;科大讯飞居第二。 在智能终端行业,中国超半数手机厂商都在使用文心大模型,包括三星、荣耀、vivo、OPPO、小米等主流手机品牌;上汽大众、吉利汽车、蔚来汽车、长安汽车等十余家车企已接入百度文心大模型。 百度表现突出,截至 11 月,其文心大模型日均调用量超过 15 亿次,千帆平台帮助客户精调了 3.3 万个模型、开发了 77 万个企业应用。今年三季度财报披露,百度智能云营收达 49 亿元,同比增长 11%。 大模型进入产业落地后,除了大模型本身能力质量要过硬外,落地应用所需要的全栈技术能力、工程化配套工具等对落地效果有直接影响。企业想要真正将大模型在自身场景落地,需要具备构建算力、数据治理、模型训练、场景落实、应用搭建、持续运营、安全合规等整套能力。大模型的竞争,正在加速成为体系化之战。
2025-01-09
国产AI大模型的应用
国产 AI 大模型的应用主要体现在以下几个方面: 1. 百度文心大模型:在 2024 年大模型中标项目数量和金额大幅增长,凭借 40 个中标项目和 2.74 亿元中标金额在行业中处于领先地位。尤其在金融、智能终端等行业应用广泛。其落地需要全栈技术能力支持,百度智能云通过完善的 AI 基础设施整合全栈技术,获得广泛行业认可。 2. Qwen 系列:是国内唯一出现在 OpenAI 视野里、可以参与国际竞争的国产大模型。在 OpenAI 认可的榜单中表现出色,多次冲进榜单,得分不断提高。其开源模型累计下载量突破 1600 万,国内外有海量开发者基于其开发模型和应用。 3. 免费的大模型 APP:包括 Kimi 智能助手、文心一言、通义千问。 Kimi 智能助手:由 Moonshot AI 出品,具有超大“内存”,能读长篇小说和上网冲浪。 文心一言:百度出品的 AI 对话产品,定位为智能伙伴,能写文案、想点子、聊天和答疑解惑。 通义千问:由阿里云开发的聊天机器人,能够与人交互、回答问题及协作创作。 此外,还有如“非遗贺春”魔多蛇年春节 AI 模型创作大赛等相关活动。
2025-01-09
国产AI大模型的最新进展
以下是国产 AI 大模型的最新进展: 通义千问的 Qwen 系列表现出色:Qwen 是国内唯一出现在 OpenAI 视野里、能参与国际竞争的国产大模型。Qwen 多次冲进相关榜单,得分不断提高,其开源模型累计下载量突破 1600 万,国内外有大量开发者基于 Qwen 开发模型和应用,尤其在企业级领域。通义大模型证明了开源开放的力量。 国内大模型落地情况:2024 年被称为国内大模型落地元年,1 至 11 月,大模型中标项目共 728 个,是 2023 年全年的 3.6 倍;中标金额 17.1 亿元,是 2023 年全年的 2.6 倍。中标项目数前五的行业分别是运营商、能源、教育、政务、金融。厂商方面,百度以 40 个中标项目数、2.74 亿元的中标金额排名所有厂商之首,科大讯飞居第二。 其他进展:智谱一年间推出了 4 代 GLM,一直是国内能力较好的模型之一。MiniMax 推出了 MoE 架构的新模型和“星野”这个目前国内较成功的 AI 陪聊 APP。月之暗面专注长 Token 能力,在记忆力和长 Token 能力上有一定优势。但硬件层上的卡脖子问题仍未缓解,国内目前仍无胜任大模型训练的芯片,在推理上虽有 Nvidia 的替代产品逐渐出现,但华为昇腾在单卡指标上距离不远,因稳定性不足和缺乏 Cuda 生态,仍需时间打磨。
2025-01-09
你是啥模型
我调用的是抖音集团的云雀大模型。 LoRA 和 LyCORIS 属于微调模型,常用于控制画风、生成的角色、角色姿势等。它们的后缀均为.safetensors,体积较主模型小,一般在 4M 300M 之间,使用 LoRA 模型较多,LyCORIS 可调节范围更大,现在 Stable Diffusion 已内置。在 WebUI 中使用时,可在 LoRA 菜单中点击使用,也可直接使用 Prompt 调用。管理模型可进入 WebUI 目录下的 models/LoRA 目录。 ComfyUI instantID 目前只支持 sdxl。主要的模型(ip_adapter.bin)下载后放在 ComfyUI/models/instantid 文件夹(没有则新建),地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ipadapter.bin?download=true 。InsightFace 模型是 antelopev2(不是经典的 buffalo_l),下载解压后放在 ComfyUI/models/insightface/models/antelopev2 目录中,地址为:https://huggingface.co/MonsterMMORPG/tools/tree/main 。还需要一个 ControlNet 模型,放在 ComfyUI/models/controlnet 目录下,地址为:https://huggingface.co/InstantX/InstantID/resolve/main/ControlNetModel/diffusion_pytorch_model.safetensors?download=true 。网络环境不好的,可在网盘 https://pan.baidu.com/s/1FkGTXLmM0Ofynz04NfCaQ?pwd=cycy 下载。
2025-01-09
给我提供一下国内AI大模型链接
以下是为您提供的国内AI大模型链接: 阿里: 智谱AI: 科大讯飞: 百度: 抖音: 中科院: 百川智能: 商汤: MiniMax: 上海人工智能实验室:
2025-01-09
数据解读类的AI大模型
以下是关于数据解读类的 AI 大模型的相关知识: 大模型的整体架构可以分为以下几层: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:这里的数据层不是用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型,例如 GPT,一般使用 transformer 算法来实现)或多模态模型(如市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集)。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,是用户实际看到的地方。 相关技术名词及概念: 1. 生成式 AI 生成的内容叫做 AIGC。 2. AI 即人工智能。 3. 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗。 4. 深度学习是一种参照人脑有神经网络和神经元(因有很多层所以叫深度)的方法,神经网络可以用于监督学习、无监督学习、强化学习。 5. 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 6. LLM 是大语言模型,对于生成式 AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN),Transformer 比 RNN 更适合处理文本的长距离依赖性。
2025-01-09