Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

科学计算大模型的代表模型有哪些

Answer

科学计算大模型的代表模型主要有以下几种:

  1. Encoder-only 模型:适用于自然语言理解任务,如分类和情感分析,最知名的代表是 BERT。
  2. Encoder-decoder 模型:同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表模型如谷歌的 T5。
  3. Decoder-only 模型:更擅长自然语言生成任务,如故事写作和博客生成,众多熟知的 AI 助手基本采用此结构,包括 ChatGPT。

大模型具有以下特点:

  1. 预训练数据量大:往往来自互联网,包括论文、代码、公开网页等,先进的大模型通常用 TB 级别的数据进行预训练。
  2. 参数众多:如 OpenAI 在 2020 年发布的 GPT-3 就已达到 170B 的参数。

在数字化处理中,为让计算机理解 Token 之间的联系,需将 Token 表示成稠密矩阵向量,即 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Self-attention)机制学习不同 token 之间的依赖关系,生成高质量 embedding。

大模型的“大”主要指用于表达 token 之间关系的参数多,如 GPT-3 拥有 1750 亿参数。当神经元数量达到百亿、千亿级别时,会出现群体智能,即智能涌现,这在自然界如蚂蚁群体中有典型体现,人脑也由约 1000 亿个神经元构成复杂神经网络。

Content generated by AI large model, please carefully verify (powered by aily)

References

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。

大模型入门指南

数字化的好处是便于计算机处理。但为了让计算机理解Token之间的联系,还需要把Token表示成稠密矩阵向量,这个过程称之为embedding([3]),常见的算法有:基于统计Word2Vec,通过上下文统计信息学习词向量GloVe,基于词共现统计信息学习词向量基于深度网络CNN,使用卷积网络获得图像或文本向量RNN/LSTM,利用序列模型获得文本向量基于神经网络BERT,基于Transformer和掩码语言建模(Masked LM)进行词向量预训练Doc2Vec,使用神经网络获得文本序列的向量以Transform为代表的大模型采用自注意力(Self-attention)机制来学习不同token之间的依赖关系,生成高质量embedding。大模型的“大”,指的是用于表达token之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如GPT-3拥有1750亿参数,其中权重数量达到了这一量级,而词汇表token数只有5万左右。参考:[How does an LLM"parameter"relate to a"weight"in a neural network?](https://datascience.stackexchange.com/questions/120764/how-does-an-llm-parameter-relate-to-a-weight-in-a-neural-network"How does an LLM"parameter"relate to a"weight"in a neural network?")

人人都能搞定的大模型原理 - 神经网络

了解感知器和单神经元的原理是为了后续更好的了解“基于深度神经网络机器学习”的基础。我们经常所听到的大模型有几百亿几千亿的参数,这里的参数其实就是神经网络的输入权重和输出阈值的总和。我们假定一个神经元有9个输入权重,和1个输出阈值,那么就可以说该神经元有10个参数。当我们有100亿个这样的神经元时,此时就可以说我们的神经网络模型有1000亿个参数,也就是所谓的千亿级参数的大模型。是不是贼啦简单?原来各种官方一直提到的百亿,千亿参数的大模型,原来是这个意思呢。此处我们再做一点小小的延伸~我们上述所提到的感知机(单神经元),通过一定的学习算法,可以将这个单神经元具备一定简单的智能效果,比如识别单个数字。那么你想象一下,我们单个神经元通过一定的学习算法,可以出现简单的智能效果,此时如果有100亿个神经元呢?100亿个神经元合在一起所具备的智能效果,这将是一个多么强智能的效果存在。每个神经元都只需要记住自己的一点点规则,可以具备识别出一个非常小的一个能力,此时将这个神经元的数量扩大到100亿,1000亿,这就会出现我们现在所经常听到的群体智能,即智能涌现!“智能涌现”在自然界非常典型的案例就是蚂蚁,单只蚂蚁是非常简单的智能生物,但是一旦当一群蚂蚁聚集的时候,就会建造出非常复杂的蚁巢结构。(感兴趣的可以自行搜下)而我们人脑呢?根据科学的统计是人脑中约有1000亿个神经元,这些庞大的神经元构成了非常复杂的神经网络,这也是人脑智能的基础。所以知道为什么有时候明明也没运动,但是上班一天还是要吃很多食物了吗?因为你庞大神经元的运转也是需要消耗能量的呀。AI消耗电力补充能量,而我们消耗食物来补充能量(奇奇怪怪的知识又增加了🤔)

Others are asking
图像识别模型
图像识别模型通常包括编码器和解码器部分。以创建图像描述模型为例: 编码器:如使用 inception resnet V2 应用于图像数据,且大部分情况下会冻结此 CNN 的大部分部分,因为其骨干通常是预训练的,例如通过庞大的数据集如图像网络数据集进行预训练。若想再次微调训练也是可行的,但有时仅需保留预训练的权重。 解码器:较为复杂,包含很多关于注意力层的说明,还包括嵌入层、GRU 层、注意力层、添加层归一化层和最终的密集层等。 在定义好解码器和编码器后,创建最终的 TF Keras 模型并定义输入和输出。模型输入通常包括图像输入进入编码器,文字输入进入解码器,输出则为解码器输出。在运行训练前,还需定义损失功能。 另外,还有一些相关模型的安装配置,如 siglipso400mpatch14384(视觉模型),由 Google 开发,负责理解和编码图像内容,其工作流程包括接收输入图像、分析图像的视觉内容并将其编码成特征向量。image_adapter.pt(适配器)连接视觉模型和语言模型,优化数据转换。MetaLlama3.18Bbnb4bit(语言模型)负责生成文本描述。
2025-03-28
大模型公司的数据训练成本目前大概是多少
目前,AI 大模型的训练成本较高。在数据、算力、算法三要素中,算力是基础也是大模型竞争力,但国产芯片在软件适配度、稳定性方面存在不足。大部分采用智能计算中心、自费买英伟达 A800/H800 显卡组成服务器运行、或者用价格更为实惠的服务器云来训练,成本最高的部分是前期的模型训练。 千亿参数模型的报价高达数十万元,由于训练成本高、数据筛选难度大,高昂的售价让很多客户望而却步。在预训练阶段,从互联网上获取大量文本并处理,需要 GPU 集群,通常需要数百万美元的成本。 开源模型可以由任何人托管,包括不承担大模型训练成本(高达数千万或数亿美元)的外部公司。闭源模型能否长久保持优势还是未知数。
2025-03-28
阿里集团投资了哪几个大模型公司
阿里投资的大模型公司主要有月之暗面和 MiniMax 。 去年底,阿里开始密切接触当时大模型公司中排位相对靠后的月之暗面,并在 2024 年春节前谈定投资,大手笔投资近 8 亿美元,持股比例约 40%,月之暗面投后估值来到 23.4 亿美元。 此外,阿里在今年初投资了 MiniMax 约 6 亿美元。
2025-03-28
minimax的大模型算法热点
以下是关于 MiniMax 的大模型算法热点的相关内容: 1. MiniMax 有两个适合特定任务的大模型:MiniMaxText01 支持 400 万 token 的上下文,能应对超长文章;T2A v2(speech01turbo)拥有最好的声音复刻效果。可以通过其开放平台(https://platform.minimaxi.com/login )进行注册登录及实名认证。首次注册会赠送 15 元,API 消耗会消耗余额,生成一条 3 分钟的语音,文本模型消耗 1 分钱,语音模型消耗 5 毛钱,克隆音色有额外费用,现优惠 9.9 元。接着创建 API Key 并保存好,以及 groupid。还可以克隆声音,相关链接为 https://platform.minimaxi.com/examinationcenter/voiceexperiencecenter/voiceCloning ,有创建 voice id、上传复刻音频及音频 prompt、试听文本等操作,勾选用户协议点击“克隆”选项一段时间后完成克隆,使用填写的 voice id 生成声音。 2. MiniMax 推出了 MoE 架构的新模型,其“星野”是目前国内最成功的 AI 陪聊 APP。 3. MiniMax 近日发布新模型 MiniMax01,采用线性注意力机制和 MoE 架构,显著提升上下文处理能力,支持超长上下文(400 万 Token),在多项学术基准上表现优异,超越许多国际顶尖模型。其开源旨在促进长上下文研究和应用,加速 Agent 时代的到来,通过精细架构设计和训练策略,在处理长输入时实现接近线性的计算效率。
2025-03-28
哪个大模型的API接口免费?
以下是一些提供免费 API 接口的大模型: 1. Silicon 硅基接口:有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,还赠送 14 元体验金,有效期未知。注册和使用地址为,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。它支持多种大模型,也支持文生图、图生图、文生视频。 2. 智普 GLM4 接口:在 BigModel.cn 上通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 API key。 3. 阿里的通义千问大模型:打开链接,创建个 API key。 4. 智谱 AI(ChatGLM):有免费接口。 5. 科大讯飞(SparkDesk):有免费接口。 此外,谷歌的 Gemini 大模型(gemini 1.5)和海外版 Coze 的 GPT4 模型是免费的,但需要给服务器挂梯子。
2025-03-28
大模型时代组织和个人面临的挑战和应对策略是什么?
在大模型时代,组织和个人面临着以下挑战和应对策略: 挑战: 1. 算力投资风险:大规模算力投资使公司转变为重资产模式,可能影响公司估值和投资人收益。获取高性能算力成本高昂,包括 GPU 价格及后续部署、运营、调试和使用成本。 2. 估值泡沫风险:创业公司为抬高估值规避算力风险,可能成为突破的绊脚石,类似荷兰郁金香泡沫,当风口过去,真实收入将成为关键指标。 应对策略: 1. 对于创业公司: 挖掘新的价值点,如探索大模型在不同领域的应用,或开发中间层服务,如训练、数据处理、算力服务等。 避免盲目追逐原创大模型,根据自身情况选择合适的发展路径,如套壳开源大模型或拼装大模型时注重创新和突破。 2. 对于投资人: 保持独立判断,不人云亦云,吸取以往经验教训,专注于更有创意和机会的公司或项目。
2025-03-28
视觉大模型的代表模型有哪些
以下是一些视觉大模型的代表模型: 1. Flamingo:一系列视觉语言(VL)模型,能处理交错的视觉数据和文本,并生成自由格式的文本输出。 2. BLIP2:引入资源效率更高的框架,包括用于弥补模态差距的轻量级 QFormer,能利用冻结的 LLM 进行零样本图像到文本的生成。 3. LLaVA:率先将 IT 技术应用到 MM 领域,引入新型开源 MM 指令跟踪数据集及基准 LLaVABench 以解决数据稀缺问题。 4. MiniGPT4:提出简化方法,仅训练一个线性层即可将预训练的视觉编码器与 LLM 对齐,复制 GPT4 的功能。 5. mPLUGOwl:提出新颖的 MMLLMs 模块化训练框架,结合视觉上下文,包含 OwlEval 教学评估数据集。 6. XLLM:扩展到包括音频在内的各种模式,具有强大的可扩展性,利用 QFormer 的语言可迁移性应用于汉藏语境。 7. VideoChat:开创高效的以聊天为中心的 MMLLM 用于视频理解对话,为该领域的未来研究制定标准。 8. Sora:符合视觉模型的规模化定律,是第一个展示确认新兴能力的视觉模型,包括遵循指令、视觉提示工程和视频理解等功能,能够根据人类指令生成长达一分钟的视频。 9. CLIP:开创性的视觉语言模型,将变压器架构与视觉元素结合,能在多模态生成框架中充当图像编码器。 10. Stable Diffusion:多才多艺的文本到图像 AI 模型,采用变压器架构和潜在扩散技术生成各种风格的图像。
2025-03-20
以DeepSeek R1为代表的推理模型,与此前模型(如 ChatGPT-4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于
以 DeepSeek R1 为代表的推理模型与此前模型(如 ChatGPT4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于: 1. 技术路线:DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 一样,属于基于强化学习 RL 的推理模型。 2. 思考方式:在回答用户问题前,R1 会先进行“自问自答”式的推理思考,模拟人类的深度思考,从用户初始问题出发,唤醒所需的推理逻辑与知识,进行多步推导,提升最终回答的质量。 3. 训练方式:在其他模型还在接受“填鸭式教育”时,DeepSeek R1 已率先进入“自学成才”的新阶段。 4. 模型制作:R1 是原生通过强化学习训练出的模型,而蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。此外,DeepSeek R1 还能反过来蒸馏数据微调其他模型,形成互相帮助的局面。 5. 与 Claude 3.7 Sonnet 相比,Claude 3.7 Sonnet 在任务指令跟随、通用推理、多模态能力和自主编程方面表现出色,扩展思考模式在数学和科学领域带来显著提升,在某些方面与 DeepSeek R1 各有优劣。
2025-03-19
推理类模型,以deepseek为代表,与此前的聊天型ai,比如chatgpt3.5,有什么差异
推理类模型如 DeepSeek 与聊天型 AI 如 ChatGPT3.5 存在以下差异: 1. 内部机制:对于大语言模型,输入的话会被表示为高维时间序列,模型根据输入求解并表示为回答。在大模型内部,是根据“最大化效用”或“最小化损失”计算,其回答具有逻辑性,像有自己的思考。 2. 多模态能力:ChatGPT3.5 是纯语言模型,新一代 GPT 将是多模态模型,能把感官数据与思维时间序列一起作为状态,并装载在人形机器人中,不仅能对话,还能根据看到、听到的事进行判断,甚至想象画面。 3. 超越人类的可能性:有人假设人按最大化“快乐函数”行动,只要“效用函数”足够复杂,AI 可完全定义人,甚至超越人类。如在“短期快乐”与“长期快乐”的取舍上,人类难以找到最优点,而 AI 可通过硬件算力和强化学习算法实现,像 AlphaGo 击败世界冠军,在复杂任务上超越人类。 4. 应用领域:文字类的总结、润色、创意是大语言模型 AI 的舒适区,如从 ChatGPT3.5 问世到 ChatGPT4 提升,再到 Claude 3.5 sonnet 在文学创作领域取得成绩,只要有足够信息输入和合理提示词引导,文案编写可水到渠成。
2025-03-18
现在AI应用都有哪些代表性的工具,请用表格展示出来
|序号|已有产品|主题|使用技术|市场规模|一句话介绍|项目功能| |||||||| |81|下厨房口味调整功能|AI 菜谱口味调整工具|自然语言处理、数据分析|数亿美元|根据用户反馈调整菜谱口味|下厨房的口味调整功能可根据用户对菜谱的评价,利用 AI 分析后给出口味调整建议,如增加甜度、减少辣味等| |82|英语流利说纠错功能|AI 语言学习纠错平台|自然语言处理、机器学习|数十亿美元|帮助语言学习者纠正错误|英语流利说通过 AI 技术识别用户在语言学习中的发音、语法等错误,并提供纠正建议和练习| |83|豆瓣电影剧情分析工具|AI 电影剧情分析系统|数据分析、自然语言处理|数亿美元|分析电影剧情,提供深度解读|豆瓣电影的剧情分析工具利用 AI 对电影剧情进行分析,为用户提供剧情解析、主题探讨等内容| |84|腾讯文档分类功能|AI 办公文件分类系统|数据分析、机器学习|数亿美元|自动分类办公文件,方便管理|腾讯文档利用 AI 对用户上传的文件进行分类,如合同、报告、方案等,提高文件管理效率| |85|美丽修行定制方案功能|AI 美容护肤方案定制平台|图像识别、数据分析|数亿美元|根据用户肤质定制护肤方案|美丽修行根据用户上传的照片和肤质信息,利用 AI 定制个性化的护肤方案,包括产品推荐和使用顺序| |91|游戏内商城推荐功能|AI 游戏道具推荐系统|数据分析、机器学习|数亿美元|根据玩家需求推荐游戏道具|在一些游戏中,利用 AI 分析玩家的游戏风格和进度,为玩家推荐合适的游戏道具,如武器、装备等| |92|彩云天气分时预报|AI 天气预报分时服务|数据分析、机器学习|数亿美元|提供精准的分时天气预报|彩云天气利用 AI 提供每小时的天气预报,帮助用户更好地安排出行和活动| |93|医渡云病历分析系统|AI 医疗病历分析平台|数据分析、自然语言处理|数十亿美元|分析医疗病历,辅助诊断|医渡云利用 AI 分析医疗病历中的症状、检查结果等信息,为医生提供辅助诊断建议| |94|讯飞听见会议总结功能|AI 会议发言总结工具|自然语言处理、机器学习|数亿美元|自动总结会议发言内容|讯飞听见在会议中利用 AI 自动总结发言者的主要观点和重点内容,方便回顾和整理| |95|书法临摹软件|AI 书法作品临摹辅助工具|图像识别、数据分析|数亿美元|帮助书法爱好者进行临摹|书法临摹软件利用 AI 识别书法作品的笔画和结构,为用户提供临摹指导和评价| |7|AI 简历优化工具|超级简历优化助手|自然语言处理|数亿美元|帮助用户优化简历提高求职成功率|超级简历优化助手分析简历内容并提供优化建议| |8|酷家乐|AI 室内设计方案生成|图像生成、机器学习|数十亿美元|快速生成个性化室内设计方案|酷家乐允许用户上传户型图,通过 AI 生成多种设计方案| |9|Amper Music|AI 音乐创作辅助工具|机器学习、音频处理|数亿美元|协助音乐创作者进行创作|Amper Music 根据用户需求生成旋律和编曲| |10|松果倾诉智能助手|AI 情感咨询助手|自然语言处理、情感分析|数亿美元|提供情感支持和建议|松果倾诉智能助手通过文字或语音交流为用户提供情感咨询| |11|小佩宠物智能设备|AI 宠物健康监测设备|传感器数据处理、机器学习|数十亿美元|实时监测宠物健康状况|小佩宠物智能设备可监测宠物活动、饮食等,提供健康预警| |12|马蜂窝智能行程规划|AI 旅游行程规划器|数据分析、自然语言处理|数十亿美元|根据用户需求生成个性化旅游行程|马蜂窝智能行程规划根据目的地、时间等因素为用户定制旅游路线|
2025-03-02
案例:借助人工智能技术的诈骗 一、案例材料 1.背景资料 (1)近期全国范围内出现了一种新型电信诈骗——AI换脸诈骗,该诈骗利用AI人工智能,通过“换脸”和“拟声”技术模仿受害人的朋友或亲戚的声音和外貌,以此骗取受害者的信任,进行网络诈骗,近日包头警方就根据一起典型案例,向大家发出了防范AI换脸诈骗的警示。 财联社5月22日讯,据平安包头微信公众号消息,包头警方发布了一起利用人工智能(AI)实施电信诈骗的典型案例,一家福州市科技公司的法人代表郭先生竟在短短10分钟内被骗走了430万元人民币。
以下是关于 AI 的相关内容: 律师如何写好提示词用好 AI: 对于不具备理工科背景的文科生,可将 AI 视为黑箱,只需知道其能模仿人类思维理解和输出自然语言。AI 就像似人而非人的存在,与传统道教的驱神役鬼拘灵遣将有相似之处。提示词应是相对完善的“谈话方案”,成果在与 AI 的对话中产生,要接受其存在的“不稳定性”,并在对话中限缩自己思维的模糊地带。 AI 的应用场景: 医疗保健:包括医学影像分析、药物研发、个性化医疗、机器人辅助手术等。 金融服务:涵盖风控和反欺诈、信用评估、投资分析、客户服务等。 零售和电子商务:有产品推荐、搜索和个性化、动态定价、聊天机器人等。 制造业:包含预测性维护、质量控制、供应链管理、机器人自动化等。 交通运输:(未具体阐述)
2024-12-25
AI 提示词对是做什么的,user 和 assistant 代表什么?
AI 提示词是用于向语言模型传递指令、问题或其他详细信息,以指导模型生成更好的结果。其质量与提供的信息数量和完善度有关。 在使用 OpenAI 的 gpt4 或者 gpt3.5turbo 等聊天模型时,可以使用三个不同的角色来构建 prompt:system、user 和 assistant。其中,system 不是必需的,但有助于设定 assistant 的整体行为,帮助模型了解用户的需求,并根据这些需求提供相应的响应。user 代表用户传递给模型的消息,而 assistant 的消息则是模型给出的响应。 提示工程(Prompt Engineering)就是探讨如何设计出最佳提示词,用于指导语言模型帮助我们高效完成某项任务。例如,可以通过改进提示词来获得更符合需求的输出结果。语言模型能够基于给出的上下文内容进行续写,但输出结果可能出人意料,通过优化提示词可改善。 此外,从提示词的视角看大模型的输出,可分为系统提示词、用户提示和助手提示词三段,这三段内容是连续的。攻击者可能通过操纵模型输出获取系统提示词,而系统提示词包含应用的原信息、功能设定、产品设定以及 AI 应用的逻辑等。
2024-12-11