Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

什么模型

Answer

以下为一些常见的模型:

  • 智谱·AI 开源模型:
    • WebGLM-10B:利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统,旨在通过将网络搜索和检索功能集成到预训练的语言模型中,改进现实世界的应用部署。代码链接:WebGLM,模型下载:Huggingface
    • WebGLM-2B:代码链接:Huggingface
    • MathGLM-2B:在训练数据充足的情况下,20 亿参数的 MathGLM 模型能够准确地执行多位算术运算,准确率几乎可以达到 100%,其结果显著超越最强大语言模型 GPT-4 在相同测试数据上 18.84%的准确率。代码链接:MathGLM,模型下载:THU-Cloud
    • MathGLM-500M:模型下载:THU-Cloud
    • MathGLM-100M:模型下载:THU-Cloud
    • MathGLM-10M:模型下载:THU-Cloud
    • MathGLM-Large:采用 GLM 的不同变体作为骨干来训练 MathGLM,包括具有 335M 参数的 GLM-large 和 GLM-10B。此外,还使用 ChatGLM-6B 和 ChatGLM2-6B 作为基座模型来训练 MathGLM。这些骨干模型赋予 MathGLM 基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。模型下载:THU-Cloud
  • OpenAI 模型:
    • GPT-4 Beta:一组改进 GPT-3.5 的模型,可以理解和生成自然语言或代码
    • GPT-3.5:一组改进 GPT-3 的模型,可以理解并生成自然语言或代码
    • DALL·E Beta:可以在给定自然语言提示的情况下生成和编辑图像的模型
    • Whisper Beta:可以将音频转换为文本的模型
    • Embeddings:一组可以将文本转换为数字形式的模型
    • Codex Limited Beta:一组可以理解和生成代码的模型,包括将自然语言转换为代码
    • Moderation:可以检测文本是否敏感或不安全的微调模型
    • GPT-3:一组可以理解和生成自然语言的模型
  • Qwen 2 模型:
    • 包括 5 种尺寸的预训练和指令调整模型,分别是 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B。
    • 除英语和中文外,还接受过另外 27 种语言的数据训练。
    • 在大量基准评估中表现出最先进的性能,代码和数学性能显著提高,全面超越 llama3。
    • 增大了上下文长度支持,最高达到 128K tokens(Qwen2-72B-Instruct)。其中 72B 和 7B 可处理 128k 上下文,57B-A14B 可处理 64k 上下文,0.5B 和 1.5B 可处理 32k 上下文。
    • 在 MMLU、GPQA、HumanEval、GSM8K、BBH、MT-Bench、Arena Hard、LiveCodeBench 等国际权威测评中,Qwen2-72B 获十几项世界冠军,超过美国的 Llama3。
Content generated by AI large model, please carefully verify (powered by aily)

References

智谱·AI 开源模型列表

以下模型,以便用户使用我们多元化的产品。|模型|介绍|代码链接|模型下载||-|-|-|-||WebGLM-10B|利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统。它旨在通过将网络搜索和检索功能集成到预训练的语言模型中,改进现实世界的应用部署。|[WebGLM](https://github.com/THUDM/WebGLM)|[Huggingface](https://huggingface.co/THUDM/WebGLM)||WebGLM-2B|||[Huggingface](https://huggingface.co/THUDM/WebGLM-2B)||MathGLM-2B|在训练数据充足的情况下,20亿参数的MathGLM模型能够准确地执行多位算术运算,准确率几乎可以达到100%,其结果显著超越最强大语言模型GPT-4在相同测试数据上18.84%的准确率。|[MathGLM](https://github.com/THUDM/MathGLM)|[THU-Cloud](https://cloud.tsinghua.edu.cn/d/cf429216289948d889a6/)||MathGLM-500M|||[THU-Cloud](https://cloud.tsinghua.edu.cn/d/c80046ec7e234be4831b/)||MathGLM-100M|||[THU-Cloud](https://cloud.tsinghua.edu.cn/d/a6ca369a212c4df08359/)||MathGLM-10M|||[THU-Cloud](https://cloud.tsinghua.edu.cn/d/16a914d6db2a4b8f80f5/)||MathGLM-Large|采用GLM的不同变体作为骨干来训练MathGLM,包括具有335M参数的GLM-large和GLM-10B。此外,还使用ChatGLM-6B和ChatGLM2-6B作为基座模型来训练MathGLM。这些骨干模型赋予MathGLM基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。||[THU-Cloud](https://cloud.tsinghua.edu.cn/d/3d138deaf93441b196fb/)|

模型(Models)

OpenAI API由具有不同功能和价位的多种模型提供支持。您还可以通过[微调(fine-tuning)](https://ywh1bkansf.feishu.cn/wiki/ATYCwS5RRibGXNkvoC4ckddLnLf),针对您的特定用例对我们的原始基本模型进行有限的定制。|模型|描述||-|-||[GPT-4](https://platform.openai.com/docs/models/gpt-4)Beta|一组改进GPT-3.5的模型,可以理解和生成自然语言或代码||[GPT-3.5](https://platform.openai.com/docs/models/gpt-3-5)|一组改进GPT-3的模型,可以理解并生成自然语言或代码||[DALL·E](https://platform.openai.com/docs/models/dall-e)Beta|可以在给定自然语言提示的情况下生成和编辑图像的模型||[Whisper](https://platform.openai.com/docs/models/whisper)Beta|可以将音频转换为文本的模型||[Embeddings](https://platform.openai.com/docs/models/embeddings)|一组可以将文本转换为数字形式的模型||[Codex](https://platform.openai.com/docs/models/codex)Limited Beta|一组可以理解和生成代码的模型,包括将自然语言转换为代码||[Moderation](https://platform.openai.com/docs/models/moderation)|可以检测文本是否敏感或不安全的微调模型||[GPT-3](https://platform.openai.com/docs/models/gpt-3)|一组可以理解和生成自然语言的模型|

Qwen 2开源了 模型性能超越目前所有开源模型和国内闭源模型

5种尺寸的预训练和指令调整模型,包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B;(Qwen2-57B-A14B这个模型可以重点看看除英语和中文外,还接受过另外27种语言的数据训练;在大量基准评估中表现出最先进的性能;在大量基准评估中获得SOTA性能。代码和数学性能显著提高,全面超越llama3增大了上下文长度支持,最高达到128K tokens(Qwen2-72B-Instruct)。HF最新榜第一72B和7B可处理128k上下文57B-A14B可处理64k上下文0.5B和1.5B可处理32k上下文相比2月推出的通义千问Qwen1.5,Qwen2实现了整体性能的代际飞跃。在权威模型测评榜单OpenCompass中,此前开源的Qwen1.5-110B已领先于文心4.0等一众中国闭源模型。刚刚开源的Qwen2-72B,整体性能相比Qwen1.5-110B又取得了大幅提升。(图说:在上海人工智能实验室推出的OpenCompass大模型测评榜单上,此前开源的Qwen1.5-110B已领先于文心4.0等一众中国闭源模型)通义千问Qwen2系列模型大幅提升了代码、数学、推理、指令遵循、多语言理解等能力。在MMLU、GPQA、HumanEval、GSM8K、BBH、MT-Bench、Arena Hard、LiveCodeBench等国际权威测评中,Qwen2-72B获十几项世界冠军,超过美国的Llama3。(图说:Qwen2-72B在十多个权威测评中获得冠军,超过美国的Llama3-70B模型)

Others are asking
deepseek与chatgpt有本质上的不同吗?是否引入了全新的ai技术和模型?
DeepSeek R1 与 ChatGPT 有本质上的不同。DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 同属于基于强化学习 RL 的推理(Reasoning)模型,在回答用户问题前会先进行“自问自答”式的推理思考,以提升最终回答的质量,这种“自问自答”是模拟人类的深度思考。 而多数其他 AI 模型还在接受“填鸭式教育”时,DeepSeek R1 已率先进入“自学成才”的新阶段。 此外,DeepSeek R1 具备强大、便宜、开源、免费、联网和本土等六大优势,全面超过现有 AI 大模型。它在美国 App Store 夺冠,超越 OpenAI 的 ChatGPT,成为开源 AI 领域的领军者。其 R1 模型以仅 27 分之一的成本实现卓越表现,创新的 R1 Zero 模型显示出模型思考能力的自我涌现,或将引领 AGI 的新方向。
2025-03-13
大模型应用产品设计流程
构建大模型应用产品的设计流程包括以下关键步骤和要点: 1. 框架选择:根据项目需求选择合适的开发框架,这是非常关键的一步。 2. 了解业务需求:深入了解业务背后的深层次需求,确保模型能够解决实际问题,并据此设定流程环节。 3. 提示词设计:在每个环节中精心设计提示词,引导模型提供准确和有用的回复。提示词的设计直接影响模型的输出质量和应用的实际效果。 4. 遵守标准:确保应用在提供服务的同时,遵守安全和伦理标准。 5. 测试与迭代:通过不断的测试和迭代,优化模型性能和用户体验。 6. 部署与维护:成功部署应用后,还需要持续的维护和更新以适应不断变化的需求。 7. 工程化:不做工程化终究会让模型应用变得无法维护。 此外,在实际应用中落地大型模型时,永远是解决方案优先。大型模型通常位于基础层,应更注重模型之上构建的应用,切实解决服务对象面临的实际问题。基于大模型的产品虽然“简约但不简单”,人们会针对特定需求设定模型的功能,并进行有目标的开发。通过掌握这些关键点,可以确保构建的模型应用不仅技术先进,而且能真正解决用户问题,提供有价值的服务。
2025-03-13
本地部署大模型
以下是关于本地部署大模型的相关内容: SDXL 大模型的本地部署: 1. SDXL 的大模型分为两个部分: 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 模型获取:这三个模型已放入云盘链接,可关注公众号【白马与少年】,回复【SDXL】获取下载链接。 3. 部署步骤: 首先在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 完成后启动 webUI,即可在模型中看到 SDXL 的模型。 从 LLM 大语言模型、知识库到微信机器人的全本地部署教程: 1. 部署大语言模型: 下载并安装 Ollama:点击进入 https://ollama.com/download ,根据电脑系统下载,下载完成后双击打开,点击“Install”。安装完成后,将下方地址复制进浏览器中,若出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型): 如果是 windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车,等待完成。 ComfyUI ollama 本地大模型部署: 1. 先下载 ollama 安装,安装好了不会有任何界面弹出,可以在电脑桌面右下角或者隐藏图标里面找到。 2. 之后再去下载对应的模型,选择模型,复制对应的命令。 3. 打开命令行界面,输入对应的模型获取命令,等待下载完成。 4. 设置目录:下载的模型后面会保存到 D:\\ollama\\blobs 。 5. docker 安装:安装会下载一些文件,安装后改下目录,不要放在 C 盘。 6. Open webui 安装:输入相关命令,安装成功后,回到 docker,点击会自动打开网页,第一次使用需要注册一个账号,选择一个下载好的模型就可以开始使用。 相关链接: 1. ComfyUI ollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile 2. Ollama:https://ollama.com/ 3. docker:https://www.docker.com/ 4. Open webui:https://openwebui.com/ 若遇到端口占用问题,运行下面两条命令可以解决。
2025-03-13
如何坐大模型云端部署
以下是关于大模型云端部署的相关信息: SDXL 大模型云端部署: 1. 模型准备:SDXL 的大模型分为 base+refiner 和配套的 VAE 模型。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 2. 版本升级:在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 放置模型:将 base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。 4. 启动使用:启动 webUI,在模型中即可看到 SDXL 的模型,可在文生图中使用 base 模型,填写提示词和常规参数进行生成。 把大模型接入小米音箱: 参考 migptgui 官方教学:https://migptgui.com/docs/intro/docker 。 步骤包括: 1. 安装 Docker。 2. 下载镜像。 3. 在终端中运行。 4. 打开,如果是部署在服务器里的 Docker,请使用服务器的 IP 地址替换 localhost,例如 http://192.168.1.1:36592 。 部署和训练自己的 AI 开源模型: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 总的来说,部署和训练自己的大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-03-13
java程序员怎么转型大模型算法工程师
以下是为 Java 程序员转型大模型算法工程师提供的一些建议: 1. 学习相关理论知识:了解大模型的基本原理,包括模型架构、预训练及微调、部署及推理等。 2. 掌握技术工具:熟悉 LLM 相关技术,如 Transformer、Prompt Tuning、RLHF、Langchain、Agent、MOE、RAG 等。 3. 提升编程能力:熟悉算法和数据结构,具备扎实的编程基础,尤其是 Python 开发。 4. 积累项目经验: 可以参考大圣的全网最适合小白的 Llama3 部署和微调教程,该教程手把手教您下载并部署 Llama3 模型,使用甄嬛数据集微调模型,并了解微调的意义和概念。但需注意,此教程不会讲解微调的技术性原理及文中用到的 Python 代码。 关注招聘信息,例如序智科技和中国移动设计院的招聘需求,了解大模型算法工程师的职责和要求,针对性地提升自己的能力。 5. 增强相关技能: 对至少 2 个框架具备源码级别的理解和优化能力,包括但不限于 Langchain、XAgent、ChatDev、DsPy、AutoGPT、BabyAGI、MetaGPT。 熟悉 GPT Function Calling 原理,熟练掌握 Prompt Engineering。 对预训练/微调(尤其是微调)熟练,熟练掌握 huggingface/deepspeed(或其他框架)。 对多模态大模型有一定了解,精通低代码平台会是加分项。 您可以根据自身情况,有针对性地进行学习和实践,逐步实现从 Java 程序员向大模型算法工程师的转型。
2025-03-12
列举出不同的 embedding模型
以下是不同的 embedding 模型: 1. 词嵌入: Word2Vec:包括 CBOW(Continuous BagofWords)和 SkipGram 模型,由 Google 提出,用于学习单词之间的语义关系。 GloVe(Global Vectors for Word Representation):由斯坦福大学开发,旨在结合全局统计信息和局部上下文窗口的优势来生成单词嵌入。 FastText:由 Facebook AI 团队推出,不仅考虑单个单词,还考虑内部字符 ngram,对于罕见词汇有更好的表现。 ELMo(Embeddings from Language Models):利用双向 LSTM 对整个句子进行建模,产生上下文敏感的单词嵌入。 2. 情景化的词嵌入: BERT(Bidirectional Encoder Representations from Transformers):由 Google 推出,利用 Transformer 架构的预训练模型,能够根据上下文提供动态的单词嵌入。 GPT(Generative Pretraining Transformer)及其后续版本 GPT2/3/4:由 OpenAI 开发,也是基于 Transformer 的自回归模型,同样能产出上下文相关的嵌入。 XLNet、RoBERTa 等都是 BERT 之后改进或扩展的预训练模型。 3. 句子和文档嵌入: Doc2Vec:扩展了 Word2Vec,能够为整个文档生成统一的向量表示。 Average Word Embeddings:将一段文本中所有单词的嵌入取平均作为整体的文本表示。 Transformers Sentence Embeddings:如 BERT 的标记对应的向量,或者专门针对句子级别的模型如 SentenceBERT。 4. 实体/概念嵌入: Knowledge Graph Embeddings:如 TransE、DistMult、ComplEx 等,用于将知识图谱中的实体和关系嵌入到低维向量空间中。 5. 其他类型: 图像 Embeddings:使用卷积神经网络(CNN)进行图像特征提取,得到的特征向量即为图像嵌入。 音频 Embeddings:在语音识别和声纹识别中,将声音信号转化为有意义的向量表示。 用户/物品 Embeddings:在推荐系统中,将用户行为或物品属性映射到低维空间以进行协同过滤或基于内容的推荐。 图 Embeddings:是用于学习图结构的表示学习方法,将图中的节点和边映射到低维向量空间中。通过学习图嵌入,可以将复杂的图结构转化为向量表示,以捕捉节点之间的结构和关联关系。这些方法可以通过 DeepWalk、Node2Vec、GraphSAGE 等算法来实现。图嵌入在图分析、社交网络分析、推荐系统等领域中广泛应用,用于发现社区结构、节点相似性、信息传播等图属性。 此外,以 OpenAI 为例,第一代嵌入模型(不推荐)包括: 所有第一代模型(以001 结尾的模型)都使用 GPT3 分词器,最大输入为 2046 个分词。 第一代嵌入由五个不同的模型系列生成,这些模型系列针对三个不同的任务进行了调整:文本搜索、文本相似性和代码搜索。 相似性嵌入:textsimilaritybabbage001、textsimilaritycurie001、textsimilaritydavinci001。 文本搜索嵌入:textsearchadaquery001、textsearchbabbagedoc001、textsearchbabbagequery001、textsearchcuriedoc001、textsearchcuriequery001、textsearchdavincidoc001、textsearchdavinciquery001。 代码搜索嵌入:codesearchadatext001、codesearchbabbagecode001、codesearchbabbagetext001。 对于001 文本嵌入(不是002,也不是代码嵌入),建议将输入中的换行符替换为单个空格,因为当存在换行符时可能会有更糟糕的结果。
2025-03-12