Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

智谱

Answer

智谱 AI 相关信息如下:

  • 2024 年 10 月 AI 行业大事记中,智谱开源了文生图模型 CogView3-Plus-3B。
  • 智谱 AI 开源的语言模型列表(Chat 模型):
    • ChatGLM2-6B-32k:第二代 ChatGLM 长上下文对话模型,在 ChatGLM2-6B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
    • ChatGLM2-6B-32k-int4:ChatGLM2-6B-32K 的 int4 版本。
    • ChatGLM-6B:第一代 ChatGLM 对话模型,支持中英双语,基于 General Language Model(GLM)架构,具有 62 亿参数。
    • ChatGLM2-6B:第二代 ChatGLM 对话模型,相比一代模型性能更强,基座模型的上下文长度从 2k 扩展到 32k,在对话阶段使用 8K 的上下文长度训练,推理速度相比初代提升 42%。
    • ChatGLM2-6B-int4:ChatGLM2-6B 的 int4 量化版本,具备最小 5.1GB 显存即可运行,INT4 量化下,6G 显存支持的对话长度由 1K 提升到了 8K。
Content generated by AI large model, please carefully verify (powered by aily)

References

2024年10月盘点:AI 行业大事记

智谱●👑开源文生图模型CogView3-Plus-3BAdobe●推出AI旋转工具Project Turntable新华社发布《人工智能时代新闻媒体的责任与使命》OpenAI起诉Open AI10月15日上海交大●👑开源F5-TTS联想创新科技大会202410月16日英伟达●👑开源Llama-3.1-Nemotron-70B-InstructSuno●将视频和图片生成音乐10月17日OPPO●小布助手「一键问屏」功能扣子●上线AI最佳实践模板Mistral AI●发布端侧模型Ministral 3B/8B字节●实习生田某某破坏模型训练事件10月18日OpenAI●推出Windows版ChatGPTLiblibAI●开放全新生图API上海推出AI百亿基金规划10月21日WSJ和NYT正式起诉Perplexity智源●发布原生多模态世界模型Emu3昆仑万维&北大●提出通用框架MoE++10月22日

智谱·AI 开源模型列表

下表为智谱AI开源的语言模型列表|模型|介绍|上下文token数|代码链接|模型权重下载链接||-|-|-|-|-||ChatGLM2-6B-32k|第二代ChatGLM长上下文对话模型。ChatGLM2-6B-32K在[ChatGLM2-6B](https://huggingface.co/THUDM/chatglm2-6b)的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体地,我们基于[位置插值](https://arxiv.org/abs/2306.15595)(Positional Interpolation)的方法对位置编码进行了更新,并在对话阶段使用32K的上下文长度训练。在实际的使用中,如果您面临的上下文长度基本在8K以内,我们推荐使用[ChatGLM2-6B](https://huggingface.co/THUDM/chatglm2-6b);如果您需要处理超过8K的上下文长度,我们推荐使用ChatGLM2-6B-32K。|32K||[Huggingface](https://huggingface.co/THUDM/chatglm2-6b-32k)|魔搭社区|始智社区|启智社区||ChatGLM2-6B-32k-int4|ChatGLM2-6B-32K的int4版本|32K||[Huggingface](https://huggingface.co/THUDM/chatglm2-6b-32k-int4)|魔搭社区|始智社区|启智社区||ChatGLM-6B|第一代ChatGLM对话模型。支持中英双语的对话语言模型,基于[General Language Model(GLM)](https://github.com/THUDM/GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署。|2K|[ChatGLM](https://github.com/THUDM/ChatGLM-6B)|[Huggingface](https://huggingface.co/THUDM/chatglm-6b)|魔搭社区|始智社区|启智社区|

智谱·AI 开源模型列表

下表为智谱AI开源的语言模型列表|模型|介绍|上下文token数|代码链接|模型权重下载链接||-|-|-|-|-||ChatGLM2-6B|第二代ChatGLM对话模型。相比一代模型,具有更强的性能,且其基座模型的上下文长度从2k扩展到32k,并在对话阶段使用8K的上下文长度训练。推理速度相比初代提升42%。|8K|[ChatGLM2](https://github.com/THUDM/ChatGLM2-6B)|[Huggingface](https://huggingface.co/THUDM/chatglm2-6b)|魔搭社区|始智社区|启智社区||ChatGLM2-6B-int4|ChatGLM2-6B的int4量化版本,具备最小5.1GB显存即可运行。INT4量化下,6G显存支持的对话长度由1K提升到了8K。|8K||[Huggingface](https://huggingface.co/THUDM/chatglm2-6b-int4)[](https://huggingface.co/THUDM/chatglm2-6b-int4)|魔搭社区|始智社区|启智社区|

Others are asking
智谱清言
智谱清言是智谱 AI 和清华大学推出的大模型产品,其基础模型为 ChatGLM 大模型。2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。 模型特点: 工具使用排名国内第一。 在计算、逻辑推理、传统安全能力上排名国内前三。 更擅长专业能力,但代码能力有优化空间,知识百科与其他第一梯队模型相比稍显不足。综合来看,是很有竞争力的大模型。 适合应用: 场景广泛,可优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。 在较复杂推理应用上效果不错。 广告文案、文学写作方面也是很好的选择。 在对结构化 prompt 的测试和反馈中,输入智谱清言后,问题和文心一言一样,需先改写再看输出效果。改写后效果不错,能理解 prompt,输出内容感觉良好。这里最大的体会是结构化 prompt 非常重要,要从结构化开始,且要不断迭代,根据输出结果不断优化。
2025-01-20
智谱AI插件在哪儿调用
智谱 AI 插件的调用方式如下: 针对智谱,重复类似操作,调用的是 https://chatglm.cn/chatglm/backendapi/v1/conversation/recommendation/list 接口。这里只用到了 conversation_id 一个字段,用的是 GET 请求。通过此接口返回问题,参数用的是整轮对话窗口的唯一 Id:66c01d81667a2ddb444ff878 。 打开飞书多维表格,新增列时,您可以选择字段捷径,在字段捷径的 AI 中心,找到智谱 AI 的字段插件。智谱 AI 近期发布了 3 个飞书多维表格的字段插件:AI 内容生成、AI 视频生成和 AI 数据分析。 在微信超级 AI 知识助手教学(上)—智谱共学营智能纪要中,有智谱大语言模型的使用与功能介绍,包括角色扮演模型设置、变量插入方法、插件调用情况等。还提到了智浦轻颜的功能与应用,如文章总结功能、视频生成功能、画图功能等,以及多维表格相关内容。
2025-01-02
智谱AI插件在哪儿
智谱 AI 插件可在飞书多维表格中找到。具体操作如下: 1. 打开飞书多维表格,新增列时,选择字段捷径。 2. 在字段捷径的 AI 中心,就能找到智谱 AI 的字段插件,包括 AI 内容生成、AI 视频生成和 AI 数据分析插件。 智谱 AI 的 3 个字段插件均免费,您可以尝试将其运用在工作中。同时,若想基于 GLM4Flash 开发更多免费插件,可参考。
2025-01-02
COZE 和智谱AI的优缺点对比
COZE 的优点: 1. 逼真且有沉浸感:通过图片和文字描述模拟急诊室的真实场景,用户可体验到紧张真实的医疗环境。可进一步增加场景细节,如急诊室的声音效果,增强沉浸感。 2. 互动性强:设置多个决策点,用户需做出选择,提高用户参与感和学习效果。可引入更多分支场景,根据用户不同选择生成不同结局,提高互动的深度和多样性。 3. 情感共鸣:通过详细的病人背景故事,用户能更好理解患者处境,增强同理心。可增加更多病人案例,覆盖不同病情和背景,使情感共鸣更丰富多样。 4. 延续字节风格,能自己做闭环,可在工作流基础上用用户界面包装成产品发布。 COZE 的缺点:商业化探索尚未铺开,用户来源不明确。目前没有明确信息表明其是否开源,社区参与和开源协作程度可能不如 Dify。 智谱 AI 的优点: 目前信息中未明确提及智谱 AI 的具体优点。 智谱 AI 的缺点: 目前信息中未明确提及智谱 AI 的具体缺点。 两者的对比: 1. 开源性:Dify 是开源的,允许开发者自由访问和修改代码;Coze 目前没有明确信息表明其是否开源。 2. 功能和定制能力:Dify 提供直观界面,结合多种功能,支持通过可视化编排基于任何 LLM 部署 API 和服务;Coze 提供丰富插件能力和高效搭建效率,支持发布到多个平台作为 Bot 能力使用。 3. 社区和支持:Dify 作为开源项目有活跃社区,开发者可参与共创共建;Coze 可能更多依赖官方更新和支持,社区参与和开源协作程度可能不如 Dify。
2024-12-31
帮我查一下这四家主流大模型的应用能力评测报告吧,通用能力和单项能力都可,数据需要权威一些文心一言 文心一格 通义千问 通义万相 讯飞星火 ai小科 智谱
以下是为您找到的关于主流大模型应用能力评测的相关报告: 小七姐的测评: 测评机制:以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对智谱清言、文心一言 4.0、Kimi Chat 进行测评。 能力考量:包括复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:共分为五轮,分别针对不同的任务和模型进行多次测试。 中文大模型基准测评 2023 年度报告: 优秀模型:文心一言 4.0 API(百度)。 模型特点:在计算、逻辑推理、生成与创作、传统安全这 4 大基础能力上排名国内第一,在代码、知识与百科、语言理解与抽取、工具使用能力上排名国内前三,各项能力表现均衡且水平较高。 适合应用:能力栈广泛,可应用于查询搜索知识应用、任务拆解规划 Agent、文案写作、代码编写及纠错等方面,在逻辑推理方面表现不俗,可关注在科学研究、教育、工业方面的落地能力。 观点文章中的测评: 目前体验效果比较好的有科大星火模型、清华 ChatGLM、百度文心一言。 星火目前感觉最接近 GPT3.5(0301 版本)的 80%90%,但 GPT3.5 进化到 6 月版本效果更强。 对大模型的评估可从基础能力、职场能力、探索对话三个方面判断,基础能力包括语言(文本)生成和语言理解,如常识类问题和分词类问题。
2024-12-27
智谱 注册送2000万 tokens
智谱 BigModel 共学营第二期相关信息如下: 本期共学应用为人人可打造的微信助手。 注册智谱 Tokens:智谱 AI 开放平台的网址为 https://bigmodel.cn/ 。参与课程至少需要有 token 体验资源包,获取资源包有三种方式: 新注册用户,注册即送 2000 万 Tokens。 充值/购买多种模型的低价福利资源包,直接充值现金,所有模型可适用的网址为 https://open.bigmodel.cn/finance/pay 。 共学营报名赠送资源包。 语言资源包:免费 GLM4Flash 语言模型/ 。 多模态资源包: 。 多模态资源包: 。所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 。 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 进入智能体中心我的智能体,开始创建智能体。 会议 ID:185 655 937 ,会议链接:https://vc.feishu.cn/j/185655937 ,共学营互动群。 BigModel 开放平台是智谱一站式的大模型开发及应用构建平台。基于智谱自研的全模型矩阵,面向企业客户及合作伙伴,支持多样化模型和自定义编排。平台提供即插即用的智能工具箱,包括 API 接口、模型微调及部署功能,同时具备流程编排以适应复杂业务场景。还提供免费、好用、高并发的 GLM4Flash 模型,0 元上手大模型,新用户注册登录即送 2000 万 Tokens,调用智谱全家桶模型。更多应用场景包括: 。
2024-12-05