智谱 AI 相关信息如下:
智谱●👑开源文生图模型CogView3-Plus-3BAdobe●推出AI旋转工具Project Turntable新华社发布《人工智能时代新闻媒体的责任与使命》OpenAI起诉Open AI10月15日上海交大●👑开源F5-TTS联想创新科技大会202410月16日英伟达●👑开源Llama-3.1-Nemotron-70B-InstructSuno●将视频和图片生成音乐10月17日OPPO●小布助手「一键问屏」功能扣子●上线AI最佳实践模板Mistral AI●发布端侧模型Ministral 3B/8B字节●实习生田某某破坏模型训练事件10月18日OpenAI●推出Windows版ChatGPTLiblibAI●开放全新生图API上海推出AI百亿基金规划10月21日WSJ和NYT正式起诉Perplexity智源●发布原生多模态世界模型Emu3昆仑万维&北大●提出通用框架MoE++10月22日
下表为智谱AI开源的语言模型列表|模型|介绍|上下文token数|代码链接|模型权重下载链接||-|-|-|-|-||ChatGLM2-6B-32k|第二代ChatGLM长上下文对话模型。ChatGLM2-6B-32K在[ChatGLM2-6B](https://huggingface.co/THUDM/chatglm2-6b)的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体地,我们基于[位置插值](https://arxiv.org/abs/2306.15595)(Positional Interpolation)的方法对位置编码进行了更新,并在对话阶段使用32K的上下文长度训练。在实际的使用中,如果您面临的上下文长度基本在8K以内,我们推荐使用[ChatGLM2-6B](https://huggingface.co/THUDM/chatglm2-6b);如果您需要处理超过8K的上下文长度,我们推荐使用ChatGLM2-6B-32K。|32K||[Huggingface](https://huggingface.co/THUDM/chatglm2-6b-32k)|魔搭社区|始智社区|启智社区||ChatGLM2-6B-32k-int4|ChatGLM2-6B-32K的int4版本|32K||[Huggingface](https://huggingface.co/THUDM/chatglm2-6b-32k-int4)|魔搭社区|始智社区|启智社区||ChatGLM-6B|第一代ChatGLM对话模型。支持中英双语的对话语言模型,基于[General Language Model(GLM)](https://github.com/THUDM/GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署。|2K|[ChatGLM](https://github.com/THUDM/ChatGLM-6B)|[Huggingface](https://huggingface.co/THUDM/chatglm-6b)|魔搭社区|始智社区|启智社区|
下表为智谱AI开源的语言模型列表|模型|介绍|上下文token数|代码链接|模型权重下载链接||-|-|-|-|-||ChatGLM2-6B|第二代ChatGLM对话模型。相比一代模型,具有更强的性能,且其基座模型的上下文长度从2k扩展到32k,并在对话阶段使用8K的上下文长度训练。推理速度相比初代提升42%。|8K|[ChatGLM2](https://github.com/THUDM/ChatGLM2-6B)|[Huggingface](https://huggingface.co/THUDM/chatglm2-6b)|魔搭社区|始智社区|启智社区||ChatGLM2-6B-int4|ChatGLM2-6B的int4量化版本,具备最小5.1GB显存即可运行。INT4量化下,6G显存支持的对话长度由1K提升到了8K。|8K||[Huggingface](https://huggingface.co/THUDM/chatglm2-6b-int4)[](https://huggingface.co/THUDM/chatglm2-6b-int4)|魔搭社区|始智社区|启智社区|