Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ChatGLM是谁开发的

Answer

ChatGLM 是由清华大学开发的。它是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关项目地址为:https://github.com/THUDM/ChatGLM-6B 。它是中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化,经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。此外,基于 ChatGLM 还有在医疗领域的微调模型,如 Med-ChatGLM ,地址为:https://github.com/SCIR-HI/Med-ChatGLM

Content generated by AI large model, please carefully verify (powered by aily)

References

信鑫:基于大模型 + 知识库的 Code Review 实践

[title]信鑫:基于大模型+知识库的Code Review实践[heading2]名词解释|名词|释义|<br>|-|-|<br>|CR / Code Review|越来越多的企业都要求研发团队在代码的开发过程中要进行CodeReview(简称CR),在保障代码质量的同时,促进团队成员之间的交流,提高代码水平。|<br>|llm /大规模语言模型|大规模语言模型(Large Language Models,LLMs)是自然语言处理中使用大量文本数据训练的神经网络模型,可以生成高质量的文本并理解语言。如GPT、BERT等。|<br>|AIGC|利用NLP、NLG、计算机视觉、语音技术等生成文字、图像、视频等内容。<br>全称是人工智能生成/创作内容(Artificial Intelligence Generated Content);是继UGC,PGC后,利用人工智能技术,自动生成内容的生产方式;AIGC底层技术的发展,驱动围绕不同内容类型(模态)和垂直领域的应用加速涌现。|<br>|Gemma|Gemma是一个轻量级、先进的开放模型系列,采用与创建Gemini模型相同的研究和技术构建而成。Gemma由Google DeepMind和Google的其他团队开发,以拉丁语gemma(意为“宝石”)命名。Gemma模型权重由促进创新、协作和负责任地使用人工智能(AI)的开发者工具提供支持。|<br>|LLaMA|Meta(Facebook)的大型多模态语言模型。|<br>|ChatGLM|ChatGLM是一个开源的、支持中英双语的对话语言模型,底座是GLM语言模型。|<br>|Baichuan|Baichuan 2是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练。|

LLM开源中文大语言模型及数据集集合

[title]LLM开源中文大语言模型及数据集集合[heading4]1.ModelChatGLM:地址:[https://github.com/THUDM/ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B)简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持VisualGLM-6B地址:[https://github.com/THUDM/VisualGLM-6B](https://github.com/THUDM/VisualGLM-6B)简介:一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于ChatGLM-6B,具有62亿参数;图像部分通过训练BLIP2-Qformer构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。依靠来自于CogView数据集的30M高质量中文图文对,与300M经过筛选的英文图文对进行预训练。Chinese-LLaMA-Alpaca:地址:[https://github.com/ymcui/Chinese-LLaMA-Alpaca](https://github.com/ymcui/Chinese-LLaMA-Alpaca)简介:中文LLaMA&Alpaca大语言模型+本地CPU/GPU部署,在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练

LLM开源中文大语言模型及数据集集合

[title]LLM开源中文大语言模型及数据集集合[heading3][heading4]2.1垂直领域微调[heading5]医疗Med-ChatGLM:地址:[https://github.com/SCIR-HI/Med-ChatGLM](https://github.com/SCIR-HI/Med-ChatGLM)简介:基于中文医学知识的ChatGLM模型微调,微调数据与BenTsao相同。QiZhenGPT:地址:[https://github.com/CMKRG/QiZhenGPT](https://github.com/CMKRG/QiZhenGPT)简介:该项目利用启真医学知识库构建的中文医学指令数据集,并基于此在LLaMA-7B模型上进行指令精调,大幅提高了模型在中文医疗场景下效果,首先针对药品知识问答发布了评测数据集,后续计划优化疾病、手术、检验等方面的问答效果,并针对医患问答、病历自动生成等应用展开拓展。ChatMed:地址:[https://github.com/michael-wzhu/ChatMed](https://github.com/michael-wzhu/ChatMed)简介:该项目推出ChatMed系列中文医疗大规模语言模型,模型主干为LlaMA-7b并采用LoRA微调,具体包括ChatMed-Consult:基于中文医疗在线问诊数据集ChatMed_Consult_Dataset的50w+在线问诊+ChatGPT回复作为训练集;ChatMed-TCM:基于中医药指令数据集ChatMed_TCM_Dataset,以开源的中医药知识图谱为基础,采用以实体为中心的自指令方法(entity-centric self-instruct),调用ChatGPT得到2.6w+的围绕中医药的指令数据训练得到。

Others are asking
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
ChatGLM3 及相关系列产品有哪些
2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。其中,智谱清言是基于 ChatGLM 大模型的产品。 智谱清言的特点包括:在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体更擅长专业能力,但代码能力还有优化空间,知识百科与其他第一梯队模型相比稍显不足。 其适合的应用场景相对广泛,根据 SuperCLUE 测评结果,可优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。在较复杂推理应用上效果不错,在广告文案、文学写作方面也是很好的选择。
2024-11-04
分析 ChatGLM在文生视频领域的应用产出
ChatGLM 是中文领域效果较好的开源底座模型之一,其地址为:。经过约 1T 标识符的中英双语训练,并辅以监督微调、反馈自助、人类反馈强化学习等技术进行优化,针对中文问答和对话有出色表现。 此外,还有基于 ChatGLM6B 的 VisualGLM6B,地址为:。它是一个开源的、支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数。图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。依靠来自于 CogView 数据集的 30M 高质量中文图文对,与 300M 经过筛选的英文图文对进行预训练。 在文生视频领域,ChatGLM 及其相关模型可能通过对文本的理解和生成能力,为视频的脚本创作、内容描述生成等方面提供支持,但具体的应用产出还需要结合实际的开发和应用场景来进一步探索和评估。
2024-10-30
ChatGLM视频表现有何特色,优劣分析一下
ChatGLM 是中文领域效果最好的开源底座模型之一,具有以下特色: 1. 针对中文问答和对话进行了优化,能更好地处理中文语境下的任务。 2. 经过约 1T 标识符的中英双语训练,并辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 其优势包括: 1. 在处理中文相关的任务时表现出色,能提供较为准确和有用的回答。 然而,目前可能存在的不足暂未在提供的内容中有明确提及。但一般来说,与其他先进的语言模型相比,可能在某些复杂场景下的表现还有提升空间。
2024-10-30
ChatGLM在生成视频上表现如何
目前 ChatGLM 主要侧重于自然语言处理和文本生成,在生成视频方面的能力相对有限。它并非专门为视频生成而设计的模型。
2024-10-30
ChatGLM开发者团队介绍
ChatGLM 是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关信息如下: 地址: 简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 此外,基于 ChatGLM 还有在垂直领域微调的模型,如医疗领域的 MedChatGLM,其地址为: 。
2024-10-30
用Trae可以开发微信小程序吗?
可以使用 Trae 开发微信小程序。具体步骤如下: 1. 打开 Trae,并打开刚才创建的文件夹。 2. 继续使用 Chat 模式来明确需求,生成 prd.md 后,可以打开来进行修改。 3. 切换到 Builder 模式,开始进行开发。因为 Trae 会在本地文件夹内生成代码,而微信开发者工具也是从同一个本地文件夹内读取代码,并且有实时预览功能,所以可以在微信开发者工具内看到。 4. 左侧是预览窗口,是可以交互的。为了更加仿真,可以点击右上角的真机调试,打开预览。 5. 开发和正常的 Trae 开发流程一样,如果有报错就修改错误,直到在微信开发者工具内调试到正常。 6. 然后可以点击微信开发者工具的右上角“上传”,在弹出的弹窗里选择“确定”。 7. 接着在弹出的选项里填写版本号和项目备注。 8. 上传完毕后会显示上传成功。 9. 随后,可以在微信小程序后台,版本管理里看到开发版本的信息。可以点击体验版进行线上体验,也可以提交审核。 另外有两个额外的要点需要了解。
2025-03-06
我想开发铁路调车作业岗位的制动员、连接员和调车长的专业技能等级考级试题库。我应该利用何种AI资源来辅助我开发呢?
目前在开发铁路调车作业岗位相关的专业技能等级考级试题库方面,可利用的 AI 资源相对有限。但您可以考虑以下几种方式: 1. 利用自然语言处理模型,如 ChatGPT 等,辅助生成一些基础的题目框架和内容描述,然后您再根据实际需求进行修改和完善。 2. 借助一些智能写作工具,帮助您优化题目表述,提高题目质量。 3. 运用在线的知识图谱和数据库,获取与铁路调车作业相关的专业知识和标准,为试题库的内容提供准确依据。 需要注意的是,AI 生成的内容仅供参考,最终的试题库仍需要您依据专业标准和实际工作要求进行严格的审核和把关。
2025-03-05
基于SUMO的自动驾驶车队行为仿真平台开发
很抱歉,目前知识库中没有关于基于 SUMO 的自动驾驶车队行为仿真平台开发的相关内容。但一般来说,开发这样的平台需要以下几个关键步骤: 1. 深入了解 SUMO 软件及其相关功能和接口。 2. 明确自动驾驶车队行为的模型和算法,包括车辆之间的通信、协同控制等。 3. 设计合理的数据结构和算法,以高效处理仿真中的大量数据和计算。 4. 进行系统的架构设计,确保平台的可扩展性和稳定性。 5. 进行充分的测试和优化,以保证仿真结果的准确性和可靠性。 如果您能提供更详细的需求和问题,我将能为您提供更有针对性的帮助。
2025-03-04
哪里可以找到了解AI模型微调和RAG知识库的外包开发团队?
以下是一些可能找到了解 AI 模型微调和 RAG 知识库的外包开发团队的途径: 1. 相关技术社区和论坛:例如一些专注于 AI 开发的社区,开发者可能会在其中分享经验和提供服务。 2. 专业的自由职业者平台:如 Upwork、Freelancer 等,您可以在这些平台上发布需求,寻找合适的团队或个人。 3. 参考行业报告和研究:部分报告中可能会提及相关的优秀开发团队或公司。 4. 联系 AI 领域的知名机构或公司:他们可能会推荐或提供相关的外包服务。 5. 社交媒体和专业群组:在如 LinkedIn 等社交媒体上的 AI 相关群组中发布需求,可能会得到相关团队的回应。 另外,从提供的资料中,以下信息可能对您有所帮助: 红杉的相关分析提到,迁移学习技术如 RLHF 和微调正变得更加可用,开发者可以从 Hugging Face 下载开源模型并微调以实现优质性能,检索增强生成(RAG)正在引入关于业务或用户的上下文,像 Pinecone 这样的公司的向量数据库已成为 RAG 的基础设施支柱。彬子的经历中,有出海垂直领域 Agent 平台的项目经理咨询 RAG 策略优化。2024 人工智能报告中提到对增强生成检索(RAG)的兴趣增长促使了嵌入模型质量的提高,传统 RAG 解决方案中的问题得到解决。
2025-03-04
开发转AI产品经理,需要学习哪些东西,请推荐资料库的内容给我让我学习
如果您从开发转型为 AI 产品经理,以下是一些您需要学习的内容和推荐的学习资料: 1. 技术原理方面: 思维链:谷歌在 2022 年的一篇论文提到思维链可以显著提升大语言模型在复杂推理的能力(即有推理步骤),即使不用小样本提示,也可以在问题后面加一句【请你分步骤思考】。 RAG(检索增强生成):外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI;可搭建企业知识库和个人知识库。 PAL(程序辅助语言模型):2022 年一篇论文中提出;比如对于语言模型的计算问题,核心在于不让 AI 直接生成计算结果,而是借助其他工具比如 Python 解释器作为计算工具。 ReAct:2022 年一篇《React:在语言模型中协同推理与行动》的论文提出了 ReAct 框架,即 reason 与 action 结合,核心在于让模型动态推理并采取行动与外界环境互动。比如用搜索引擎对关键字进行搜索,观察行动得到的结果。可借助 LangChain 等框架简化构建流程。 2. 个人总结:很多大佬发言表示要关注或直接阅读技术论文,比如产品经理转型 AI 产品经理,需要懂技术脉络。但小白直接看技术论文有难度,虽然现在可以让 AI 辅助阅读,不过还是要完成一定的知识储备。林粒粒呀的这期视频是一个很好的科普入门。 3. 视频二:技术框架与关于未来的想象。之前对安克创新的印象可能是卖充电宝和安防设备,但看了这期访谈,被 CEO 阳萌的认知震撼,很多观点有启发,强烈建议看原访谈视频。其中提到 Transformer 是仿生算法的阶段性实现,10 年、20 年后大家将不再用 TA 。
2025-03-03
适合普通人(没有ai开发经验) 的ai发展方向有哪些
对于没有 AI 开发经验的普通人,以下是一些适合的 AI 发展方向: 1. 基础知识学习: 了解 AI 背景知识,包括人工智能、机器学习、深度学习的定义及其之间的关系。 回顾 AI 的发展历程和重要里程碑。 掌握数学基础,如统计学(熟悉均值、中位数、方差等统计概念)、线性代数(了解向量、矩阵等基本概念)、概率论(基础的概率论知识,如条件概率、贝叶斯定理)。 2. 算法和模型: 熟悉监督学习(如线性回归、决策树、支持向量机)。 了解无监督学习(如聚类、降维)。 知晓强化学习的基本概念。 3. 评估和调优: 学会如何评估模型性能,包括交叉验证、精确度、召回率等。 掌握模型调优的方法,如使用网格搜索等技术优化模型参数。 4. 神经网络基础: 理解神经网络的基本结构,包括前馈网络、卷积神经网络、循环神经网络。 熟悉常用的激活函数,如 ReLU、Sigmoid、Tanh。 如果偏向技术研究方向: 1. 巩固数学基础,如线性代数、概率论、优化理论等。 2. 掌握机器学习基础,包括监督学习、无监督学习、强化学习等。 3. 深入学习深度学习,如神经网络、卷积网络、递归网络、注意力机制等。 4. 涉足自然语言处理(语言模型、文本分类、机器翻译等)、计算机视觉(图像分类、目标检测、语义分割等)等领域。 5. 关注前沿领域,如大模型、多模态 AI、自监督学习、小样本学习等。 6. 进行科研实践,包括论文阅读、模型实现、实验设计等。 如果偏向应用方向: 1. 具备编程基础,如 Python、C++等。 2. 掌握机器学习基础,如监督学习、无监督学习等。 3. 熟悉深度学习框架,如 TensorFlow、PyTorch 等。 4. 应用于自然语言处理、计算机视觉、推荐系统等领域。 5. 做好数据处理,包括数据采集、清洗、特征工程等。 6. 进行模型部署,如模型优化、模型服务等。 7. 参与行业实践,包括项目实战、案例分析等。 此外,无论您是技术爱好者还是内容创作者,都可以: 技术爱好者: 1. 从小项目开始,如搭建简单博客或自动化脚本,尝试使用 AI 辅助编码。 2. 探索 AI 编程工具,如 GitHub Copilot 或 Cursor 等。 3. 参与 AI 社区,如 Stack Overflow 的 AI 板块或 Reddit 的 r/artificial 子版块。 4. 构建 AI 驱动的项目,如开发聊天机器人或图像识别应用。 内容创作者: 1. 利用 AI 辅助头脑风暴,获取创意方向。 2. 建立 AI 写作流程,从生成大纲到扩展段落等。 3. 探索多语言内容,借助 AI 辅助翻译和本地化。 4. 用 AI 工具优化 SEO,调整标题、元描述和关键词使用。
2025-03-02