Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ChatGLM是谁开发的

Answer

ChatGLM 是由清华大学开发的。它是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关项目地址为:https://github.com/THUDM/ChatGLM-6B 。它是中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化,经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。此外,基于 ChatGLM 还有在医疗领域的微调模型,如 Med-ChatGLM ,地址为:https://github.com/SCIR-HI/Med-ChatGLM

Content generated by AI large model, please carefully verify (powered by aily)

References

信鑫:基于大模型 + 知识库的 Code Review 实践

[title]信鑫:基于大模型+知识库的Code Review实践[heading2]名词解释|名词|释义|<br>|-|-|<br>|CR / Code Review|越来越多的企业都要求研发团队在代码的开发过程中要进行CodeReview(简称CR),在保障代码质量的同时,促进团队成员之间的交流,提高代码水平。|<br>|llm /大规模语言模型|大规模语言模型(Large Language Models,LLMs)是自然语言处理中使用大量文本数据训练的神经网络模型,可以生成高质量的文本并理解语言。如GPT、BERT等。|<br>|AIGC|利用NLP、NLG、计算机视觉、语音技术等生成文字、图像、视频等内容。<br>全称是人工智能生成/创作内容(Artificial Intelligence Generated Content);是继UGC,PGC后,利用人工智能技术,自动生成内容的生产方式;AIGC底层技术的发展,驱动围绕不同内容类型(模态)和垂直领域的应用加速涌现。|<br>|Gemma|Gemma是一个轻量级、先进的开放模型系列,采用与创建Gemini模型相同的研究和技术构建而成。Gemma由Google DeepMind和Google的其他团队开发,以拉丁语gemma(意为“宝石”)命名。Gemma模型权重由促进创新、协作和负责任地使用人工智能(AI)的开发者工具提供支持。|<br>|LLaMA|Meta(Facebook)的大型多模态语言模型。|<br>|ChatGLM|ChatGLM是一个开源的、支持中英双语的对话语言模型,底座是GLM语言模型。|<br>|Baichuan|Baichuan 2是百川智能推出的新一代开源大语言模型,采用2.6万亿Tokens的高质量语料训练。|

LLM开源中文大语言模型及数据集集合

[title]LLM开源中文大语言模型及数据集集合[heading4]1.ModelChatGLM:地址:[https://github.com/THUDM/ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B)简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持VisualGLM-6B地址:[https://github.com/THUDM/VisualGLM-6B](https://github.com/THUDM/VisualGLM-6B)简介:一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于ChatGLM-6B,具有62亿参数;图像部分通过训练BLIP2-Qformer构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。依靠来自于CogView数据集的30M高质量中文图文对,与300M经过筛选的英文图文对进行预训练。Chinese-LLaMA-Alpaca:地址:[https://github.com/ymcui/Chinese-LLaMA-Alpaca](https://github.com/ymcui/Chinese-LLaMA-Alpaca)简介:中文LLaMA&Alpaca大语言模型+本地CPU/GPU部署,在原版LLaMA的基础上扩充了中文词表并使用了中文数据进行二次预训练

LLM开源中文大语言模型及数据集集合

[title]LLM开源中文大语言模型及数据集集合[heading3][heading4]2.1垂直领域微调[heading5]医疗Med-ChatGLM:地址:[https://github.com/SCIR-HI/Med-ChatGLM](https://github.com/SCIR-HI/Med-ChatGLM)简介:基于中文医学知识的ChatGLM模型微调,微调数据与BenTsao相同。QiZhenGPT:地址:[https://github.com/CMKRG/QiZhenGPT](https://github.com/CMKRG/QiZhenGPT)简介:该项目利用启真医学知识库构建的中文医学指令数据集,并基于此在LLaMA-7B模型上进行指令精调,大幅提高了模型在中文医疗场景下效果,首先针对药品知识问答发布了评测数据集,后续计划优化疾病、手术、检验等方面的问答效果,并针对医患问答、病历自动生成等应用展开拓展。ChatMed:地址:[https://github.com/michael-wzhu/ChatMed](https://github.com/michael-wzhu/ChatMed)简介:该项目推出ChatMed系列中文医疗大规模语言模型,模型主干为LlaMA-7b并采用LoRA微调,具体包括ChatMed-Consult:基于中文医疗在线问诊数据集ChatMed_Consult_Dataset的50w+在线问诊+ChatGPT回复作为训练集;ChatMed-TCM:基于中医药指令数据集ChatMed_TCM_Dataset,以开源的中医药知识图谱为基础,采用以实体为中心的自指令方法(entity-centric self-instruct),调用ChatGPT得到2.6w+的围绕中医药的指令数据训练得到。

Others are asking
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
ChatGLM3 及相关系列产品有哪些
2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。其中,智谱清言是基于 ChatGLM 大模型的产品。 智谱清言的特点包括:在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体更擅长专业能力,但代码能力还有优化空间,知识百科与其他第一梯队模型相比稍显不足。 其适合的应用场景相对广泛,根据 SuperCLUE 测评结果,可优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。在较复杂推理应用上效果不错,在广告文案、文学写作方面也是很好的选择。
2024-11-04
分析 ChatGLM在文生视频领域的应用产出
ChatGLM 是中文领域效果较好的开源底座模型之一,其地址为:。经过约 1T 标识符的中英双语训练,并辅以监督微调、反馈自助、人类反馈强化学习等技术进行优化,针对中文问答和对话有出色表现。 此外,还有基于 ChatGLM6B 的 VisualGLM6B,地址为:。它是一个开源的、支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数。图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。依靠来自于 CogView 数据集的 30M 高质量中文图文对,与 300M 经过筛选的英文图文对进行预训练。 在文生视频领域,ChatGLM 及其相关模型可能通过对文本的理解和生成能力,为视频的脚本创作、内容描述生成等方面提供支持,但具体的应用产出还需要结合实际的开发和应用场景来进一步探索和评估。
2024-10-30
ChatGLM视频表现有何特色,优劣分析一下
ChatGLM 是中文领域效果最好的开源底座模型之一,具有以下特色: 1. 针对中文问答和对话进行了优化,能更好地处理中文语境下的任务。 2. 经过约 1T 标识符的中英双语训练,并辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 其优势包括: 1. 在处理中文相关的任务时表现出色,能提供较为准确和有用的回答。 然而,目前可能存在的不足暂未在提供的内容中有明确提及。但一般来说,与其他先进的语言模型相比,可能在某些复杂场景下的表现还有提升空间。
2024-10-30
ChatGLM在生成视频上表现如何
目前 ChatGLM 主要侧重于自然语言处理和文本生成,在生成视频方面的能力相对有限。它并非专门为视频生成而设计的模型。
2024-10-30
ChatGLM开发者团队介绍
ChatGLM 是一个开源的、支持中英双语的对话语言模型,底座是 GLM 语言模型。其相关信息如下: 地址: 简介:中文领域效果最好的开源底座模型之一,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持。 此外,基于 ChatGLM 还有在垂直领域微调的模型,如医疗领域的 MedChatGLM,其地址为: 。
2024-10-30
35岁java后端开发如何转型AI开发
对于 35 岁的 Java 后端开发人员转型 AI 开发,以下是一些建议: 1. 利用固定格式文档结合 AI 进行代码开发时,要强调组员的主观能动性,让他们自主设计,组长负责引导和经验分享。文档并非唯一最佳方式,可尝试用简短描述或 Prompt 辅助代码生成。在 AI 编程中,设计非常重要,模块化低耦合设计和清晰的上下文对代码生成效果尤为关键。参考链接: 2. 借助 AI 编程工具(如 Cursor),熟悉 LLM 原理,探索复杂 Prompt 和定制化规则。开展 LLM 相关的 Side Project(如翻译工具、AI 对话应用等),通过实践快速掌握技能。将 AI 当老师,边做边学,获取即时反馈,持续提升。核心建议是行动起来,找到正反馈,坚持使用 AI 辅助编程。参考链接:
2025-01-29
waytoagi知识库的对话功能是如何开发的
waytoagi 知识库的对话功能开发涉及以下方面: 1. 提示词的运用:建议从最佳实践中的收录内容开始了解,像李继刚老师的结构化提示词很有意思,使用此类提示词能让模型给出更优质、完整的答案。操作过程中有很多有趣的提示词,如“酷老师”“抬杠高手”等,可点开并复制,将其丢进大源模型对话会有不同效果。近期提示词有升级,李金刚老师将其玩到新高度,cloud 等大语言模型可直接显示编译结果内容。输入特定提示词可生成卡片,小创业项目可利用并改变提示词形成独到见解或小应用。 2. 基于飞书 aily 搭建:在飞书 5000 人大群里内置了智能机器人「waytoAGI 知识库智能问答」,它能自动问答、进行知识搜索、提供文档引用、开展互动教学、更新最新动态、促进社区互动、实现资源共享以及支持多语言问答。用户在飞书群里发起话题时即可,它会根据 waytoAGI 知识库的内容进行总结和回答。 3. 解决知识库使用问题:整个知识库内容庞大,传统搜索基于关键词及相关性存在不足,需要用更先进的办法如 RAG 技术来解决,在群中提供快速检索信息的方式,使用更加便捷。
2025-01-28
如何从零到一学习LLM上层AI应用开发
从零到一学习 LLM 上层 AI 应用开发,您可以参考以下步骤: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 熟悉 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 熟悉 LLM 预训练框架,如 PyTorch、TensorFlow 等。 学会微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 了解模型评估和可解释性。 熟悉模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 以下是一些相关的学习资源: 面向开发者的 LLM 入门课程: 提示工程指南: LangChain🦜️🔗中文网,跟着 LangChain 一起学 LLM/GPT 开发: LLMs 九层妖塔: 在课程方面,欢迎来到针对开发者的 AIGPT 提示工程课程。该课程将分享软件开发最佳实践的提示,涵盖常见用例,包括总结、推理、转换和扩展,并指导使用 LLM 构建一个聊天机器人。在大型语言模型或 LLM 的开发中,大体上有基础 LLM 和指令调整后的 LLM 两种类型。基础 LLM 已训练出根据文本训练数据预测下一个单词,通常在大量数据上训练,以找出接下来最有可能的单词。
2025-01-28
企业AI开发
企业 AI 开发包括以下重要内容: 企业级 AI 应用类型: 智能体应用(Assistant):基于上下文对话,自主决策并调用工具完成复杂任务的对话式 AI 应用。通过简单配置可快速上手实现基本功能,适用于客户服务、个人助理、技术支持等场景。详情参见。 工作流应用(Workflow):将复杂任务拆解为若干子任务,以提高工作流程可控性的流程式 AI 应用。用户可通过拖拽节点创建自定义任务流程,适用于 AI 翻译等场景。详情参见。 智能体编排应用:支持多智能体协作的流程式 AI 应用,能编排多个智能体的执行逻辑,适用于综合调研报告、软件开发团队等场景。详情参见。 应避免的人工智能陷阱: 不要以为 AI 可以做任何事,要考虑技术、数据和工程资源的限制,有许多 AI 做不到的事情。 不要以为只雇佣 2 3 个机器学习工程师就可以满足公司的使用场景。机器学习人才很重要,也应让工程师与业务人才交流,寻找可行、有价值的项目。 不要以为 AI 项目一次就能成功,AI 开发通常需要多次尝试。 不要期待直接使用传统的计划流程而不用改变,实际需要和 AI 团队测算时间节点、里程碑与 KPI。 不需要极其优秀的 AI 人才后才启动项目,持续构建团队,普通工程师也能提供有价值和可行的项目。 阿里云百炼: 是基于通义系列大模型和开源大模型打造的一站式大模型服务平台,提供「生成式大模型的应用编排搭建能力」和「企业大模型的全链路训练部署能力」,是企业 AI 时代的首选。 核心能力和优势包括大模型 API 服务(高可用、高性能、高性价比),提供通义闭源和开源系列大模型,以及图片、语音等多模态大模型和国内优质三方大语言模型;AI 应用搭建(可观测、可干预、可追踪),提供 RAG 智能体应用、工作流编排和智能体编排三类使用场景的应用构建能力,以及包含插件能力、运营工具箱等适配工具,实现 10 分钟拖拉拽快速搭建 AI Agent。 提供很多行业级的解决方案,如短剧剧本创作、企业线索挖掘、泛企业 VOC 挖掘等。 体验入口:https://bailian.console.aliyun.com//home (需要登陆阿里云账号,也可以使用支付宝、钉钉、手机号快速注册登陆),建议注册后先进行实名认证,以方便后续体验工作及领取免费学习云资源。
2025-01-27
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
langchain开发手册
LangChain 是专注于大模型应用开发的平台,提供一系列组件和工具助您轻松构建 RAG 应用。 组件包括: 1. 数据加载器(DocumentLoader):能从数据源加载数据并转为文档对象,文档包含 page_content(文本内容)和 metadata(元数据如标题、作者、日期等)。 2. 文本分割器(DocumentSplitter):将文档分割成多个小文档,方便后续检索和生成,因大模型输入窗口有限,短文本更易找相关信息。 3. 文本嵌入器(Embeddings):将文本转为高维向量的嵌入,用于衡量文本相似度以实现检索功能。 4. 向量存储器(VectorStore):存储和查询嵌入,常使用 Faiss 或 Annoy 等索引技术加速检索。 5. 检索器(Retriever):根据文本查询返回相关文档对象,常见实现是向量存储器检索器,利用向量存储器相似度搜索功能检索。 6. 聊天模型(ChatModel):基于大模型如 GPT3 实现文本生成,根据输入序列生成输出消息。 使用 LangChain 构建 RAG 应用的一般流程: 1. 加载数据:根据数据源类型选择合适的数据加载器,如网页可用 WebBaseLoader。 2. 分割文档:根据文本特点选择合适的文本分割器,如博客文章可用 RecursiveCharacterTextSplitter。 3. 转换和存储嵌入:选择合适的文本嵌入器和向量存储器,如 OpenAI 的嵌入模型和 Chroma 的向量存储器。 4. 创建检索器:使用向量存储器检索器,传递向量存储器和文本嵌入器对象创建。 5. 创建聊天模型:根据性能和成本选择,如 OpenAI 的 GPT3 模型。 以下是使用 LangChain 构建 RAG 应用的示例代码。
2025-01-23