Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

智谱清言的开源大模型哪些种类

Answer

智谱清言的开源大模型种类包括:

  • 多模态模型:
    • CogAgent-18B:基于 CogVLM-17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 1120*1120 分辨率的图像理解,具备 GUI 图像的 Agent 能力。代码链接:CogVLM & CogAgent,模型下载:Huggingface魔搭社区Swanhub、始智社区。
    • CogVLM-17B:强大的开源视觉语言模型(VLM),在多模态权威学术榜单上综合成绩优异。代码链接:CogVLM & CogAgent,模型下载:Huggingface魔搭社区
    • Visualglm-6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。代码链接:VisuaGLM,模型下载:Huggingface魔搭社区
    • RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。代码链接:RDM

此外,智谱清言是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。智谱清言在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体来看,智谱清言更擅长专业能力,但在代码能力上还有一定优化空间,知识百科与其他第一梯队模型相比稍显不足。综合来看,智谱清言是一个很有竞争力的大模型。可应用的场景相对广泛,根据 SuperCLUE 测评结果,优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。另外在较复杂推理应用上的效果会比较不错,在广告文案、文学写作方面也是一个很好的选择。

Content generated by AI large model, please carefully verify (powered by aily)

References

智谱·AI 开源模型列表

[title]智谱·AI开源模型列表[heading2]多模态模型��模态的模型。|模型|介绍|代码链接|模型下载|<br>|-|-|-|-|<br>|CogAgent-18B|基于CogVLM-17B改进的开源视觉语言模型。CogAgent-18B拥有110亿视觉参数和70亿语言参数,支持1120*1120分辨率的图像理解,在CogVLM功能的基础上,具备GUI图像的Agent能力。|[CogVLM & CogAgent](https://github.com/THUDM/CogVLM)|[Huggingface](https://huggingface.co/THUDM/CogVLM)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/cogagent-chat/summary)|[Swanhub](https://swanhub.co/ZhipuAI/cogagent-chat-hf)|始智社区|<br>|CogVLM-17B|强大的开源视觉语言模型(VLM)。基于对视觉和语言信息之间融合的理解,CogVLM可以在不牺牲任何NLP任务性能的情况下,实现视觉语言特征的深度融合。我们训练的CogVLM-17B是目前多模态权威学术榜单上综合成绩第一的模型,在14个数据集上取得了state-of-the-art或者第二名的成绩。||[Huggingface](https://huggingface.co/THUDM/cogvlm-chat-hf)|[魔搭社区](https://modelscope.cn/models/AI-ModelScope/cogvlm-chat/summary)|<br>|Visualglm-6B|VisualGLM-6B是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于[ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B),具有62亿参数;图像部分通过训练[BLIP2-Qformer](https://arxiv.org/abs/2301.12597)构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。|[VisuaGLM](https://github.com/THUDM/VisualGLM-6B)|[Huggingface](https://huggingface.co/THUDM/visualglm-6b)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/visualglm-6b/summary)|<br>|RDM|Relay Diffusion Model:级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。|[RDM](https://github.com/THUDM/RelayDiffusion)||

2023年度中文大模型基准测评报告.pdf

简介:智谱清言是智谱AI和清华大学推出的大模型产品,基础模型为ChatGLM大模型。2023年10月27日,智谱AI于2023中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型ChatGLM3及相关系列产品。模型特点:智谱清言在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体来看,智谱清言更擅长专业能力,但在代码能力上还有一定优化空间。除此之外,知识百科与其他第一梯队模型相比稍显不足。综合来看,智谱清言是一个很有竞争力的大模型。适合应用:智谱清言可应用的场景相对广泛,根据SuperCLUE测评结果,优先推进在AI智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。另外在较复杂推理应用上的效果会比较不错。广告文案、文学写作方面也是一个很好的选择。

2023年度中文大模型基准测评报告.pdf

[title]中文大模型基准测评2023年度报告[heading1]测评模型列表模型机构简介模型机构简介1.GPT4-Turbo OpenAI 2023年11月7日发布的GPT4的升级版本14.通义千问2.0阿里巴巴官方公开发布的API版本:qwen-max-longcontext2.GPT4(网页版)OpenAI GPT4官方网页版本,支持联网功能15.Claude2Anthropic官方发布的API 2.0版本3.GPT4(API)OpenAI GPT4官方API版本,不支持联网功能16.云雀大模型(豆包)字节跳动官方网页版产品【豆包】4.文心一言4.0(API)百度官方付费使用的文心一言V4.0的API版本17.Gemini-pro Google官方发布的API版本Gemini-pro5.文心一言4.0(网页版)百度官方文心一言网页4.0版本18.GPT3.5-Turbo OpenAI GPT3.5官方API版本6.智谱清言清华&智谱AI官方网页版产品【智谱清言】19.Qwen-14B-Chat阿里巴巴开源的14B的Chat版本7.AndesGPT OPPO OPPO小范围内测API版本20.Baichuan2-13B-Chat百川智能开源的第二代13B的Chat版本8.Moonshot(KimiChat)月之暗面搭载Moonshot的网页版本【KimiChat】21.XVERSE-13B-2-Chat元象科技开源的第二代13B的Chat版本

Others are asking
智谱 注册送2000万 tokens
智谱 BigModel 共学营第二期相关信息如下: 本期共学应用为人人可打造的微信助手。 注册智谱 Tokens:智谱 AI 开放平台的网址为 https://bigmodel.cn/ 。参与课程至少需要有 token 体验资源包,获取资源包有三种方式: 新注册用户,注册即送 2000 万 Tokens。 充值/购买多种模型的低价福利资源包,直接充值现金,所有模型可适用的网址为 https://open.bigmodel.cn/finance/pay 。 共学营报名赠送资源包。 语言资源包:免费 GLM4Flash 语言模型/ 。 多模态资源包: 。 多模态资源包: 。所有资源包购买地址:https://bigmodel.cn/finance/resourcepack 。 先去【财务台】左侧的【资源包管理】看看自己的资源包,本次项目会使用到的有 GLM4、GLM4VPlus、CogVideoX、CogView3Plus 模型。 进入智能体中心我的智能体,开始创建智能体。 会议 ID:185 655 937 ,会议链接:https://vc.feishu.cn/j/185655937 ,共学营互动群。 BigModel 开放平台是智谱一站式的大模型开发及应用构建平台。基于智谱自研的全模型矩阵,面向企业客户及合作伙伴,支持多样化模型和自定义编排。平台提供即插即用的智能工具箱,包括 API 接口、模型微调及部署功能,同时具备流程编排以适应复杂业务场景。还提供免费、好用、高并发的 GLM4Flash 模型,0 元上手大模型,新用户注册登录即送 2000 万 Tokens,调用智谱全家桶模型。更多应用场景包括: 。
2024-12-05
如何登录智谱清言
智谱清言的登录方式如下: AutoGLM 目前处于内测阶段,申请入口在智谱清言 APP 中,直接跟 AutoGLM 内测申请小助手对话提交申请即可。目前只能在安卓设备上使用,iOS 很长时间内都不会支持。因为数据的获取和操作是通过安卓的无障碍权限来控制的,所以登录后的第一件事是引导开启无障碍权限和悬浮球权限,否则无法继续体验。权限授权正常后会进入首页。 对于智谱清流助手接入个人微信,服务器环境部署时,输入“nohup python3 app.py & tail f nohup.out”,最下方会出现一个二维码,使用想要做机器人的微信扫码登录即可。登录成功后,给微信发送消息能看到机器人正常回复。如果想为 AI 赋予功能或人设,可在智谱清流里更改。此后对文件内代码做任何更改,都需重新打印登陆二维码,在“文件”的【终端】里输入“nohup python3 app.py & tail f nohup.out”重新扫码登录。如果没有手机登录,可以使用夜神模拟器模拟手机登录。报错“wxsid”是因为微信未实名,实名即可。制作完成后,不要急着加好友,24 小时内会掉线一次,重新登录即可。
2024-12-03
智谱清言,kimi,讯飞星火,在文字处理跟逻辑思维方面,谁更胜一筹
在文字处理和逻辑思维方面,智谱清言、Kimi 和讯飞星火各有特点: Kimi: 优势:具有超长上下文能力,最初支持 20 万字的上下文,现已提升到 200 万字,对于处理长文本或大量信息的任务有巨大优势,适合从事文案工作,特别是需要处理大量文字或文件的工作。 不足:在文字生成和语义理解、文字生成质量方面的能力可能不如国内其它产品好,且不支持用户自定义智能体。 智谱清言: 优势:背后的技术源自清华大学研发团队的科研成果转化,模型质量出色。在产品设计方面以 ChatGPT 为对标,努力打造类似的用户体验。是国内首批开放智能体应用的公司之一,在逻辑推理和处理复杂提示词方面表现出明显优势,在处理需要深度思考和分析的任务时表现出色。 不足:暂未提及。 讯飞星火:在结构化 prompt 测试中,对于同样的 prompt,最初的输出可能存在问题,但改写后的 prompt 效果不错。 综合来看,它们在不同方面各有优劣,具体谁更胜一筹取决于您的具体需求和使用场景。
2024-11-17
智谱清言,kimi,讯飞星火,在文字处理跟逻辑思维方面,谁更胜一筹
在文字处理和逻辑思维方面,智谱清言、Kimi 和讯飞星火各有特点: Kimi: 优势:具有超长上下文能力,最初支持 20 万字的上下文,现已提升到 200 万字,对于处理长文本或大量信息的任务有巨大优势,适合从事文案工作,特别是需要处理大量文字或文件的工作。 不足:在文字生成和语义理解、文字生成质量方面的能力可能不如国内其它产品好,且不支持用户自定义智能体。 智谱清言: 优势:背后的技术源自清华大学研发团队的科研成果转化,模型质量出色。在产品设计方面以 ChatGPT 为对标,努力打造类似的用户体验。是国内首批开放智能体应用的公司之一,在逻辑推理和处理复杂提示词方面表现出明显优势,在处理需要深度思考和分析的任务时表现出色。 不足:暂未提及。 讯飞星火:在结构化 prompt 测试中,对于同样的 prompt,最初的输出可能存在问题,但改写后的 prompt 效果不错。 综合来看,它们在不同方面各有优劣,具体谁更胜一筹取决于您的具体需求和使用场景。
2024-11-17
通义千问和智谱清言对比
以下是通义千问和智谱清言的对比情况: 在对结构化 prompt 的测试中: 输入同样的 prompt 后,智谱清言的改写效果不错,能够理解 prompt,输出内容感觉良好,且认识到结构化 prompt 的重要性以及需要不断迭代优化。 通义千问的输入效果不错,能够一次输出,但输出的内容要差一些,需要提高。 在 Stepback prompting 评测中: 智谱清言的综合评分为 3 分,表现中规中矩。 通义千问的综合评分为 3.125 分,表现还算不错,只要内容上再提高一些,体验感和专业性会更好。 在小七姐的小样本测评中: 对于复杂提示词理解和执行的第一轮任务中,智谱清言首次回应初始化执行正常,但在生成内容时推理错误,且未回应特定问题,对于提示词中要求的逐步推理过程,可能因模型对已知问题答案生成的优先级高于用户设定的生成逻辑而未按步骤执行。 未提及通义千问在该轮任务中的具体表现。
2024-11-05
智谱清言主要用于什么
智谱清言是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。其具有以下特点和应用场景: 特点: 在工具使用排名国内第一。 在计算、逻辑推理、传统安全能力上排名国内前三。 更擅长专业能力,但在代码能力上还有一定优化空间,知识百科与其他第一梯队模型相比稍显不足。 应用场景: 可应用的场景相对广泛。 根据 SuperCLUE 测评结果,优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。 在较复杂推理应用上的效果会比较不错。 广告文案、文学写作方面也是一个很好的选择。 此外,智谱清言在产品设计方面以 ChatGPT 为对标,努力打造类似的用户体验,是国内首批开放智能体应用的 AI 公司之一,在逻辑推理和处理复杂提示词方面表现出了明显的优势。AutoGLM 目前还处于内测阶段,申请入口在智谱清言 APP 中,目前只能在安卓设备上使用,需要开启无障碍权限和悬浮球权限。
2024-11-05
智谱清言和通义哪个更强大
在不同的测评维度中,智谱清言和通义千问各有优势。 在多轮开放式问题基准 SuperCLUEOPEN 的胜率方面,智谱清言和通义千问 2.0 的胜率均超过 25%。 在工具使用能力的测评中,GPT4 Turbo 取得满分,国内大模型中智谱清言表现不俗,取得 83.78 的高分,排名国内模型第一,通义千问 2.0 也有超过 70 分的表现。 在对结构化 prompt 的测试中,通义千问能够一次输出,但输出内容有待提高;智谱清言在经过改写 prompt 等操作后也有不错的表现。 总体而言,难以简单地判定智谱清言和通义千问哪个更强大,其表现会因具体的测评维度和任务而有所不同。
2024-11-03
态势感知、流量分析的AI开源项目有哪些
目前在态势感知和流量分析方面,较为知名的 AI 开源项目相对较少。但您可以通过以下途径去寻找和发现相关的开源项目: 1. 在开源代码托管平台如 GitHub 上,使用相关的关键词进行搜索。 2. 关注相关的技术论坛和社区,了解其他开发者的分享和推荐。 由于这方面的特定开源项目有限,建议您持续关注行业动态,以便及时获取新的信息。
2024-12-24
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
开源的开源的 LLM 微调推理,agent开发平台
以下是为您整理的关于开源的 LLM 微调推理、agent 开发平台的相关内容: LLM 作为 Agent 的“大脑”的特点: 1. 知识获取能力:通过预训练学习大量语言数据,掌握丰富语言信息和常识知识,能处理多种任务。 2. 指令理解:擅长解析人类语言指令,采用深度神经网络进行自然语言理解和生成,精准理解意图。 3. 泛化能力:在未见过的数据上表现良好,能利用先前知识处理新挑战,形成对语言结构的通用理解。 4. 推理和规划:能够进行逻辑推理和未来预测,分析条件制定最佳行动方案,在复杂环境中做出理性选择。 5. 交互能力:拥有强大对话能力,在多人多轮次对话中自然流畅交流,改善用户体验。 6. 自我改进:基于用户反馈和效果评估,通过调整参数、更新算法提升性能和准确性。 7. 可扩展性:可根据具体需求定制化适配,针对特定领域数据微调提高处理能力和专业化水平。 相关产品和平台: 1. ComfyUI:可在其中高效使用 LLM。 2. Vercel AI SDK 3.0:开源的工具,可将文本和图像提示转换为 React 用户界面,允许开发者创建丰富界面的聊天机器人。 3. OLMo7BInstruct:Allen AI 开源的微调模型,可通过资料了解从预训练模型到 RLHF 微调模型的所有信息并复刻微调过程。 4. Devv Agent:能提供更准确、详细的回答,底层基于 Multiagent 架构,根据需求采用不同 Agent 和语言模型。 实例探究: 1. ChemCrow:特定领域示例,通过 13 个专家设计的工具增强 LLM,完成有机合成、药物发现和材料设计等任务。 2. Boiko et al. 研究的 LLM 授权的科学发现 Agents:可处理复杂科学实验的自主设计、规划和执行,能使用多种工具。
2024-12-12
开源大模型训练推理,应用开发agent 平台
以下是一些关于开源大模型训练推理、应用开发 agent 平台的相关信息: Agent 构建平台: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具,适用于构建各类问答 Bot。 Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,可将 Copilot 部署到多种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识等,并访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 Gemini 相关:大型语言模型的推理能力在构建通用 agents 方面有潜力,如 AlphaCode 团队构建的基于 Gemini 的 agent 在解决竞争性编程问题方面表现出色。同时,Gemini Nano 提升了效率,在设备上的任务中表现出色。 成为基于 Agent 的创造者的学习路径:未来的 AI 数字员工以大语言模型为大脑串联工具。Agent 工程如同传统软件工程学有迭代范式,包括梳理流程、任务工具化、建立规划、迭代优化。数字员工的“进化论”需要在 AI 能力基础上对固化流程和自主思考作出妥协和平衡。
2024-12-12
对企业来说直接用开源大模型和用国内大厂收费的大模型有哪些区别
对于企业来说,直接使用开源大模型和使用国内大厂收费的大模型主要有以下区别: 数据方面: 开源大模型的数据获取相对容易,但数据质量可能参差不齐。例如,OpenAI 训练大模型所用的中文数据虽源自中国互联网平台,但经过了深度处理,而国内中文互联网数据质量普遍被认为相对较低。 国内大厂收费的大模型可能在数据处理和质量上更具优势,但获取高质量数据对于企业尤其是初创企业来说成本较高且存在风险。 商业化落地方面: 客户在商业化落地时更关注实用性而非原创性,有时因成本低会倾向选择开源大模型的非原创技术。 但使用开源大模型可能存在拼装和套壳后强调原创,从而影响迭代能力,导致内耗、刷榜和作假等问题。 其他方面: 金沙江创投主管合伙人朱啸虎指出,使用大模型要有垂直行业数据,能实现数据闭环,并持续保持和客户的连接。对于大厂而言,要关心自身边界,而创业公司必须对客户和大厂有自身价值才能立足。 目前国内大模型的商业化落地仍处于拿着锤子找钉子的阶段,预计到今年年底头部大模型能基本达到 3.5 水平,明年 11 月有望到 4,但真正能落地的商业化场景有限。
2024-12-07
最新的开源的关于大语言模型的书有哪些?
以下是一些最新的开源的关于大语言模型的书籍和资源: 《LLM 开源中文大语言模型及数据集集合》: Awesome Totally Open Chatgpt: 地址: 简介:This repo record a list of totally open alternatives to ChatGPT. AwesomeLLM: 地址: 简介:This repo is a curated list of papers about large language models, especially relating to ChatGPT. It also contains frameworks for LLM training, tools to deploy LLM, courses and tutorials about LLM and all publicly available LLM checkpoints and APIs. DecryptPrompt: 地址: 简介:总结了 Prompt&LLM 论文,开源数据&模型,AIGC 应用。 Awesome Pretrained Chinese NLP Models: 地址: 简介:收集了目前网上公开的一些高质量中文预训练模型。 《AIGC Weekly 19》:包含了多篇相关文章,如腾讯的开源图像模型 Stable Diffusion 入门手册、马丁的关于 AIGC 的碎片化思考、多邻国创始人 Luis von Ahn 专访、Meta AI 发布的自监督学习 CookBook 等。 《进阶:a16z 推荐进阶经典》: 《GPT4 technical report》(2023 年):来自 OpenAI 的最新和最伟大的论文。 《LLaMA:Open and efficient foundation language models》(2023 年):来自 Meta 的模型。 《Alpaca:A strong,replicable instructionfollowing model》(2023 年):来自斯坦福大学的模型。
2024-12-03
ChatGPT如何训练需要的模型
ChatGPT 的训练模型主要包括以下几个方面: 1. 预训练(Pretrain)阶段:建立模型的能力上限,如确定模型各方面能力的天花板。此阶段跟 GPT3 的方法近似,例如采用 decoderonly 的网络架构,有特定的模型大小、输入窗口大小、单词本大小,见过大量的 tokens,使用大量的原始训练文本。 2. 监督微调(Supervised Finetune,SFT)阶段:让模型学会对话的形式展开,即知道如何按照对话的格式进行交流。 3. 强化学习从人类反馈(Reinforcement Learning from Human Feedback,RLHF)阶段:细分为奖励模型(RM)阶段和强化学习(RL)阶段,能激发模型具备多种能力,包括安全性、推理能力和稳定性等。 训练方式主要是通过材料学习,不断形成模型。其本质功能是“单字接龙”,通过自回归生成的方式,将生成的下一个词与之前的上文组合,不断重复生成任意长的下文。训练的目的不是记忆,而是学习提问和回答的通用规律,实现举一反三,即泛化。学习材料用于调整模型,得到通用模型,以处理未被数据库记忆的情况。ChatGPT 不是搜索引擎的升级版,搜索引擎无法给出未被数据库记忆的信息,而 ChatGPT 作为生成模型可以创造不存在的文本,但可能存在混淆记忆、无法直接查看和更新所学、高度依赖学习材料以及缺乏及时性和准确性等缺点。
2024-12-24
如何训练模型
训练模型的方法有多种,以下为您介绍几种常见的训练模型方式: 1. 用 SD 训练一套贴纸 LoRA 模型: 原始形象:MJ 初步产出符合设计想法的贴纸原始形象。 二次加工:完成贴纸的白色边线等细节加工。 处理素材:给训练集图片打 tag,修改 tag。 训练模型:将上述处理好的数据集做成训练集,进行训练。 2. 基于百川大模型训练虚拟专家: 选择 Baichuan27BChat 模型作为底模,配置模型本地路径,配置提示模板。 在 Train 页面里,选择 sft 训练方式,加载定义好的数据集 wechat 和 self_cognition。 学习率和训练轮次非常重要,根据自己的数据集大小和收敛情况来设置。 使用 FlashAttention2 可减少显存需求,加速训练速度。 显存小的朋友可以减少 batch size 和开启量化训练,内置的 QLora 训练方式非常好用。 需要用到 xformers 的依赖。 显存占用 20G 左右,耐心等待一段时间。 3. 使用编码器解码器架构构建诗歌生成器: 在训练模型之前,需要一个损失函数,由于本质上是一个多类分类问题,损失将是稀疏的分类交叉熵损失,配置从 logits 计算的损失。 有了损失后编译模型,将损失和优化器联系在一起。 选择训练的时期,一个时期是对数据集的完整传递,进行多次训练,并提供回调以确保在训练期间保存权重。 从实际的字符串中提取字符序列,使用 TensorFlow 的 TF 字符串 Unicode 拆分功能。 将字符序列转化为数字,使用 TF Keras 层中的 StringLookup 函数将每个字符映射到给定的 ID,也可使用同一层的 StringLookup 函数获得反向映射。 将处理后的数据作为神经网络的训练数据集,使用 TF Data Dataset API。
2024-12-24
我想找一个关于建筑三维模型渲染的ai网站
以下为一些关于建筑三维模型渲染的 AI 网站: 1. 3dfy.ai:这是一家专注于将稀疏数据转化为逼真三维世界的公司。其领导团队由计算成像领域资深专家组成,拥有近四十年综合专业知识。适用于数字内容创作者、艺术家、游戏开发者、动画制作人、教育和培训行业专业人士、医疗行业以及建筑和工程领域等。 2. HDAidMaster:云端工具,在建筑设计、室内设计和景观设计领域表现出色,搭载自主训练的建筑大模型 ArchiMaster。 3. Maket.ai:主要面向住宅行业,在户型设计和室内软装设计方面有探索。 4. ARCHITEChTURES:AI 驱动的三维建筑设计软件,在住宅设计早期阶段可引入相关标准和规范。 5. Fast AI 人工智能审图平台:形成全自动智能审图流程,实现数据汇总与管理。 但需注意,每个工具都有其特定应用场景和功能,建议您根据自身具体需求选择合适的工具。
2024-12-24
在使用sys prompt时为什么要为模型定义角色
在使用系统提示词(sys prompt)为模型定义角色具有以下重要性: 1. 符合特定应用场景:通过定义角色,使模型的行为和输出更符合具体的应用需求,例如让模型作为历史顾问回答历史问题,或作为技术专家解决技术难题。 2. 明确任务和风格:不仅可以指定具体的人物角色,还能设定一种交流风格,如正式、幽默、友好等。 3. 引导模型行为和输出:为模型提供固定的模板,确保其输出与期望和工作流的需求保持一致。 4. 优化用户体验:ChatGPT 有默认的“一个乐于助人的助手”角色,可通过修改系统提示词来满足更个性化的需求。 然而,也有观点认为不需要过度依赖角色扮演类的提示词。关键是要非常具体地描述出模型所在的使用环境,提供足够详细的信息,以避免模型未按预期完成任务。提示词最重要的是表达清晰准确。
2024-12-24
目前AI大模型有多少个比较知名的
目前比较知名的 AI 大模型有: 北京企业机构: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海企业机构: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 大模型的特点和架构: 架构方面: encoderonly 模型通常适用于自然语言理解任务,例如分类和情感分析,最知名的代表模型是 BERT。 encoderdecoder 模型同时结合了 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 Google 的 T5。 decoderonly 模型更擅长自然语言生成任务,目前耳熟能详的 AI 助手基本都来自此类架构。 大模型的优势在于: 预训练数据非常大,往往来自于互联网上,包括论文、代码、公开网页等,最先进的大模型一般用 TB 级别的数据进行预训练。 参数非常多,Open 在 2020 年发布的 GPT3 就已经达到 170B 的参数。 大模型比较火的应用场景: 文本生成和内容创作:撰写文章、生成新闻报道、创作诗歌和故事等。 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 编程和代码辅助:代码自动补全、bug 修复和代码解释。 翻译和跨语言通信:促进不同语言背景的用户之间的沟通和信息共享。 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 教育和学习辅助:创建个性化的学习材料、自动回答学生问题和提供语言学习支持。 图像和视频生成:如 DALLE 等模型可以根据文本描述生成相应的图像,未来可能扩展到视频内容的生成。 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家的沉浸式体验。 医疗和健康咨询:提供初步的健康建议和医疗信息查询服务。 法律和合规咨询:帮助解读法律文件,提供合规建议,降低法律服务的门槛。 需要注意的是,随着大模型的普及,也需要关注其在隐私、安全和伦理方面的挑战。
2024-12-24
你好,你的大模型是什么
大模型是指输入大量语料,使计算机获得类似人类的“思考”能力,能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在大模型中,Token 被视为模型处理和生成的文本单位,它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与大模型可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary)。 为了让计算机理解 Token 之间的联系,还需要把 Token 表示成稠密矩阵向量,这个过程称之为 embedding,常见的算法有: 基于统计:Word2Vec,通过上下文统计信息学习词向量;GloVe,基于词共现统计信息学习词向量。 基于深度网络:CNN,使用卷积网络获得图像或文本向量;RNN/LSTM,利用序列模型获得文本向量。 基于神经网络:BERT,基于 Transformer 和掩码语言建模(Masked LM)进行词向量预训练;Doc2Vec,使用神经网络获得文本序列的向量。 以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”,指的是用于表达 token 之间关系的参数多,主要是指模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数,其中权重数量达到了这一量级,而词汇表 token 数只有 5 万左右。 此外,如果您想获取更多模型,大多数模型可以在 Civitai(C 站)https://civitai.com/ 下载。下载模型时的注意事项包括: 科学上网,需自行想办法。 点击右上角筛选按钮,找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora 等。 看照片,感兴趣的点进去,点击右边“Download”下载保存到电脑本地。还可以点击左上角“Images”,查看别人做好的图片,找到喜欢的点进去,复制图片信息。 模型下载保存地址: 大模型:SD 根目录即存放 SD 的文件夹。 Lora、VAE 等也有相应的保存位置。 如果不知道下载的模型类型及应存放的文件夹,可以使用秋叶的模型解析工具 https://spell.novelai.dev/,将模型拖动到空白处,自动弹出模型信息,查看模型种类。
2024-12-23