直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

智谱清言的开源大模型哪些种类

回答

智谱清言的开源大模型种类包括:

  • 多模态模型:
    • CogAgent-18B:基于 CogVLM-17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 1120*1120 分辨率的图像理解,具备 GUI 图像的 Agent 能力。代码链接:CogVLM & CogAgent,模型下载:Huggingface魔搭社区Swanhub、始智社区。
    • CogVLM-17B:强大的开源视觉语言模型(VLM),在多模态权威学术榜单上综合成绩优异。代码链接:CogVLM & CogAgent,模型下载:Huggingface魔搭社区
    • Visualglm-6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。代码链接:VisuaGLM,模型下载:Huggingface魔搭社区
    • RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。代码链接:RDM

此外,智谱清言是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。智谱清言在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体来看,智谱清言更擅长专业能力,但在代码能力上还有一定优化空间,知识百科与其他第一梯队模型相比稍显不足。综合来看,智谱清言是一个很有竞争力的大模型。可应用的场景相对广泛,根据 SuperCLUE 测评结果,优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。另外在较复杂推理应用上的效果会比较不错,在广告文案、文学写作方面也是一个很好的选择。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

智谱·AI 开源模型列表

[title]智谱·AI开源模型列表[heading2]多模态模型��模态的模型。|模型|介绍|代码链接|模型下载|<br>|-|-|-|-|<br>|CogAgent-18B|基于CogVLM-17B改进的开源视觉语言模型。CogAgent-18B拥有110亿视觉参数和70亿语言参数,支持1120*1120分辨率的图像理解,在CogVLM功能的基础上,具备GUI图像的Agent能力。|[CogVLM & CogAgent](https://github.com/THUDM/CogVLM)|[Huggingface](https://huggingface.co/THUDM/CogVLM)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/cogagent-chat/summary)|[Swanhub](https://swanhub.co/ZhipuAI/cogagent-chat-hf)|始智社区|<br>|CogVLM-17B|强大的开源视觉语言模型(VLM)。基于对视觉和语言信息之间融合的理解,CogVLM可以在不牺牲任何NLP任务性能的情况下,实现视觉语言特征的深度融合。我们训练的CogVLM-17B是目前多模态权威学术榜单上综合成绩第一的模型,在14个数据集上取得了state-of-the-art或者第二名的成绩。||[Huggingface](https://huggingface.co/THUDM/cogvlm-chat-hf)|[魔搭社区](https://modelscope.cn/models/AI-ModelScope/cogvlm-chat/summary)|<br>|Visualglm-6B|VisualGLM-6B是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于[ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B),具有62亿参数;图像部分通过训练[BLIP2-Qformer](https://arxiv.org/abs/2301.12597)构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。|[VisuaGLM](https://github.com/THUDM/VisualGLM-6B)|[Huggingface](https://huggingface.co/THUDM/visualglm-6b)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/visualglm-6b/summary)|<br>|RDM|Relay Diffusion Model:级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。|[RDM](https://github.com/THUDM/RelayDiffusion)||

2023年度中文大模型基准测评报告.pdf

简介:智谱清言是智谱AI和清华大学推出的大模型产品,基础模型为ChatGLM大模型。2023年10月27日,智谱AI于2023中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型ChatGLM3及相关系列产品。模型特点:智谱清言在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体来看,智谱清言更擅长专业能力,但在代码能力上还有一定优化空间。除此之外,知识百科与其他第一梯队模型相比稍显不足。综合来看,智谱清言是一个很有竞争力的大模型。适合应用:智谱清言可应用的场景相对广泛,根据SuperCLUE测评结果,优先推进在AI智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。另外在较复杂推理应用上的效果会比较不错。广告文案、文学写作方面也是一个很好的选择。

2023年度中文大模型基准测评报告.pdf

[title]中文大模型基准测评2023年度报告[heading1]测评模型列表模型机构简介模型机构简介1.GPT4-Turbo OpenAI 2023年11月7日发布的GPT4的升级版本14.通义千问2.0阿里巴巴官方公开发布的API版本:qwen-max-longcontext2.GPT4(网页版)OpenAI GPT4官方网页版本,支持联网功能15.Claude2Anthropic官方发布的API 2.0版本3.GPT4(API)OpenAI GPT4官方API版本,不支持联网功能16.云雀大模型(豆包)字节跳动官方网页版产品【豆包】4.文心一言4.0(API)百度官方付费使用的文心一言V4.0的API版本17.Gemini-pro Google官方发布的API版本Gemini-pro5.文心一言4.0(网页版)百度官方文心一言网页4.0版本18.GPT3.5-Turbo OpenAI GPT3.5官方API版本6.智谱清言清华&智谱AI官方网页版产品【智谱清言】19.Qwen-14B-Chat阿里巴巴开源的14B的Chat版本7.AndesGPT OPPO OPPO小范围内测API版本20.Baichuan2-13B-Chat百川智能开源的第二代13B的Chat版本8.Moonshot(KimiChat)月之暗面搭载Moonshot的网页版本【KimiChat】21.XVERSE-13B-2-Chat元象科技开源的第二代13B的Chat版本

其他人在问
智谱清言和通义哪个更强大
在不同的测评维度中,智谱清言和通义千问各有优势。 在多轮开放式问题基准 SuperCLUEOPEN 的胜率方面,智谱清言和通义千问 2.0 的胜率均超过 25%。 在工具使用能力的测评中,GPT4 Turbo 取得满分,国内大模型中智谱清言表现不俗,取得 83.78 的高分,排名国内模型第一,通义千问 2.0 也有超过 70 分的表现。 在对结构化 prompt 的测试中,通义千问能够一次输出,但输出内容有待提高;智谱清言在经过改写 prompt 等操作后也有不错的表现。 总体而言,难以简单地判定智谱清言和通义千问哪个更强大,其表现会因具体的测评维度和任务而有所不同。
2024-11-03
智谱的内测版,你们觉得如何
智谱的 AutoGLM 目前处于内测阶段,申请入口在智谱清言 APP 中,直接跟 AutoGLM 内测申请小助手对话提交申请即可。智谱将传统表单的提交通过 Tools 的方式做到了对话中,提升了体验。目前只能在安卓设备上使用,iOS 很长时间内可能都不支持。因为数据的获取和操作是通过安卓的无障碍权限来控制的,用户同意应用获取无障碍服务的权限之后就可以模拟操作来控制手机,但开启无障碍服务可能会引起手机卡顿和存在隐私问题。登录 AutoGLM 后首先要引导开启无障碍权限和悬浮球权限,授权正常后可进入首页。 智谱 AI 发布的 AutoGLM 被认为是一个“王炸”产品,有人在 3 天前拿到内测,使用时带来震撼。例如对其说“我 29 号要去一趟深圳,你帮我定个罗湖地铁站附近的酒店,预算 600 元以内,大床房。” 此外,在各大模型对结构化 prompt 的测试和反馈中,智谱清言在输入相关 prompt 后,存在一些问题,需要改写并不断优化,结构化 prompt 非常重要。
2024-10-30
介绍一下智谱清言
智谱清言是由智谱 AI 和清华大学推出的大模型产品,其基础模型为 ChatGLM 大模型。 模型特点: 工具使用排名国内第一。 在计算、逻辑推理、传统安全能力上排名国内前三。 更擅长专业能力,但代码能力有优化空间,知识百科方面与其他第一梯队模型相比稍显不足。 适合应用: 场景广泛,可优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。 在较复杂推理应用上效果不错。 广告文案、文学写作方面也是很好的选择。 访问方式: PC 端: 移动端: 小程序端:搜索【智谱清言】进入【清影】智能体 在中国 AI 领域,智谱 AI 的模型具有开创性,其背后技术源自清华大学研发团队的科研成果转化。产品设计对标 ChatGPT,在逻辑推理和处理复杂提示词方面表现出明显优势。
2024-10-30
智谱ai的最近消息
以下是智谱 AI 的最近消息: 10 月 25 日,智谱 AI 在 CNCC 上发布了 AutoGLM,一个可将手机变为智能助手“贾维斯”的新产品。其能自主完成复杂任务,如自动订酒店等,表现出强大的理解和执行能力,超越普通对话机器人。它不仅能处理日常事务,还能管理社交关系,真正实现智能代理的功能。 1 月 16 日,智谱 AI 发布新一代模型 GLM4,性能逼近 GPT4,支持更长上下文和更强多模态能力,推理速度快,高并发支持,比 GLM3 提升 60%,还推出了 GLMs 和 GLM4All Tools,CEO 张鹏对大模型发展进行了评论。
2024-10-28
OK,那么应该怎么使用智谱AI呢
使用智谱 AI 可以参考以下内容: 智谱 AI 的模型具有开创性,其背后的技术源自清华大学研发团队的科研成果转化,模型质量出色。 在产品设计方面,以 ChatGPT 为对标,努力打造类似的用户体验。 是国内首批开放智能体应用的公司之一,在逻辑推理和处理复杂提示词方面有明显优势,在处理需要深度思考和分析的任务时表现出色。 调用相关接口时,例如 https://chatglm.cn/chatglm/backendapi/v1/conversation/recommendation/list ,注意参数的使用,如 conversation_id 字段和 GET 请求。 智谱 AI 在回答问题时会基于上下文进行回复,会读取 history 进行归纳总结,注意到当前用户可能关心的问题并提出下一步建议。 如果您是新手,在学习使用智谱 AI 之前,建议先了解 AI 的基本概念,如阅读“”中的课程学习生成式 AI 等基础知识,掌握提示词技巧,并通过实践和体验其他 AI 产品来巩固知识和积累经验。
2024-10-07
我是一个AI小白,请帮我介绍一下智谱清言、扣子、kimi这三款AI产品的能力优劣势
以下是智谱清言、扣子、kimi 这三款 AI 产品的能力优劣势介绍: 智谱清言: 优势: 背后技术源自清华大学研发团队的科研成果转化,模型质量出色。 以 ChatGPT 为对标打造用户体验,是国内首批开放智能体应用的公司之一。 在逻辑推理和处理复杂提示词方面表现明显优势,能出色处理需要深度思考和分析的任务。 劣势:暂未提及。 Kimi: 优势: 具有超长上下文能力,最初支持 20 万字,现已提升到 200 万字,对于处理长文本或大量信息的任务有巨大优势。 劣势: 文字生成和语义理解能力可能不如国内其他产品好。 文字生成质量方面有待提升。 不支持用户自定义智能体。 关于扣子,文中未提及相关内容,无法为您介绍其能力优劣势。
2024-09-29
文心一言和智普清言哪个更好用
文心一言和智谱清言在不同方面各有特点。 在对结构化 prompt 的响应方面: 智谱清言能够按照 prompt 指示回答,理解意图较好,输出格式基本符合要求,内容相对具体,体验感较好。 文心一言在某些任务中可能没有完全执行提示词要求,需要二次提示和引导。 在复杂提示词理解和执行的测评中: 智谱清言表现亮眼,对提示词结构的执行较完整,生成内容丰富,格式美观,但案例部分未完全按要求列举。 文心一言在这轮表现中相对较差。 综合来看,两者的表现取决于具体的使用场景和需求。如果需要更准确和完整地执行提示词,智谱清言可能更具优势;但如果对特定领域的理论性输出有需求,文心一言也可能有一定的价值。
2024-11-03
智谱清言的视频问答怎么样
智谱清言在视频问答方面的表现如下: 在结构化 prompt 测试中,能够按照 prompt 指示回答,理解意图较好。但对于“离婚”相关问题,输出内容起初较抽象,不符合客户咨询场景,经要求改进后有所改善,但仍存在内容偏软、像心灵鸡汤、作用有限的情况。对于律师助理或客户来说,能达到最低标准,对有经验的执业律师作用不大。 在与文心一言 4.0 等的小样本测评中,对比来看,智谱清言在处理复杂提示词时,属于言简意赅地分析结果但错误,而文心一言 4.0 很努力分析很多步骤但依然错误。 从产品角度,智谱 AI 在中国 AI 领域具有开创性,模型质量出色,以 ChatGPT 为对标打造用户体验,是国内首批开放智能体应用的公司之一,在逻辑推理和处理复杂提示词方面有明显优势,在处理需要深度思考和分析的任务时表现出色。
2024-09-07
请问国内的ai大模型,比如coze,豆包,kimi,科大讯飞,天工,通义千问,智谱清言,秘塔,知乎直达,文心一言,他们各有什么有优势
以下是国内一些 AI 大模型的优势: 通义千问:由阿里云开发,能够与人交互、回答问题及协作创作。 科大讯飞(SparkDesk):有免费接口,在某些应用场景中具有出色表现。 智谱清言:在聊天状态下能生成 Markdown 格式。 文心一言:百度出品的 AI 对话产品,定位为智能伙伴,能写文案、想点子,又能陪你聊天、答疑解惑。 抖音(云雀大模型):暂未明确其独特优势。 智谱 AI(GLM 大模型):暂未明确其独特优势。 中科院(紫东太初大模型):暂未明确其独特优势。 百川智能(百川大模型):暂未明确其独特优势。 商汤(日日新大模型):暂未明确其独特优势。 MiniMax(ABAB 大模型):目前不能进行自然语言交流,但有语音合成等特色功能。 Kimi 智能助手:由 Moonshot AI 出品,有着超大“内存”,可以一口气读完二十万字的小说,还会上网冲浪。 需要注意的是,不同大模型的优势会因应用场景和用户需求的不同而有所差异。
2024-09-03
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
通义千问开源大模型种类
通义千问开源了多种大模型,其中 Qwen 2 模型性能超越目前所有开源模型和国内闭源模型。以下是相关信息: 性能突破:在中国大模型领域,开源模型显示出超越最强闭源模型的势头,从性能到生态都具备了媲美美国 Llama3 的能力。开源模型用实力证明其正在变得越来越强。 开源历程:2023 年 8 月,阿里云成为国内首个宣布开源自研模型的科技企业,推出通义千问第一代开源模型 Qwen;2024 年 2 月,1.5 代开源模型 Qwen1.5 发布;不到 4 个月后,Qwen2 开源。不到一年时间,通义先后开源数十款不同尺寸的模型,包括大语言模型、多模态模型、混合专家模型、代码大模型。 性能特点:Qwen 2 包括 5 种尺寸的预训练和指令调整模型,如 Qwen20.5B、Qwen21.5B、Qwen27B、Qwen257BA14B 和 Qwen272B。除英语和中文外,还接受过另外 27 种语言的数据训练,在大量基准评估中表现出最先进的性能,代码和数学性能显著提高,全面超越 llama3,增大了上下文长度支持。相比 Qwen1.5,Qwen2 实现了整体性能的代际飞跃。在国际权威测评中,Qwen272B 获十几项世界冠军,超过美国的 Llama3。 体验和下载:Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen272binstruct 模型已经上线中国大语言模型评测竞技场 Compass Arena,所有人都可以登录体验 Qwen2 的性能,或者选择 Qwen2 模型与其他大模型进行对比测评。测评地址为。Compass Arena 是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的 20 多款大模型。 您还可以通过玉宝搞的 LLM 在线评估(https://www.llmrank.cn/)查看国内各个闭源大模型的 HUMANEVAL 测评得分,并与 QWEN2 对比。
2024-11-04
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04
当前最好的开源目标检测
目前较好的开源目标检测算法包括: 基于深度学习的目标检测算法,如 RCNN、Fast RCNN、Faster RCNN、YOLO、SSD 等。 基于传统计算机视觉技术的目标检测算法,如 HOG、SIFT、SURF 等。 YOLOv8 是一款出色的目标检测跟踪模型,具有快速准确的多对象识别和定位能力,支持实例分割、人体姿态估计等,多平台兼容,是一站式视觉识别解决方案。其详细介绍可参考:https://docs.ultralytics.com/models/ ,GitHub 地址为:https://github.com/ultralytics/ultralytics
2024-11-04
最新的开源数字人项目
以下是一些最新的开源数字人项目: 1. 项目地址:https://github.com/wanh/awesomedigitalhumanlive2d ,选择了 live2d 作为数字人躯壳,其驱动方式相比 AI 生成式更可控和自然,相比虚幻引擎更轻量和简单,卡通二次元形象接受度更高。Live2D 的 SDK 驱动方式可参考官方示例:https://github.com/Live2D 。 2. 开源数字人组合方案: 第一步:先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits克隆声音,做出文案的音频。 第二步:使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址:https://github.com/Rudrabha/Wav2Lip 。产品:https://synclabs.so/ 。 3. 构建数字人灵魂:可借助开源社区的力量,如 dify、fastgpt 等成熟的高质量 AI 编排框架。在开源项目中使用了 dify 的框架,可利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,具体部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。如有更高度定制的模型,也可在 Dify 中接入 XInference 等模型管理平台部署自己的模型。数字人 GUI 工程中保留了 LLM、ASR、TTS、Agent 等多个模块,便于扩展。
2024-11-01
开源大模型分析
以下是一些开源大模型的分析: 1. KnowLM: 地址: 简介:旨在发布开源大模型框架及相应模型权重以助力减轻知识谬误问题,包括大模型的知识难更新及存在潜在的错误和偏见等。一期发布了基于 Llama 的抽取大模型智析,使用中英文语料对 Llama(13B)进行进一步全量预训练,并基于知识图谱转换指令技术对知识抽取任务进行优化。 2. BayLing: 地址: 简介:由中国科学院计算技术研究所自然语言处理团队开发,是一个具有增强的跨语言对齐的通用大模型。以 Llama 为基座模型,探索了以交互式翻译任务为核心进行指令微调的方法,旨在同时完成语言间对齐以及与人类意图对齐,将 Llama 的生成能力和指令跟随能力从英语迁移到其他语言(中文)。在多语言翻译、交互翻译、通用任务、标准化考试的测评中,中文/英语均有更好表现,并提供了在线的内测版 demo 以供体验。 3. Gemma: 作者:,华中科技大学工学硕士 简介:由 Google DeepMind 和 Google 的其他团队开发,是一系列轻量级的最先进开源模型,灵感来自于 Gemini,名称反映了拉丁语中“宝石”的意思。除了模型权重,谷歌还发布了一些工具来支持开发者的创新,促进合作,并指导 Gemma 模型的负责任使用。 重点:共两个尺寸的模型权重:Gemma 2B 和 Gemma 7B。每种尺寸都提供了预训练和指令调优的版本。 模型地址: 官方页面:https://ai.google.dev/gemma/ 特点:相比 Gemini 更加轻量,同时保持免费可用,模型权重也一并开源了,且允许商用。包含两种权重规模的模型:Gemma 2B 和 Gemma 7B。每种规模都有预训练和指令微调版本。可通过 Kaggle、谷歌的 Colab Notebook 或通过 Google Cloud 访问。尽管体量较小,但在关键基准测试中明显超越了更大的模型,包括 Llama2 7B 和 13B,以及 Mistral 7B,能够直接在开发人员的笔记本电脑或台式电脑上运行。在 HuggingFace 的 LLM leaderboard 上,Gemma 的 2B 和 7B 模型已经双双登顶。
2024-10-28
应急大模型推荐哪个
以下为一些应急大模型的推荐及相关信息: 常用的模型网站有: 不同类型的模型安装位置: 大模型(Ckpt):放入 models\\Stablediffusion VAE 模型:一些大模型需要配合 vae 使用,对应的 vae 同样放置在 models\\Stablediffusion 或 models\\VAE 目录,然后在 webui 的设置栏目选择。 Lora/LoHA/LoCon 模型:放入 extensions\\sdwebuiadditionalnetworks\\models\\lora,也可以在 models/Lora 目录 Embedding 模型:放入 embeddings 目录 不同照片风格对应不同大模型,例如生成真人 AI 小姐姐,可选用 chilloutmix 的大模型。生成真实场景下的字体,可选择 lofi.v2 等大模型。不同的大模型对 ControlNet 模型的控制力有不同的适应度,可能需要微调参数。
2024-11-05
用户体验设计与大模型的关系
用户体验设计与大模型密切相关。 在构建基于大模型的应用方面: 开发大模型应用复杂,涉及众多步骤和环节,包括框架选择、提示词设计等。 提示词的精心设计和调试至关重要,直接影响模型输出质量和应用效果。 构建有效的大型语言模型应用需要遵循一系列要点,如进行工程化、选择合适框架、了解业务需求、设计提示词、遵守安全和伦理标准、测试迭代、持续维护更新等。 在 AI 战场的发展趋势方面: 2023 年认为训练最好的模型就能吸引用户,但 2024 年大量消费者 AI 应用将通过提供最佳用户体验而非单纯提升模型性能来竞争,大模型可作为差异化优势之一,但老式护城河仍可能决定长期赢家。 关于大模型的道德观念: 大型语言模型本身不具有真正的道德观念或意识,它们是通过大量数据训练模拟语言统计规律的。 开发者和研究人员会采取多种方法确保模型输出符合社会道德和伦理标准,如数据清洗、算法设计、制定准则、保持透明度、用户反馈、持续监控、人工干预、教育和培训等,但这仍是复杂且持续的挑战。
2024-11-04
有没有对监控图像清晰度处理较好的模型
以下为一些对监控图像清晰度处理较好的模型及相关方法: 1. 【SD】超清无损放大器 StableSR: 需要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 还有一个 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 测试表明,StableSR 的放大效果在处理一些图像时,能够较好地保留人物细节,如眼神更锐利等。 2. 【SD】最强控制插件 ControlNet 的 tile 模型: 可用于高清修复小图,如将分辨率不高的食物图片进行高清化处理。 能修复和增加图像细节,如处理细节不足或结构错误的小屋图像。 3. 图像高清修复放大流程: 整个流程分为输入原始图像、修复图像、放大并重绘图像三部分。 图像输入时不建议上传大分辨率图片,以免处理时间过长。 图像高清修复时,Checkpoint 大模型使用 Iceclear/StableSR,并搭配 Stable SR Upscaler 模型,提示词应包含想要达到的目的内容。 图像高清放大时,用 realisticVision 底膜,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型进行二次放大。
2024-11-04