直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

通义千问开源大模型种类

回答

通义千问开源了多种大模型,其中 Qwen 2 模型性能超越目前所有开源模型和国内闭源模型。以下是相关信息:

  • 性能突破:在中国大模型领域,开源模型显示出超越最强闭源模型的势头,从性能到生态都具备了媲美美国 Llama3 的能力。开源模型用实力证明其正在变得越来越强。
  • 开源历程:2023 年 8 月,阿里云成为国内首个宣布开源自研模型的科技企业,推出通义千问第一代开源模型 Qwen;2024 年 2 月,1.5 代开源模型 Qwen1.5 发布;不到 4 个月后,Qwen2 开源。不到一年时间,通义先后开源数十款不同尺寸的模型,包括大语言模型、多模态模型、混合专家模型、代码大模型。
  • 性能特点:Qwen 2 包括 5 种尺寸的预训练和指令调整模型,如 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 和 Qwen2-72B。除英语和中文外,还接受过另外 27 种语言的数据训练,在大量基准评估中表现出最先进的性能,代码和数学性能显著提高,全面超越 llama3,增大了上下文长度支持。相比 Qwen1.5,Qwen2 实现了整体性能的代际飞跃。在国际权威测评中,Qwen2-72B 获十几项世界冠军,超过美国的 Llama3。
  • 体验和下载:Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen2-72b-instruct 模型已经上线中国大语言模型评测竞技场 Compass Arena,所有人都可以登录体验 Qwen2 的性能,或者选择 Qwen2 模型与其他大模型进行对比测评。测评地址为https://opencompass.org.cn/arena。Compass Arena 是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的 20 多款大模型。

您还可以通过玉宝搞的 LLM 在线评估(https://www.llmrank.cn/)查看国内各个闭源大模型的 HUMANEVAL 测评得分,并与 QWEN2 对比。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Qwen 2开源了 模型性能超越目前所有开源模型和国内闭源模型

[title]Qwen 2开源了模型性能超越目前所有开源模型和国内闭源模型[heading1]相关参考信息除了美国Llama开源生态之外,通义千问已成为全球开发者的另一主流选项。五、如何看待Qwen2系列的性能突破?Qwen2的发布,标志着中国开源模型发展的两个重大进展:1、在中国大模型领域,开源模型显示出超越最强闭源模型的势头。2、中国的开源大模型,从性能到生态都具备了媲美美国Llama3的能力。一年前,人们普遍认为开源模型和最领先的闭源模型之间存在相当大的代差,如今,开源模型用实力证明,开源模型正在变得越来越强。六、为什么要坚持开源开放?通义千问大模型的持续优化和进步,主要依赖三大能力:强大的大模型研发能力、领先的基础设施能力以及开源社区的充分支持。来自开源社区源源不断的开发者反馈,一直在帮助研发团队迭代技术、优化模型。阿里云是全球唯一一家积极研发先进AI模型并且全方位开源的云计算厂商。2023年8月,阿里云成为国内首个宣布开源自研模型的科技企业,推出通义千问第一代开源模型Qwen;2024年2月,1.5代开源模型Qwen1.5发布;不到4个月后,Qwen2开源。不到一年时间,通义先后开源数十款不同尺寸的模型,包括大语言模型、多模态模型、混合专家模型、代码大模型。开源频率和速度全球无二,模型的性能也随着版本迭代而肉眼可见地进化,从Qwen-72B开始,逐渐步入全球大模型竞争的核心腹地,在权威榜单多次创造中国大模型的“首次”。

Qwen 2开源了 模型性能超越目前所有开源模型和国内闭源模型

[title]Qwen 2开源了模型性能超越目前所有开源模型和国内闭源模型[heading1]相关参考信息玉宝搞过一个LLM的在线评估,里面可以看到国内各个闭源大模型的HUMANEVAL测评得分,可以和QWEN2对比https://www.llmrank.cn/2023年8月起,通义千问密集推出Qwen、Qwen1.5、Qwen2三代开源模型,实现了全尺寸、全模态开源。不到一年时间,通义开源大模型性能不断突破,Qwen系列的72B、110B模型多次登顶HuggingFace的Open LLM Leaderboard开源模型榜单。(图说:HuggingFace的开源大模型排行榜Open LLM Leaderboard是目前大模型领域最具权威性的榜单,收录了全球上百个开源大模型的性能测试结果,Qwen-72B和Qwen1.5-110B都曾登顶这一榜单)二、在哪里可以体验Qwen2系列模型?Qwen2系列已上线魔搭社区ModelScope和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型API。同时,Qwen2-72b-instruct模型已经上线中国大语言模型评测竞技场Compass Arena,所有人都可以登录体验Qwen2的性能,或者选择Qwen2模型与其他大模型进行对比测评。测评地址([https://opencompass.org.cn/arena](https://opencompass.org.cn/arena))。Compass Arena是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的20多款大模型,包括阿里通义千问、百度文心一言、腾讯混元、讯飞星火、字节跳动豆包、智谱AI、百川智能、零一万物、月之暗面等等,用户可在平台选择大模型的两两“对战”,实名或匿名对战皆可。

Qwen 2开源了 模型性能超越目前所有开源模型和国内闭源模型

5种尺寸的预训练和指令调整模型,包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B;(Qwen2-57B-A14B这个模型可以重点看看除英语和中文外,还接受过另外27种语言的数据训练;在大量基准评估中表现出最先进的性能;在大量基准评估中获得SOTA性能。代码和数学性能显著提高,全面超越llama3增大了上下文长度支持,最高达到128K tokens(Qwen2-72B-Instruct)。HF最新榜第一72B和7B可处理128k上下文57B-A14B可处理64k上下文0.5B和1.5B可处理32k上下文相比2月推出的通义千问Qwen1.5,Qwen2实现了整体性能的代际飞跃。在权威模型测评榜单OpenCompass中,此前开源的Qwen1.5-110B已领先于文心4.0等一众中国闭源模型。刚刚开源的Qwen2-72B,整体性能相比Qwen1.5-110B又取得了大幅提升。(图说:在上海人工智能实验室推出的OpenCompass大模型测评榜单上,此前开源的Qwen1.5-110B已领先于文心4.0等一众中国闭源模型)通义千问Qwen2系列模型大幅提升了代码、数学、推理、指令遵循、多语言理解等能力。在MMLU、GPQA、HumanEval、GSM8K、BBH、MT-Bench、Arena Hard、LiveCodeBench等国际权威测评中,Qwen2-72B获十几项世界冠军,超过美国的Llama3。(图说:Qwen2-72B在十多个权威测评中获得冠军,超过美国的Llama3-70B模型)

其他人在问
在一个设定中,使用阿里千问模型,设定角色为“美嘉”,知识库为《爱情公寓》全季剧情,实现问答。
在一个设定中,使用阿里千问模型,将角色设定为“美嘉”,知识库设定为《爱情公寓》全季剧情来实现问答。 大语言模型就像一个学习过无数本书、拥有无穷智慧的人,对公共知识、学识技能、日常聊天很擅长,但在工作场景中需要提示词来告诉它角色和专注技能,变成所需的“员工”。知识库则相当于给这个“聪明员工”发放的工作手册,比如知道老板娘吃饭要打三折等特定信息。 这里的设定为:AI 模型使用阿里千问模型,提示词设定的角色是“美嘉”,按照其人设、背景和对话风格设定,知识库是《爱情公寓》全季剧情,让“美嘉”拥有过往“记忆”。 例如,提问“你是谁?你和子乔在台球厅吵架那次是为了什么吵架?”,回复是“我是陈美嘉,那次在台球厅和吕子乔吵架是因为他约会被人撞见,我讽刺他脸大影响信号,他还反击我。后来谈到过去的事情,我指责他忘恩负义,他就说我平。最后,我伤心地说要分手,因为他之前甩过我。” 然而,有时回答会不准确,比如提问“一菲为美嘉找了一份助教工作”,AI 可能未根据正确的知识库内容回答,这是常见的错误场景,在严肃场景中不能接受。优化 AI 更准确回答问题的过程称为 RAG(RetrievalAugmented Generation),即检索增强生成,由检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统,能提供详细准确的回答。
2024-10-29
通义千问是怎么训练的?
通义千问是阿里推出的一款超大规模预训练语言模型,其训练过程包括以下方面: 1. 大规模预训练:基于先进的深度学习技术进行研发。 2. 精细微调:提升智能水平,使其表现更接近人类,进一步提升代码、数学、推理、指令遵循、多语言理解等能力,并学会对齐人类价值观,变得更有帮助、诚实和安全。 探索多种自动方法获取高质量、可靠、有创造力的指令和偏好数据,如针对数学的拒绝采样、针对代码和指令遵循的代码执行反馈、针对创意写作的回译、针对角色扮演的 scalable oversight 等。 结合有监督微调、反馈模型训练以及在线 DPO 等方法,并采用在线模型合并的方法减少对齐税。 不久后,通义千问团队将推出 Qwen2 的技术报告。Qwen 系列模型在全球爆火,近一个月内总下载量翻倍,已突破 1600 万次。海内外开源社区已经出现了超过 1500 款基于 Qwen 二次开发的模型和应用。
2024-10-24
通义千问和文心一言有什么不一样
通义千问和文心一言的不同点主要体现在以下几个方面: 1. 开发团队:文心一言由百度出品,通义千问由阿里云开发。 2. 功能特点: 文心一言定位为智能伙伴,能写文案、想点子,陪用户聊天、答疑解惑。 通义千问能够与人交互、回答问题及协作创作。 3. 在一些具体应用场景中的表现: 在律师答辩状 prompt 评测中,文心一言 3.5 输入起诉状后,直接给出起诉状范本,未理解 prompt 输出答辩状,提示后主体少、不专业、错误多,输出应诉方案能按 prompt 结构,内容简洁可作框架。 通义千问在律师答辩状 prompt 评测中,欢迎语直接,输入起诉状后两个答辩人正确,能按 prompt 结构输出但专业性稍差,未引用法律条文,提示输出应诉方案能按 prompt 结构,整体内容及格无亮点。
2024-10-20
通义千问怎么登陆
要登陆通义千问,您可以按照以下步骤进行操作: 1. 访问 OneAPI,访问地址为:http://这里改成您自己宝塔左上角的地址:3001/(举例:http://11.123.23.454:3001/),账号默认 root,密码 123456。 2. 点击【渠道】。 3. 类型选择阿里通义千问,名称随意,类型不用删减。 4. 把千问里创建的 API Key 粘贴到秘钥里中,点击确认。 5. 点击【令牌】【添加新令牌】。 6. 名称随意,时间设为永不过期、额度设为无限额度,点击【提交】。 7. 点击【令牌】,会看到自己设置的。点击复制,出现 key,然后在标红那一行中,自己手动复制下来。 8. OneAPI 配置完成,保存好这个 KEY。
2024-09-10
通义千问怎么登陆
要登录通义千问,您可以按照以下步骤进行操作: 1. 访问 OneAPI。访问地址:http://这里改成您自己宝塔左上角的地址:3001/(举例:http://11.123.23.454:3001/),账号默认 root,密码 123456。 2. 点击【渠道】。 3. 类型选择阿里通义千问,名称随意,类型不用删减。 4. 把千问里创建的 API Key 粘贴到秘钥里中,点击确认。 5. 点击【令牌】【添加新令牌】。 6. 名称随意,时间设为永不过期、额度设为无限额度,点击【提交】。 7. 点击【令牌】,会看到自己设置的。点击复制,出现 key,然后在标红那一行中,自己手动复制下来。 8. OneAPI 配置完成,保存好这个 KEY。
2024-09-10
请问国内的ai大模型,比如coze,豆包,kimi,科大讯飞,天工,通义千问,智谱清言,秘塔,知乎直达,文心一言,他们各有什么有优势
以下是国内一些 AI 大模型的优势: 通义千问:由阿里云开发,能够与人交互、回答问题及协作创作。 科大讯飞(SparkDesk):有免费接口,在某些应用场景中具有出色表现。 智谱清言:在聊天状态下能生成 Markdown 格式。 文心一言:百度出品的 AI 对话产品,定位为智能伙伴,能写文案、想点子,又能陪你聊天、答疑解惑。 抖音(云雀大模型):暂未明确其独特优势。 智谱 AI(GLM 大模型):暂未明确其独特优势。 中科院(紫东太初大模型):暂未明确其独特优势。 百川智能(百川大模型):暂未明确其独特优势。 商汤(日日新大模型):暂未明确其独特优势。 MiniMax(ABAB 大模型):目前不能进行自然语言交流,但有语音合成等特色功能。 Kimi 智能助手:由 Moonshot AI 出品,有着超大“内存”,可以一口气读完二十万字的小说,还会上网冲浪。 需要注意的是,不同大模型的优势会因应用场景和用户需求的不同而有所差异。
2024-09-03
开源大模型ChatGLM 系列有哪些版本
ChatGLM 系列的开源版本包括: ChatGLM36B:第三代 ChatGLM 对话模型,采用全新设计的 Prompt 格式,原生支持工具调用、代码执行和 Agent 任务等复杂场景。 ChatGLM36Bbase:第三代 ChatGLM 基座模型,采用更多样的训练数据、更充分的训练步数和更合理的训练策略,在 10B 以下的基础模型中性能较强。 ChatGLM36B32k:第三代 ChatGLM 长上下文对话模型,在 ChatGLM36B 的基础上进一步强化了对长文本的理解能力,能处理最多 32K 长度的上下文。
2024-11-04
智谱清言的开源大模型哪些种类
智谱清言的开源大模型种类包括: 多模态模型: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,具备 GUI 图像的 Agent 能力。代码链接:、始智社区。 CogVLM17B:强大的开源视觉语言模型(VLM),在多模态权威学术榜单上综合成绩优异。代码链接:。 Visualglm6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。代码链接:。 RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。代码链接:。 此外,智谱清言是智谱 AI 和清华大学推出的大模型产品,基础模型为 ChatGLM 大模型。2023 年 10 月 27 日,智谱 AI 于 2023 中国计算机大会(CNCC)上,推出了全自研的第三代基座大模型 ChatGLM3 及相关系列产品。智谱清言在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。总体来看,智谱清言更擅长专业能力,但在代码能力上还有一定优化空间,知识百科与其他第一梯队模型相比稍显不足。综合来看,智谱清言是一个很有竞争力的大模型。可应用的场景相对广泛,根据 SuperCLUE 测评结果,优先推进在 AI 智能体方面相关的应用,包括任务规划、工具使用及一些长文本记忆相关的场景。另外在较复杂推理应用上的效果会比较不错,在广告文案、文学写作方面也是一个很好的选择。
2024-11-04
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04
当前最好的开源目标检测
目前较好的开源目标检测算法包括: 基于深度学习的目标检测算法,如 RCNN、Fast RCNN、Faster RCNN、YOLO、SSD 等。 基于传统计算机视觉技术的目标检测算法,如 HOG、SIFT、SURF 等。 YOLOv8 是一款出色的目标检测跟踪模型,具有快速准确的多对象识别和定位能力,支持实例分割、人体姿态估计等,多平台兼容,是一站式视觉识别解决方案。其详细介绍可参考:https://docs.ultralytics.com/models/ ,GitHub 地址为:https://github.com/ultralytics/ultralytics
2024-11-04
最新的开源数字人项目
以下是一些最新的开源数字人项目: 1. 项目地址:https://github.com/wanh/awesomedigitalhumanlive2d ,选择了 live2d 作为数字人躯壳,其驱动方式相比 AI 生成式更可控和自然,相比虚幻引擎更轻量和简单,卡通二次元形象接受度更高。Live2D 的 SDK 驱动方式可参考官方示例:https://github.com/Live2D 。 2. 开源数字人组合方案: 第一步:先剪出音频,使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits克隆声音,做出文案的音频。 第二步:使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址:https://github.com/Rudrabha/Wav2Lip 。产品:https://synclabs.so/ 。 3. 构建数字人灵魂:可借助开源社区的力量,如 dify、fastgpt 等成熟的高质量 AI 编排框架。在开源项目中使用了 dify 的框架,可利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,具体部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。如有更高度定制的模型,也可在 Dify 中接入 XInference 等模型管理平台部署自己的模型。数字人 GUI 工程中保留了 LLM、ASR、TTS、Agent 等多个模块,便于扩展。
2024-11-01
开源大模型分析
以下是一些开源大模型的分析: 1. KnowLM: 地址: 简介:旨在发布开源大模型框架及相应模型权重以助力减轻知识谬误问题,包括大模型的知识难更新及存在潜在的错误和偏见等。一期发布了基于 Llama 的抽取大模型智析,使用中英文语料对 Llama(13B)进行进一步全量预训练,并基于知识图谱转换指令技术对知识抽取任务进行优化。 2. BayLing: 地址: 简介:由中国科学院计算技术研究所自然语言处理团队开发,是一个具有增强的跨语言对齐的通用大模型。以 Llama 为基座模型,探索了以交互式翻译任务为核心进行指令微调的方法,旨在同时完成语言间对齐以及与人类意图对齐,将 Llama 的生成能力和指令跟随能力从英语迁移到其他语言(中文)。在多语言翻译、交互翻译、通用任务、标准化考试的测评中,中文/英语均有更好表现,并提供了在线的内测版 demo 以供体验。 3. Gemma: 作者:,华中科技大学工学硕士 简介:由 Google DeepMind 和 Google 的其他团队开发,是一系列轻量级的最先进开源模型,灵感来自于 Gemini,名称反映了拉丁语中“宝石”的意思。除了模型权重,谷歌还发布了一些工具来支持开发者的创新,促进合作,并指导 Gemma 模型的负责任使用。 重点:共两个尺寸的模型权重:Gemma 2B 和 Gemma 7B。每种尺寸都提供了预训练和指令调优的版本。 模型地址: 官方页面:https://ai.google.dev/gemma/ 特点:相比 Gemini 更加轻量,同时保持免费可用,模型权重也一并开源了,且允许商用。包含两种权重规模的模型:Gemma 2B 和 Gemma 7B。每种规模都有预训练和指令微调版本。可通过 Kaggle、谷歌的 Colab Notebook 或通过 Google Cloud 访问。尽管体量较小,但在关键基准测试中明显超越了更大的模型,包括 Llama2 7B 和 13B,以及 Mistral 7B,能够直接在开发人员的笔记本电脑或台式电脑上运行。在 HuggingFace 的 LLM leaderboard 上,Gemma 的 2B 和 7B 模型已经双双登顶。
2024-10-28
智谱清言和通义哪个更强大
在不同的测评维度中,智谱清言和通义千问各有优势。 在多轮开放式问题基准 SuperCLUEOPEN 的胜率方面,智谱清言和通义千问 2.0 的胜率均超过 25%。 在工具使用能力的测评中,GPT4 Turbo 取得满分,国内大模型中智谱清言表现不俗,取得 83.78 的高分,排名国内模型第一,通义千问 2.0 也有超过 70 分的表现。 在对结构化 prompt 的测试中,通义千问能够一次输出,但输出内容有待提高;智谱清言在经过改写 prompt 等操作后也有不错的表现。 总体而言,难以简单地判定智谱清言和通义千问哪个更强大,其表现会因具体的测评维度和任务而有所不同。
2024-11-03
除了通义、海螺之外,还有哪些可以制作短视频的AI工具
以下是一些可以制作短视频的 AI 工具: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析并生成素材和文本框架,能快速实现从文字到画面的转化。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入转化为视频。 3. Pictory:AI 视频生成器,用户提供文本描述即可生成相应视频内容。 4. VEED.IO:提供 AI 图像和脚本生成器,帮助用户从图像制作视频并规划内容。 5. Runway:能将文本转化为风格化的视频内容,适用于多种场景。 6. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,可根据文本脚本生成视频。 此外,剪映虽然方便,有很多人性化设计和简单音效库、小特效,但无法协同工作和导出工程文件,应用于商业化效果有限。剪辑流程通常包括视频粗剪、定剪、音效/音乐、特效、包装(如字幕)等步骤。在音效和音乐方面,剪映的简单音效库可用于制作简单短片,复杂音效需另外制作,音乐商用要注意版权。特效方面,如剪映可添加一些光的效果。包装方面,剪映智能匹配字幕再修改较为方便。
2024-10-14
通义听悟有什么功能
通义听悟是阿里云推出的一款基于大模型的工作学习 AI 助手,具有以下功能: 1. 针对音视频内容提供转写、检索、摘要和整理等功能。 实时记录交流内容并同步翻译。 批量转写音视频文件并区分发言人。 智能提炼全文概要、章节速览和发言总结。 提取视频中的 PPT 并总结摘要。 自动提取关键词和待办事项。 编辑整理笔记并导出分享。 2. 在对比多个播客转文字的产品后,体验较好。 首页突出转录播客的功能,注册赠送 10 小时免费转录。 支持播客链接直接转录,准确率高。 能够在转录后自动生成问答回顾,选中文本,音频内容会自动定位到对应位置。 通义听悟于 2023 年 6 月 1 日开始公测,并在 2023 年 11 月的云栖大会上正式上线。
2024-10-13
通义怎么样?有什么特色
通义旗下有多款产品,具有以下特色: 通义万相: 优势:在中文理解和处理方面表现出色,具有独特优势。用户可选择多种艺术和图像风格,生成的图像质量高、细节丰富,能满足多数用户期望。操作界面简洁直观,用户友好度高,降低使用门槛。作为阿里生态系统一部分,可与其他产品和服务无缝整合,提供更全面解决方案。重点是目前免费,每天签到获取灵感值即可。 局限性:为符合国内监管要求,某些类型图像无法生成,限制创作自由度。在处理非中文语言或国际化内容方面可能不如国际 AI 图像生成工具出色。由于模型训练数据可能主要基于中文环境,处理多元文化内容时可能存在偏差。 通义千问: 优势:把 prompt 输入后,欢迎语直接,无废话,能将“你好”转换为“您好”。输入起诉状后,两个答辩人正确,能按 prompt 结构输出,答辩的逻辑和立场没问题。 不足:输出内容的专业性稍差,未引用具体法律条文,基础部分未体现专业水平,整体内容及格,无亮点。 此外,通义视频模型——通义万相即将开放,支持多种尺寸,语义遵循强,动态自然,目前可进行账号申请。
2024-09-16
用户体验设计与大模型的关系
用户体验设计与大模型密切相关。 在构建基于大模型的应用方面: 开发大模型应用复杂,涉及众多步骤和环节,包括框架选择、提示词设计等。 提示词的精心设计和调试至关重要,直接影响模型输出质量和应用效果。 构建有效的大型语言模型应用需要遵循一系列要点,如进行工程化、选择合适框架、了解业务需求、设计提示词、遵守安全和伦理标准、测试迭代、持续维护更新等。 在 AI 战场的发展趋势方面: 2023 年认为训练最好的模型就能吸引用户,但 2024 年大量消费者 AI 应用将通过提供最佳用户体验而非单纯提升模型性能来竞争,大模型可作为差异化优势之一,但老式护城河仍可能决定长期赢家。 关于大模型的道德观念: 大型语言模型本身不具有真正的道德观念或意识,它们是通过大量数据训练模拟语言统计规律的。 开发者和研究人员会采取多种方法确保模型输出符合社会道德和伦理标准,如数据清洗、算法设计、制定准则、保持透明度、用户反馈、持续监控、人工干预、教育和培训等,但这仍是复杂且持续的挑战。
2024-11-04
有没有对监控图像清晰度处理较好的模型
以下为一些对监控图像清晰度处理较好的模型及相关方法: 1. 【SD】超清无损放大器 StableSR: 需要使用 StabilityAI 官方的 Stable Diffusion V2.1 512 EMA 模型,放入 stablediffusionwebui/models/StableDiffusion/文件夹中。 StableSR 模块(约 400M 大小)放入 stablediffusionwebui/extensions/sdwebuistablesr/models/文件夹中。 还有一个 VQVAE(约 750MB 大小)放在 stablediffusionwebui/models/VAE 中。 测试表明,StableSR 的放大效果在处理一些图像时,能够较好地保留人物细节,如眼神更锐利等。 2. 【SD】最强控制插件 ControlNet 的 tile 模型: 可用于高清修复小图,如将分辨率不高的食物图片进行高清化处理。 能修复和增加图像细节,如处理细节不足或结构错误的小屋图像。 3. 图像高清修复放大流程: 整个流程分为输入原始图像、修复图像、放大并重绘图像三部分。 图像输入时不建议上传大分辨率图片,以免处理时间过长。 图像高清修复时,Checkpoint 大模型使用 Iceclear/StableSR,并搭配 Stable SR Upscaler 模型,提示词应包含想要达到的目的内容。 图像高清放大时,用 realisticVision 底膜,使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型进行二次放大。
2024-11-04
AI模型
以下是关于 AI 模型的相关信息: OpenAI API 由多种具有不同功能和价位的模型提供支持,还可通过微调针对特定用例对原始基本模型进行有限定制。具体模型包括: GPT4 Beta:一组改进 GPT3.5 的模型,能理解和生成自然语言或代码。 GPT3.5:一组改进 GPT3 的模型,能理解并生成自然语言或代码。 DALL·E Beta:能在给定自然语言提示的情况下生成和编辑图像的模型。 Whisper Beta:能将音频转换为文本的模型。 Embeddings:一组能将文本转换为数字形式的模型。 Codex Limited Beta:一组能理解和生成代码的模型,包括将自然语言转换为代码。 Moderation:能检测文本是否敏感或不安全的微调模型。 GPT3:一组能理解和生成自然语言的模型。 OpenAI 于 9.12 发布新模型,开发了一系列旨在花更多时间思考后再做出响应的新 AI 模型,能推理完成复杂任务并解决更难问题。已发布该系列在 ChatGPT 和 API 中的第一个,这是一个预览,期待定期更新和改进,还包括下一次更新的评估,目前正在开发中。 大模型与当下智能语音技能的 NLU 存在本质差别。语音技能 NLU 是通过一系列规则、分词策略等训练而成,运作逻辑规律可观测,具有 ifelse 式逻辑性。而大模型凭借海量数据在向量空间中学习知识的关联性形成,运作逻辑难以观测,脱离了 ifelse 的层面。汪华老师认为此次 AI 变革量级 100%能抵达与移动互联网同一级别,50%有可能发展至与蒸汽机出现同量级,能否到达 AGI 尚不明确。
2024-11-03