直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

混元大模型

回答

腾讯混元大模型(Hunyuan-Large)是全球最大的 MoE 开源模型,具有以下特点:

  • 拥有 3890 亿参数,其中活跃参数为 520 亿。
  • 具备强大的长文本处理和常识推理能力,支持 256K 上下文窗口。
  • 通过数据增强,使用合成数据提升对未见内容的理解。

详细介绍:https://xiaohu.ai/p/15254 模型下载:https://huggingface.co/tencent/Tencent-Hunyuan-Large 技术报告:https://arxiv.org/pdf/2411.02265

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

XiaoHu.AI日报

🔔Xiaohu.AI日报「11月6日」✨✨✨✨✨✨✨✨1⃣️ 🎙️Fish Agent V0.1 3B语音处理模型:多语言TTS支持:英语、中文、德语、日语、法语、西班牙语、韩语、阿拉伯语等。端到端架构:支持即时语音克隆与文本到语音转换。超快响应:200毫秒内完成文本到音频转换。🔗详细介绍:[https://xiaohu.ai/p/15247](https://xiaohu.ai/p/15247)🔗演示地址:[http://fish.audio/demo/live](http://fish.audio/demo/live)2⃣️ 🧠腾讯混元大模型(Hunyuan-Large):全球最大MoE开源模型:3890亿参数,活跃参数520亿。强长文本处理和常识推理能力,支持256K上下文窗口。数据增强:使用合成数据提升对未见内容的理解。🔗详细介绍:[https://xiaohu.ai/p/15254](https://xiaohu.ai/p/15254)🔗模型下载:[https://huggingface.co/tencent/Tencent-Hunyuan-Large](https://huggingface.co/tencent/Tencent-Hunyuan-Large)🔗技术报告:[https://arxiv.org/pdf/2411.02265](https://arxiv.org/pdf/2411.02265)3⃣️ 🤔人类为何害怕AI:

XiaoHu.AI日报

🔔Xiaohu.AI日报「11月6日」✨✨✨✨✨✨✨✨1⃣️ 🎙️Fish Agent V0.1 3B语音处理模型:多语言TTS支持:英语、中文、德语、日语、法语、西班牙语、韩语、阿拉伯语等。端到端架构:支持即时语音克隆与文本到语音转换。超快响应:200毫秒内完成文本到音频转换。🔗详细介绍:[https://xiaohu.ai/p/15247](https://xiaohu.ai/p/15247)🔗演示地址:[http://fish.audio/demo/live](http://fish.audio/demo/live)2⃣️ 🧠腾讯混元大模型(Hunyuan-Large):全球最大MoE开源模型:3890亿参数,活跃参数520亿。强长文本处理和常识推理能力,支持256K上下文窗口。数据增强:使用合成数据提升对未见内容的理解。🔗详细介绍:[https://xiaohu.ai/p/15254](https://xiaohu.ai/p/15254)🔗模型下载:[https://huggingface.co/tencent/Tencent-Hunyuan-Large](https://huggingface.co/tencent/Tencent-Hunyuan-Large)🔗技术报告:[https://arxiv.org/pdf/2411.02265](https://arxiv.org/pdf/2411.02265)3⃣️ 🤔人类为何害怕AI:

谷歌Gemini多模态提示词培训课——Part1

本系列课程是Deeplearning联合谷歌Gemini团队开发的免费在线课程,课程中使用了Gemini模型作为教学模型,教授大家如何使用多模态提示词与模型交互。由于课程内容中有很多在国内无法应用的部分,在其之中也缺乏了某些概念。有鉴于此,我截取了部分教程内容,并适当混合了一些入门概念。将其进行重新整理和刊发,以增强其普世价值。(如有需要,请访问[原版在线课程](https://learn.deeplearning.ai/))在这个系列中你可以学到:1.了解什么是多模态大模型2.了解Gemini系列模型3.使用Gemini API进行多模态提示词最佳实践(其提示词理念也同样也适用于完整AI产品的交互,0代码读者不必过多担心)[heading1]一、什么是多模态大模型(MLLM)[content]多模态大模型(MLLM)是一种在统一的框架下,集成了多种不同类型数据处理能力的深度学习模型,这些数据可以包括文本、图像、音频和视频等,通过整合这些多样化的数据,MLLM能够更全面地理解和解释现实世界中的复杂信息。这种多元化的数据处理能力使得MLLM在面对复杂任务时表现出更高的准确性和鲁棒性。通过综合分析不同类型的信息,这些模型能够得出更加全面和准确的结论,从而在各种应用场景中发挥重要作用。下方是一个典型MLLM架构的示意图。它包括一个编码器、一个连接器和一个LLM。可以选择性地在LLM上附加一个生成器,以生成除文本之外的更多模态。编码器接收图像、音频或视频并输出特征,这些特征经由连接器处理,使LLM能更好地理解。连接器大致可分为三类:基于投影的、基于查询的和基于融合的连接器。前两种类型采用词元级融合,将特征处理成词元,与文本词元一起发送,而最后一种类型则在LLM内部实现特征级融合。注:词元=Token

其他人在问
整合多家大预言模型的工具
以下为整合多家大语言模型的工具介绍: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验,但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可在两个模型中都问一遍提升信息准确性。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导能够启发用户,支持 Explore Chatbot,但丰富度不如后续要介绍的 Character,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小,以满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 用户可通过简单步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 下载安装地址:https://ollama.com/download/ ,安装完后,在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动,可通过 ollama list 确认,未下载模型时正常显示空,可通过 ollama 命令下载模型。 3. 未来还会不断丰富大模型的外延能力,例如知识库检索、计算工具、WolframAlpha、操作软件等。首先集成了 LangChain 框架,可更方便地基于 Llama2 开发文档检索、问答机器人和智能体应用等。针对 LangChain 框架封装的 Llama2 LLM 类见,简单的调用代码示例如下。
2024-11-15
大模型有哪些前沿论文
以下是一些关于大模型的前沿论文: 2017 年发布的《Attention Is All You Need》,开启了大模型发展的序幕。 2018 年 Google 提出的 BERT(Bidirectional Encoder Representations from Transformers),创新性地采用双向预训练并行获取上下文语义信息及掩码语言建模,参数规模在 110M 到 340M 之间。 2018 年 OpenAI 提出的 GPT(Generative Pretrained Transformer),开创了仅使用自回归语言建模作为预训练目标的方式,参数规模达 1750 亿。 2021 年 Meta 提出的 Large LAnguage Model Approach(LLAMA),是首个开源模型,为构建更大规模、更通用的语言模型提供了方法与工具,参数规模在十亿到千亿之间。 2024 年苹果公布的《MM1:Methods,Analysis & Insights from Multimodal LLM Pretraining》,这是一个具有高达 30B 参数的多模态 LLM 系列,探讨了不同架构组件和数据选择的重要性。
2024-11-15
现在有哪些大模型效果与性能的对齐工具
目前对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的理解程度,涵盖语法、语义、上下文和隐含意义。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:衡量对广泛主题的知识掌握及特定领域的理解深度。 4. 泛化能力:测试处理未见过任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊指令的能力。 6. 偏见和伦理:评估生成文本是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,对用户反馈的适应和持续对话能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务,提供的 API 和工具的易用性。 为进行有效比较,可采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准评估基准。 2. 自定义任务:根据特定需求设计任务评估特定领域表现。 3. 人类评估:结合人类评估者的主观评价,尤其在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中比较不同模型表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等量化比较。 对于大模型的安全对齐,通过对齐(指令调优)能使语言模型更好理解人类意图并增加安全保障,避免输出有害内容。对齐任务可拆解为监督微调及获取 reward model 与进行强化学习调整输出分布两部分。LLAMA2 专门使用安全有监督微调确保安全。强化学习能根据人类反馈调整分布,使模型面对训练分布外数据时能拒绝不当回答。但 Alignment 并非能防护所有安全问题,存在越狱情况使模型对齐失效。 Qwen 2 开源后模型性能超越目前所有开源模型和国内闭源模型。玉宝搞过的 LLM 在线评估中可看到国内闭源大模型的 HUMANEVAL 测评得分,可与 Qwen 2 对比,参考网址:https://www.llmrank.cn/ 。2023 年 8 月起,通义千问推出 Qwen 系列,Qwen 系列的 72B、110B 模型多次登顶 HuggingFace 的 Open LLM Leaderboard 开源模型榜单。Qwen 2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,也已上线中国大语言模型评测竞技场 Compass Arena,测评地址:https://opencompass.org.cn/arena 。Compass Arena 集齐了国内主流的 20 多款大模型,用户可选择两两“对战”。
2024-11-14
lama模型
Llama 模型相关信息如下: 基于多模态大模型给现实世界加一本说明书:后端采用 llama.cpp 挂载 LLaVA 模型,为应用提供推理服务。同时,部署了一个 Flask 应用用于数据前处理和后处理,提供 Stream 流服务。前端页面采用 HTML5,用于采集画面和用户输入。 LLM 开源中文大语言模型及数据集集合:未直接提及 Llama 模型的具体内容。 LayerStyle 副本中的 LayerUtility 中的 LaMa:根据图像遮罩擦除物体,是对 IOPaint 的封装,由 SOTA AI 模型提供支持。提供 LaMa 等模型以及多种擦除方法,可下载模型文件放到指定位置,并对节点选项进行了说明,如选择模型或方法、设备选择、遮罩反转、遮罩扩张幅度、遮罩模糊幅度等。
2024-11-14
gpt4o视觉模型
GPT4o 是 OpenAI 推出的模型。开发人员现在可在 API 中将其作为文本和视觉模型进行访问。与 GPT4 Turbo 相比,具有速度快 2 倍、价格减半、速率限制高出 5 倍的优势。未来几周计划向 API 中的一小群受信任的合作伙伴推出对其新音频和视频功能的支持。 GPT4o(“o”代表“omni”)是迈向更自然人机交互的一步,能接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。它在 232 毫秒内可响应音频输入,平均为 320 毫秒,与人类响应时间相似。在英语文本和代码上的 GPT4 Turbo 性能相匹配,在非英语语言的文本上有显著改进,在 API 中更快且便宜 50%,在视觉和音频理解方面表现出色。 在 GPT4o 之前,语音模式由三个独立模型组成的管道实现,存在信息丢失等问题。而 GPT4o 是在文本、视觉和音频上端到端训练的新模型,所有输入和输出都由同一个神经网络处理,但对其能做什么及局限性仍在探索。
2024-11-14
2023年大模型发展有什么重要技术
2023 年大模型发展的重要技术包括以下方面: 模型发布:百川智能发布 Baichuan2—Turbo,字节云雀大模型等。 涉及领域:涵盖通用、医疗、汽车、教育、金融、工业、文化/零售/交通等多个行业。 关键进展:从 22 年 11 月 ChatGPT 的惊艳面世,到 23 年 3 月 GPT4 作为“与 AGI(通用人工智能)的第一次接触”,再到 23 年末多模态大模型的全面爆发。 多模态大模型的应用: 优点:适应性极好,方便适应各种奇葩需求;对算法要求降低,大部分功能由大模型提供,特别是非结构化信息处理;API 访问方式简化了边缘设备要求,方便在多种设备适配。 缺点:推理时长是最大障碍,传统目标检测或人脸识别优化后能达到 100 300ms,而大模型动则需要 10 秒的延时,限制了许多场景;模型的幻象和错误率较高,在多链路复杂应用中迅速变得不可行;在大多数生产模式下,仍需使用云服务数据中心,存在隐私问题;商业私有化部署是刚需,当下开源模型与 GPT4 有代差。
2024-11-14