直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

你知道vllm吗

回答

vLLM 是由加州大学伯克利分校开发的。其核心技术是 PageAttention,吞吐量比 HuggingFace Transformers 高出 24 倍。相较于 FasterTrainsformer,vLLM 更加简单易用,不需要额外进行模型的转换,支持 fp16 推理。详细的推理文档见:inference-speed/GPU/vllm_example 。同时,随着大模型参数规模的不断增长,在有限的算力资源下,提升模型的推理速度逐渐变为一个重要的研究方向,常用的推理加速框架包含 lmdeploy、TensorRT-LLM、vLLM 和 JittorLLMs 等。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

部署加速

[TensorRT-LLM](https://github.com/NVIDIA/TensorRT-LLM/tree/main)由NVIDIA开发,高性能推理框架详细的推理文档见:[inference-speed/GPU/TensorRT-LLM_example](https://github.com/LlamaFamily/Llama-Chinese/tree/main/inference-speed/GPU/TensorRT-LLM_example)[heading5]vLLM[content][vLLM](https://github.com/vllm-project/vllm)由加州大学伯克利分校开发,核心技术是PageAttention,吞吐量比HuggingFace Transformers高出24倍。相较与FasterTrainsformer,vLLM更加的简单易用,不需要额外进行模型的转换,支持fp16推理。详细的推理文档见:[inference-speed/GPU/vllm_example](https://github.com/LlamaFamily/Llama-Chinese/blob/main/inference-speed/GPU/vllm_example/README.md)

Sora:大型视觉模型的背景、技术、局限性和机遇综述 【官方论文】

视觉模型的规模化定律。有了LLMs的规模化定律,自然会问视觉模型的发展是否遵循类似的规模化定律。最近,Zhai等人[24]展示了,有足够训练数据的ViT模型的性能-计算前沿大致遵循(饱和)幂律。继他们之后,谷歌研究[25]提出了一种高效稳定训练22B参数ViT的方法。结果显示,使用冻结模型产生嵌入,然后在顶部训练薄层可以实现出色的性能。Sora作为一个大型视觉模型(LVM),符合这些规模化原则,揭示了文本到视频生成中的几种新兴能力。这一重大进展强调了LVMs实现类似LLMs所见进步的潜力。新兴能力。LLMs中的新兴能力是在某些规模上——通常与模型参数的大小有关——表现出的复杂行为或功能,这些行为或功能并未被开发者明确编程或预期。这些能力被称为“新兴”,因为它们源于模型在多样化数据集上的全面训练,以及其庞大的参数数量。这种组合使模型能够形成联系并做出超越简单模式识别或死记硬背的推断。通常,这些能力的出现不能通过从小规模模型的性能外推来直接预测。虽然许多LLMs,如ChatGPT和GPT-4,展示了新兴能力,但直到Sora的出现,展示类似能力的视觉模型还很少。根据Sora的技术报告,它是第一个展示确认新兴能力的视觉模型,标志着计算机视觉领域的一个重要里程碑。除了其新兴能力,Sora还展示了其他显著能力,包括遵循指令、视觉提示工程和视频理解。Sora的这些功能方面代表了视觉领域的重大进步,并将在后续部分进行探讨和讨论。

质朴发言:视觉-语言理解模型的当前技术边界与未来应用想象|Z 研究第 2 期

当前视觉-语言模型(vision-language model,VLM)的商业化场景局限在视频的分析搜索。然而,其更广阔的应用前景在于将这些模型作为信息输入的媒介,进而驱动程序或模型完成其他操作。例如,CogAgent、AppAgent和AutoRT等系统将VLM作为核心组件,使机器得以理解和处理多模态信息。在视觉学习过程中,模型主要学习的是图像表征,而不是内在的逻辑联系,这与语言学习不同。而如果能将视觉模型与大型语言模型结合,利用后者来解读更复杂的概念,视觉模型将更接近于理解真实世界的通用人工智能。进一步而言,视觉语言模型的精进在现实世界,有助于机器更深层次地理解和交互物理世界,本质上是将复杂的视觉信息转化为更直观、易于理解的语言形式,从而深化对物理世界的认识。视觉作为人类获取信息的主要方式之一,通过视觉到语言的转换,机器能够更直观地理解物理世界,例如分析图像或视频内容,描述场景中的物体、动作和事件,这对理解物理世界的动态变化至关重要。语言作为人类交流的基本工具,当机器能够将视觉信息转化为语言,其交互能力将显著提升。这意味着机器可以更自然地与人类沟通,提供有关视觉环境的信息,实现更有效的人机交互,从而为我们畅想具身智能提供可能性。

其他人在问
你知道有支持个性化训练的大预言模型么
以下是一些支持个性化训练的大语言模型: 1. Character.ai:更注重人格属性,试图满足社交、情感、陪伴等需求,与 ChatGPT 侧重不同,后者注重提高效率和解放生产力。 2. Midjourney:今天发布了模型个性化 Personalization 或 'p'的早期测试版本。模型个性化会学习用户的喜好,以便更可能用用户的口味来填补空白。其要求包括目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效。使用时只需在提示后输入 'p',或使用提示栏中的设置按钮为所有提示启用个性化功能,还可以使用 's 100'控制个性化效果的强度。但需注意个性化目前不是一个稳定的功能,会随着进行更多的成对排名而变化,且可能会在接下来的几周内推出算法更新。
2024-10-18
你知道dify吗
Dify 是一个开源的大模型应用开发平台。它融合了后端即服务和 LLMOps 的理念,为用户提供直观界面,能快速构建和部署生产级别的生成式 AI 应用。 该平台具有以下特点: 1. 强大的工作流构建工具。 2. 支持广泛的模型集成。 3. 拥有功能丰富的提示词 IDE。 4. 具备全面的 RAG Pipeline,可用于文档处理和检索。 5. 允许用户定义 Agent 智能体。 6. 通过 LLMOps 功能对应用程序的性能进行持续监控和优化。 Dify 提供云服务和本地部署选项,以满足不同用户的需求。其开源特性保证了对数据的完全控制和快速的产品迭代。Dify 的设计理念注重简单性、克制和快速迭代,能为创业团队构建 MVP、企业集成 LLM 增强现有应用能力以及技术爱好者探索 LLM 潜力提供相应支持和工具。 Dify 官方手册:https://docs.dify.ai/v/zhhans 。一般来说,如果是个人研究,推荐单独使用 Dify;如果是企业级落地项目,推荐使用多种框架结合,效果会更好。
2024-10-17
我是一名企业任用岗人,需要作一版关于AI在任用管理(包括员工入职管理,员工异动管理,员工转正管理,员工离职管理,员工合同续签管理)工作中的成果展示,进行简易的分享;我不知道如何分享,且分享的表述如何简洁而不失重点。
以下是一些 AI 在不同工作场景中的应用案例,可作为您在任用管理工作成果展示中的参考: 营销:定制营销报告,涵盖汇报对象身份、销售数据、财务报告、市场分析、客户反馈、营销效果评估等方面。 办公:高效做 PPT,利用 ChatGPT 生成 Markdown 语法内容,再借助 MindShow 转换为精美 PPT;编写 Excel 公式,通过交互和迭代获取准确公式;写邮件,满足特定需求。 办公:会议总结,包括会议主题、参与人员、讨论议题、关键观点等要素。 项目管理:通过创建和维护跨团队项目协作计划,明确员工角色和职责。 销售:话术总结优缺点,考虑产品特点、服务优势、目标客户需求等因素;定制销售解决方案,综合企业产品和服务等内容。 客服:定制客服话术,涵盖产品知识、售后服务等 13 个关键词库。 HR:团队绩效管理,根据往期数据分析员工绩效排名并给出考评和改进建议;面试工具,如使用 GPT4 技术的实时转录工具辅助求职者。 科学:研制采摘机器人,如荷兰代尔夫特大学和瑞士洛桑联邦理工学院科学家的探索;设计航天器零部件,提高设计效率和创新度。
2024-10-16
话说你知不知道有没有靠谱的promot engineer教程适合小学生和中学学习的?
以下是一些适合小学生和中学生学习的 prompt engineer 教程: 1. 李继刚的结构化 prompt 方法论:最早接触 Prompt engineering 时的常见技巧有所提升,可通过原文链接查看。其学到的第一个 Prompt engineering 技巧是结构化 Prompt。 2. 小七姐的 Prompt 喂饭级系列教程小白学习指南(二):可以结合自己的生活或工作场景想一个能简单自动化的场景,比如自动给班级孩子起昵称等。选一个好上手的提示词框架,如情境。 3. 吴恩达讲 Prompt:谷歌/百度 AI 部门负责人吴恩达和 OpenAI 合作推出了免费的 Prompt Engineering 课程。原版网址: 。
2024-10-15
我知道AIGC,现在你这个AGI又是什么鬼?
AGI 即人工通用智能(Artificial General Intelligence),它被描述为“可雇用的中等水平人类同事的等效物”。 致力于构建安全、有益的 AGI 意味着希望对人类未来产生巨大的积极影响。例如,Meta 公司为实现 AGI 目标,将两大 AI 研究团队合并,并投入大量资金采购硬件,开发大语言模型。但对于通用人工智能究竟是什么以及何时能实现,目前还没有明确答案。 需要注意的是,AGI 与 AIGC 不同。AIGC 是一种利用人工智能技术生成各种类型内容的应用方式,在内容创作、广告、媒体等领域有着广泛应用。而 AGI 更侧重于实现具有广泛智能能力、能够像人类一样处理各种任务和情境的人工智能。
2024-10-14
了解AI现在需要知道哪些概念
如果您想了解 AI ,以下是一些需要知道的概念: 1. AI 背景知识: 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优: 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础: 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 对于新手学习 AI ,您可以: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念。了解什么是人工智能,它的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到一系列为初学者设计的课程。特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,通过实践巩固知识,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 对于如何认识 AI ,您可以: 作为一个不具备理工科背景的文科生,把 AI 当成一个黑箱,只需要知道 AI 是某种模仿人类思维可以理解自然语言并输出自然语言的东西就可以。AI 的生态位就是一种似人而非人的存在。当您想让它实现愿望时,基于它的“非人”一面,您需要尽可能的通过语言文字(足够清晰的指令)压缩它的自由度,不仅要清晰的告诉它需要干什么、边界在哪里、目标是什么、实现路径方法是哪一条,最好还直接给到它所需的正确的知识。
2024-10-09