以下是关于大模型应用解决方案的相关内容:
零跑汽车基于百炼实现大模型落地零跑座舱
RAG 提示工程(一):基础概念
七大行业的商业化应用
零跑汽车成立于2015年12月24日,是一家创新型的智能电动汽车品牌,零跑汽车自成立以来,始终坚持核心技术的自主研发,是拥有智能电动汽车完整自主研发能力以及掌握核心技术的整车厂家,2023年零跑已位列新能源品牌销量前三。从2017年起,零跑汽车便与阿里云展开深度合作。近日,零跑汽车已对OTA功能完成大规模升级,携手阿里云首次在座舱场景中增加“语音大模型”功能,用于聊天、基础知识问答、文生图等场景,提升用户驾驶体验。[heading1]阿里云的解决方案[content]阿里云通过百炼平台实现大模型落地零跑座舱,为用户的信息查询、车辆控制、娱乐与媒体服务、秒极生图等互动提供支持,提升用户的座舱体验。接入通义大模型实现开放式语音交互阿里云通义大模型帮助零跑汽车改变了传统的固定形式的问答模式,支持用户与零跑智能座舱进行开放式语音交互(闲聊场景),进行自然、连贯的多轮对话,可秒级响应,同时结合企业知识库和互联网知识库,满足用户多元化的需求。基于语音调用通义万相实现秒级作图零跑采用语音助手调用云端通义系列大模型,帮助用户通用语音调用通义万相实现文生图换壁纸,实现秒级作图,提升娱乐互动;支持语音查找如何使用汽车功能、规划路径等功能,丰富用户操作体验;知识库内容覆盖了零跑全系汽车知识和其他汽车品牌开放领域的信息。基于百炼构建大模型应用架构基于百炼平台,零跑汽车构建了开放、可扩展的大模型应用架构,基于统一的大模型底座,实现了零跑座舱大模型应用场景的快速扩展与迭代,降低大模型应用的创新门槛与成本。
大语言模型技术的本质导致了大模型的输出结果具有不可预测性,此外,静态的训练数据导致了大模型所掌握的知识存在截止日期,无法即时掌握最新信息。因此,当我们将大模型应用于实际业务场景时会发现,通用的基础大模型无法满足我们的实际业务需求。主要存在以下原因:知识的局限性:模型自身的知识完全源于它的训练数据,而现有的主流大模型(ChatGPT、文心一言、通义千问…)的训练集基本都是抓取网络公开的数据用于训练,对于一些实时性的、非公开的或离线的数据是无法获取到的,这部分知识也就无从具备。幻觉问题:大模型的底层原理是基于数学概率的文字预测,即文字接龙。因此大模型存在幻觉问题,会在没有答案的情况下提供虚假信息,提供过时或通用的信息,从可信度低非权威来源的资料中提供结果等。数据安全性:对于企业来说,数据安全至关重要,没有企业愿意承担数据泄露的风险,将自身的私域数据上传第三方平台进行训练。因此如何大模型落地应用时如何保障企业内部数据安全是一个重要问题。而RAG是解决上述问题的一套有效方案。它可以让大模型从权威的、预先确定的知识来源中检索、组织相关信息,更好地控制大模型生成的文本输出,并且用户可以深入了解LLM如何生成最终的结果。并且,RAG可以和微调结合使用,两者并不冲突。RAG类似于为模型提供教科书,允许它基于特定查询检索信息。这该方法适用于模型需要回答特定的询问或解决特定的信息检索任务。然而,RAG不适合教模型来理解广泛的领域或学习新的语言,格式或样式。微调类似于让学生通过广泛的学习内化知识。这种方法当模型需要复制特定的结构、样式或格式时非常有用。以下是RAG与微调从维度方面的比较:参考资料:《Retrieval-Augmented Generation for Large Language Models:A Survey》(https://arxiv.org/pdf/2312.10997.pdf)
数据、算力、算法三要素当中,算力是基础,也是大模型竞争力,但国产芯片在软件适配度、稳定性方面仍显不足。张新认为,国产芯片与英伟达显卡之间的解耦能力较弱,他们相信可能未来的几个月内逐步用国产芯片去做百亿,甚至更大体量的模型的训练,但算力的累积依然是重要挑战。砺算科技联合创始人、联席CEO孔德海认为,可以从四方面来解决算力矛盾问题:一是协同化,把很多运算可以跑在云端,并根据需求进行协同;二是模型小型化,在高质量数据前提下,小型模型可以在单机上运行;三是再训练,在有限条件下,反复训练有助于提升用户体验;四是融合计算。目前,AI大模型算力主要在训练、推理两个部分,其中成本最高部分是前期的模型训练,大部分采用智能计算中心、自费买英伟达A800/H800显卡组成服务器运行、或者是用价格更为实惠的服务器云来训练。而推理部分算力需求较少、价格不高,大部分模型应用都需要同时建立公有云、私有云两种混合模式,而且需要购买一定的云服务,以更好做大模型应用。最后是价格问题。价格是大模型商业化最重要的因素。由于训练成本高、数据筛选难度大,因此,千亿参数模型的报价高达数十万元,而高昂的售价让很多客户望而却步。戴文渊向钛媒体App表示,不是所有的场景、客户都能接受千亿参数的成本,这个需要客户选择,即便是千亿、万亿的参数只是代表你的最高能力,但最后给到客户的时候,就不一定所有的场景都能技术释放。而垂直大模型的数据生成规模会小一些,场景更易用,Chat的思维能力更高。