直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

不同大模型之间会相互串联吗?

回答

目前不同大模型之间一般不会直接相互串联。

大模型的发展仍在不断演进中。在语言模型方面,Token 被视为模型处理和生成的文本单位,输入文本会被分词数字化形成词汇表,为便于计算机处理,还会将 Token 表示成稠密矩阵向量,即 embedding,常见算法包括基于统计、深度网络和神经网络的多种方式。以 Transformer 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。

多模态大模型方面,虽然取得了重大进展,但面临着巨大的计算量问题。研究重点在于各模态的连接,合理利用现成的训练好的单模态基础模型,减少训练费用并提升效率。不同模态的模型通常是分开训练的,如何将它们连接起来实现协同推理是核心挑战,主要通过多模态预训练和多模态的指令微调来实现模态之间以及模型输出与人类意图的对齐。

在企业应用中,大模型还未发展到通用人工智能阶段,不能期望一个大模型解决所有问题。在企业内部,更可能是多个专注于不同专业的大模型通过协作和组合来工作。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

大模型入门指南

在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID|<br>|-|-|<br>|The|345|<br>|cat|1256|<br>|sat|1726|<br>|…|…|数字化的好处是便于计算机处理。但为了让计算机理解Token之间的联系,还需要把Token表示成稠密矩阵向量,这个过程称之为embedding([3]),常见的算法有:基于统计Word2Vec,通过上下文统计信息学习词向量GloVe,基于词共现统计信息学习词向量基于深度网络CNN,使用卷积网络获得图像或文本向量RNN/LSTM,利用序列模型获得文本向量基于神经网络BERT,基于Transformer和掩码语言建模(Masked LM)进行词向量预训练Doc2Vec,使用神经网络获得文本序列的向量以Transform为代表的大模型采用自注意力(Self-attention)机制来学习不同token之间的依赖关系,生成高质量embedding。

多模态大模型入门指南-长文慎入【持续更新】

最近,多模态大模型取得重大进展。随着数据集和模型的规模不断扩大,传统的MM模型带来了巨大的计算量,尤其是从头开始训练的话。研究人员意识到MM的研究重点工作在各个模态的连接上,所以一个合理的方法是利用好现成的训练好的单模态基础模型,尤其是LLM。这样可以减少多模态训练的费用,提升训练效率。MM-LLM利用LLM为各种MM任务提供认知能力。LLM具有良好的语言生成,zero-shot和ICL的能力。其他模态的基础模型则提供了高质量的表征。考虑到不同模态的模型是分开训练的,如何将不同模态连接起来,实现协同推理,是核心挑战。这里面的主要工作便是通过多模态预训练和多模态的指令微调,来实现模态之间的对齐,以及模型输出与人类意图的对齐。

周鸿祎免费课AI系列课程第二讲-企业如何拥抱AI

那么很多人这里边有一个误区,老以为说我这个企业,比如中国企业家,我就做一个大模型,就解决我所有的问题。注意这个想法是不现实的,因为目前大模型没有发展到AGI,它还不是通用人工智能。大家记着,AGI是通用人工智能时代,没有带到来。所以现在大模型只能在专项技能上发挥作用,如果你期望他什么都能做,这个期望是不切实际的。今年OpenAI和通用大模型遇到的所有问题,为什么它的是留存率比较低呢?就是因为他承诺我什么都能做,你去用的时候,有时候你的体验特别好,对吧?所以在企业内部,我们像我们很多人都懂IT,我们这么多年,我们管员工的有HR软件,我们管客户里有CRM软件,我们管财务里有财务软件,你见过有一家软件商把所有这软件都做到一个软件里了吗?所以未来在企业内部不可能是只有一个大模型,大家记住我这句话,而是一定有多个大模型,每个大模型干不同的专业。大模型通过协作,通过组合来工作,这是未来。所以我们企业要不你就不整,要整企业内部绝对不止一个大模型。

其他人在问
你可以推荐一些能够提高企业效率和生产力的AI工具,AI工具串联的资料给我吗
以下是一些能够提高企业效率和生产力的 AI 工具: 销售相关: Salesforce 爱因斯坦:来自 Salesforce,能分析大量数据集识别潜在客户,生成预测性潜在客户评分,还能自动化日常或耗时任务。 Clari:专门从事智能收入运营,能统一数据并以易理解方式呈现,简化财务预测过程。 Hightime:销售团队的 AI 助手,处理重复性任务和耗时研究。 编程相关: GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,提供代码建议。 通义灵码:阿里巴巴推出,提供多种编程辅助能力。 CodeWhisperer:亚马逊 AWS 团队推出,为开发人员实时提供代码建议。 CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数预训练大模型生成代码。 Cody:Sourcegraph 推出的 AI 代码编写助手,借助强大的代码语义索引和分析能力了解开发者的整个代码库。 此外,小红书上也有相关优质科技内容案例,如: ,体裁为视频,点赞 1.8 万,推荐理由是工具用途和优点介绍清晰不拖沓。 ,体裁为视频,点赞 6000,推荐理由是视频制作专业,文稿结构清晰简洁。
2024-08-28
推荐一个AI工具,帮助我每天自动执行以下步骤:从本地上传文件给大模型,该文件内含有新闻网页链接,大模型读取链接并汇总内容
以下为您推荐的 AI 工具可能有助于您实现每天自动执行从本地上传文件给大模型,并让大模型读取文件内新闻网页链接并汇总内容的需求: 1. AI 拍立得(Pailido): 特点:即拍即得,简化流程,操作直观高效。 体验方式:微信小程序搜索“Pailido”。 交互逻辑:用户选择拍摄场景类型并拍照,AI 自动识别和分析照片内容信息,依据预设场景规则迅速生成符合情境的反馈。 实现场景: 图片转成文本:用户上传图片后,大模型根据选择的场景生成相关文字描述或解说文本,可用于生成美食点评、朋友圈发布文案、闲鱼上架示例模版等。 图片转绘图片:用户上传图片后,大模型按照指定风格快速生成图像的转绘版本,适应不同风格和场景需求,如图片粘土风、图片积木风、图片像素风等。 2. 内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译,支持全文改写、一键修改、实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ ,是智能写作助手,支持多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发的智能创作助手,能提升写作者的写作效率和创作体验。 更多 AI 写作类工具可以查看:https://www.waytoagi.com/sites/category/2 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-21
如何利用AGI创建3D打印的模型
利用 AGI 创建 3D 打印模型的方法如下: 1. 将孩子的画转换为 3D 模型: 使用 AutoDL 部署 Wonder3D:https://qa3dhma45mc.feishu.cn/wiki/Pzwvwibcpiki2YkXepaco8Tinzg (较难) 使用 AutoDL 部署 TripoSR:https://qa3dhma45mc.feishu.cn/wiki/Ax1IwzWG6iDNMEkkaW3cAFzInWe (小白一学就会) 具体实物(如鸟/玩偶/汽车)的 3D 转换效果最佳,wonder3D 能智能去除背景(若效果不佳,需手动扣除背景) 对于一些非现实类玩偶类作品,wonder3D 识别效果不佳时,可先使用 StableDiffusion 将平面图转换为伪 3D 效果图再生成模型。以 usagi 为例,先通过 SD 生成 3D 的 usagi,再将 usagi 输入 wonder3D。 2. 生成特定模型,如创建一个乐高 logo 的 STL 文件: 设计乐高 logo:使用矢量图形编辑软件(如 Adobe Illustrator 或 Inkscape)创建或获取矢量格式的乐高 logo,确保符合标准。 导入 3D 建模软件:将矢量 logo 导入到 3D 建模软件(如 Blender、Fusion 360 或 Tinkercad)中。 创建 3D 模型:在 3D 建模软件中根据矢量图形创建 3D 模型,调整尺寸和厚度以适合打印。 导出 STL 文件:将完成的 3D 模型导出为 STL 文件格式。 以下是在 Blender 中使用 Python 脚本创建简单 3D 文本作为乐高 logo 并导出为 STL 文件的步骤: 打开 Blender,切换到“脚本编辑器”界面。 输入脚本,点击“运行脚本”按钮,Blender 将创建 3D 文本对象并导出为 STL 文件。 检查生成的 STL 文件,可根据需要调整脚本中的参数(如字体、位置、挤压深度等)以获得满意的乐高 logo 3D 模型。 此外,还有一些其他动态: 阿里妈妈发布了:https://huggingface.co/alimamacreative/FLUX.1TurboAlpha ,演示图片质量损失小,比 FLUX schell 本身好很多。 拓竹旗下 3D 打印社区 Make World 发布 AI:https://bambulab.com/zh/signin ,3D 生成模型找到落地和变现路径。 上海国投公司搞了一个:https://www.ithome.com/0/801/764.htm ,基金规模 100 亿元,首期 30 亿元,并与稀宇科技(MiniMax)、阶跃星辰签署战略合作协议。 智谱的:https://kimi.moonshot.cn/ 都推出基于深度思考 COT 的 AI 搜索。 字节跳动发布:https://mp.weixin.qq.com/s/GwhoQ2JCMQwtLN6rsrJQw ,支持随时唤起豆包交流和辅助。 :https://x.com/krea_ai/status/1844369566237184198 ,集成了海螺、Luma、Runway 和可灵四家最好的视频生成模型。 :https://klingai.kuaishou.com/ ,现在可以直接输入文本指定对应声音朗读,然后再对口型。
2024-12-20
如何通过提示词提高模型数据对比和筛选能力
以下是一些通过提示词提高模型数据对比和筛选能力的方法: 1. 选择自定义提示词或预定义话题,在网站上使用如 Llama3.1 8B Instruct 模型时,输入对话内容等待内容生成,若右边分析未刷新可在相关按钮间切换。由于归因聚类使用大模型,需稍作等待,最终结果可能因模型使用的温度等因素而不同。 2. 在写提示词时不能依赖直觉和偷懒,要实话实说,补充详细信息以避免模型在边缘情况上犯错,这样也能提高数据质量。 3. 在分类问题中,提示中的每个输入应分类到预定义类别之一。在提示末尾使用分隔符如“\n\n\n\n”,选择映射到单个 token 的类,推理时指定 max_tokens=1,确保提示加完成不超过 2048 个 token,每班至少有 100 个例子,可指定 logprobs=5 获得类日志概率,用于微调的数据集应在结构和任务类型上与模型使用的数据集相似。例如在确保网站广告文字正确的案例中,可微调分类器,使用合适的分隔符和模型。
2024-12-20
通过提示词可以提高模型的数学计算能力吗
通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
2024-12-20
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
说明jetson orin nano可以使用什么模型?Grok-1模型可以吗?
目前没有关于 Jetson Orin Nano 是否可以使用 Grok1 模型的明确信息。但一般来说,Jetson Orin Nano 可以支持多种常见的深度学习模型,如基于 TensorFlow、PyTorch 框架开发的模型等。具体能够使用哪些模型,还需要考虑模型的计算需求、内存占用以及 Jetson Orin Nano 的硬件配置和性能限制等因素。
2024-12-20
pytorch跟cuda之间的关系
PyTorch 与 CUDA 之间存在密切的关系。在 AI 相关的应用中,如果使用 GPU 来处理数据以提高运算速度,通常会用到 CUDA 技术。而 PyTorch 要想利用 CUDA 进行加速运算,必须对应 CUDA 支持的版本,否则程序无法正确运行。 例如,目前 CUDA 官网最新的版本是 12.4,需要找到配套的 PyTorch 版本。对于 CUDA 12.1,实测可以匹配 CUDA 12.4。如果没有 N 卡,也可以用 CPU 代替 CUDA 进行运算处理,但速度会相对较慢,并且在代码中需要做相应调整。
2024-12-01
ldap和ad之间是什么关系
LDAP(轻型目录访问协议)是一种用于访问和管理目录服务的开放协议。AD(Active Directory)是微软基于 LDAP 协议开发的一种目录服务。 AD 利用了 LDAP 协议的特性来实现对网络资源和用户的集中管理、认证和授权等功能。可以说 AD 是基于 LDAP 协议构建的一个具体的、功能丰富的目录服务系统。 总的来说,LDAP 是一种通用的协议,而 AD 是基于 LDAP 协议的特定实现,并针对微软的环境进行了优化和扩展。
2024-11-12
. 了解射频识别技术的基本原理及常见应用。 2. 能够利用射频识别技术开展实践,了解物与物 之间近距离通信的过程。 第7课 电子标签我揭秘 7.1 乘坐火车时,人们只需拿身份证在检票机上刷一下,便能顺利通过检票 闸机,进出火车站。在这个过程中,正是 RFID 技术在发挥作用。 揭秘射频识别技术 本课将关注以下问题: 1. RFID 系统的工作流程是怎样的? RFID 是一种物品标识和自动识别技术,本质上是一种无线通信技术, 无须与被识别物品直接接触。RFID 系统由电子标签和读卡器组成(图 7
射频识别(RFID)技术是一种物品标识和自动识别的无线通信技术,无需与被识别物品直接接触。RFID 系统由电子标签和读卡器组成。 其基本原理是:读卡器发射特定频率的无线电波,当电子标签进入有效工作区域时,产生感应电流,从而获得能量被激活,并向读卡器发送自身编码等信息,读卡器接收并解码后,将信息传送给后台系统进行处理。 常见应用包括:乘坐火车时的身份证检票,物流领域的货物追踪管理,图书馆的图书借还管理,超市的商品结算等。 在利用射频识别技术开展实践时,能够了解物与物之间近距离通信的过程。例如在物流中,货物上的电子标签与读卡器之间通过无线电波进行信息交互,实现对货物的实时监控和管理。 RFID 系统的工作流程大致为:读卡器发射无线电波,激活电子标签,电子标签向读卡器发送信息,读卡器接收并解码信息后传送给后台系统。
2024-10-21
agi是什么,aigc又是什么,他们之间有什么区别
AGI 即通用人工智能(Artificial General Intelligence),是一种目标,旨在让机器展现出像人类一样的广泛智慧和能力。 AIGC 是人工智能生成内容(Artificial Intelligence Generated Content),是利用人工智能技术生成包括文本、图像、音频和视频等各种类型内容的新型生产方式。AIGC 技术可应用于自动撰写新闻文章、生成艺术画作、创作音乐、制作视频游戏内容等多种领域。 它们的区别在于:AGI 追求的是机器具备全面的、类似人类的智能,而 AIGC 侧重于利用人工智能技术来生成特定的内容。 AIGC 与 UGC(用户生成内容)、PGC(专业生成内容)的关系如下: AIGC 是由人工智能生成的内容,优势在于能快速、大规模生成内容,适用于需大量内容的场景,如自动化新闻、广告创作等。 UGC 是由用户生成的内容,优势在于内容丰富多样,能反映用户真实想法和创意,适用于社交媒体、社区论坛等互动性强的平台。 PGC 是由专业人士或机构生成的内容,优势在于内容质量高、专业性强,适用于新闻媒体、专业网站等需要高质量内容的平台。
2024-10-20
多Agent之间的调用教程
以下是关于多 Agent 之间调用的教程: 《执笔者》中的多 Agent 模式操作步骤: 1. 多 agent 模式切换:在 bot 编排页面点选多 agent 模式,页面将自动切换为多 agent 调试状态,相比单 agent,多了中间的 agent 连接区。 2. 添加合适节点:有两种方式选择节点,即使用已发布的 bot 或创建新的 agent,按需选取,添加的 agent 直接连接在默认的总管 agent(“执笔者”)后面,无结束节点。 3. 添加合适的 prompt:在多 agent 模式下,为每个 agent 填写合适的 prompt,外围的人设填写该 bot 的主要功能,内部的 bot 填写各个 bot/agent 的应用场景。 4. 调试与美化:经过以上三步,一个多 agent 的 bot 基本搭建完成,之后是漫长的调试过程,若输出与设想有差异,可不断调整外围和内部 bot 的提示词,提升命中率,优化交互。 沉浸式单机剧本杀 Bot 中的多 Agent 协作: 单机剧本杀 Bot 由多个 agent 共同协作完成,主要包括: 1. 主持人 Agent:通过对话引导玩家,通过提示和发放道具帮助玩家推进情节,像全知全能的主持人帮助玩家在游戏过程中前进。 2. 条件判断 Agent:负责解析玩家输入,判断是否达到触发下一情节的条件,若条件符合,把相应情节传递给主持人 Agent 继续讲解。 3. 情节向量化处理与索引构建:对剧本内容进行向量化处理,自动分段并构建索引,使主持人和判断 Agent 能迅速、准确地检索所需内容,让剧情展开更流畅。 关于 MultiAgent 的介绍: 随着大型语言模型(LLM)的出现,以 LLM 为核心构建的 Agent 系统近期受到广泛关注。Agent 系统旨在利用 LLM 的归纳推理能力,为不同的 Agent 分配角色和任务信息,并配备相应的工具插件,以完成复杂的任务。 目前常见框架主要集中在单 Agent 场景下,其核心在于 LLM 与工具的协同配合,LLM 根据用户任务的理解,推理出需要调用的工具,并根据调用结果向用户提供反馈,在任务完成过程中,Agent 可能需要与用户进行多轮交互。 同时,越来越多的 Agent 框架开始关注多 Agent 场景,为完成任务,为不同的 Agent 指定不同角色,并通过 Agent 之间的协作来完成复杂任务,与单 Agent 相比,在任务完成过程中,与用户的交互可能会减少一些。
2024-09-25
文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些AI工具之间有什么不同,各自擅长哪些领域
以下是文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些 AI 工具的不同之处及各自擅长的领域: Kimi 智能助手:由 Moonshot AI 出品,有着超大“内存”,可以一口气读完二十万字的小说,还会上网冲浪。 文心一言:百度出品的 AI 对话产品,定位为智能伙伴,能写文案、想点子,陪聊天、答疑解惑,与搜索有较好的结合。 通义千问:由阿里云开发的聊天机器人,能够与人交互、回答问题及协作创作,与钉钉有结合应用。 腾讯混元:相对较为低调,公司文化特点及目前尚未有明确亮点可能是其受到关注较少的原因。 讯飞星火:暂未提及具体特点和擅长领域。 抖音豆包:字节旗下产品,字节在 AI 领域有较大投入和决心,如推出多种相关产品和应用。 智普清言:暂未提及具体特点和擅长领域。 需要注意的是,这些 AI 工具的性能和擅长领域可能会随着不断的更新和优化而发生变化。
2024-08-18