直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

不同大模型之间会相互串联吗?

回答

目前不同大模型之间一般不会直接相互串联。

大模型的发展仍在不断演进中。在语言模型方面,Token 被视为模型处理和生成的文本单位,输入文本会被分词数字化形成词汇表,为便于计算机处理,还会将 Token 表示成稠密矩阵向量,即 embedding,常见算法包括基于统计、深度网络和神经网络的多种方式。以 Transformer 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。

多模态大模型方面,虽然取得了重大进展,但面临着巨大的计算量问题。研究重点在于各模态的连接,合理利用现成的训练好的单模态基础模型,减少训练费用并提升效率。不同模态的模型通常是分开训练的,如何将它们连接起来实现协同推理是核心挑战,主要通过多模态预训练和多模态的指令微调来实现模态之间以及模型输出与人类意图的对齐。

在企业应用中,大模型还未发展到通用人工智能阶段,不能期望一个大模型解决所有问题。在企业内部,更可能是多个专注于不同专业的大模型通过协作和组合来工作。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

大模型入门指南

在LLM中,Token([2])被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token是原始文本数据与LLM可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary),比如:The cat sat on the mat,会被分割成“The”、“cat”、“sat”等的同时,会生成下面的词汇表:|Token|ID|<br>|-|-|<br>|The|345|<br>|cat|1256|<br>|sat|1726|<br>|…|…|数字化的好处是便于计算机处理。但为了让计算机理解Token之间的联系,还需要把Token表示成稠密矩阵向量,这个过程称之为embedding([3]),常见的算法有:基于统计Word2Vec,通过上下文统计信息学习词向量GloVe,基于词共现统计信息学习词向量基于深度网络CNN,使用卷积网络获得图像或文本向量RNN/LSTM,利用序列模型获得文本向量基于神经网络BERT,基于Transformer和掩码语言建模(Masked LM)进行词向量预训练Doc2Vec,使用神经网络获得文本序列的向量以Transform为代表的大模型采用自注意力(Self-attention)机制来学习不同token之间的依赖关系,生成高质量embedding。

多模态大模型入门指南-长文慎入【持续更新】

最近,多模态大模型取得重大进展。随着数据集和模型的规模不断扩大,传统的MM模型带来了巨大的计算量,尤其是从头开始训练的话。研究人员意识到MM的研究重点工作在各个模态的连接上,所以一个合理的方法是利用好现成的训练好的单模态基础模型,尤其是LLM。这样可以减少多模态训练的费用,提升训练效率。MM-LLM利用LLM为各种MM任务提供认知能力。LLM具有良好的语言生成,zero-shot和ICL的能力。其他模态的基础模型则提供了高质量的表征。考虑到不同模态的模型是分开训练的,如何将不同模态连接起来,实现协同推理,是核心挑战。这里面的主要工作便是通过多模态预训练和多模态的指令微调,来实现模态之间的对齐,以及模型输出与人类意图的对齐。

周鸿祎免费课AI系列课程第二讲-企业如何拥抱AI

那么很多人这里边有一个误区,老以为说我这个企业,比如中国企业家,我就做一个大模型,就解决我所有的问题。注意这个想法是不现实的,因为目前大模型没有发展到AGI,它还不是通用人工智能。大家记着,AGI是通用人工智能时代,没有带到来。所以现在大模型只能在专项技能上发挥作用,如果你期望他什么都能做,这个期望是不切实际的。今年OpenAI和通用大模型遇到的所有问题,为什么它的是留存率比较低呢?就是因为他承诺我什么都能做,你去用的时候,有时候你的体验特别好,对吧?所以在企业内部,我们像我们很多人都懂IT,我们这么多年,我们管员工的有HR软件,我们管客户里有CRM软件,我们管财务里有财务软件,你见过有一家软件商把所有这软件都做到一个软件里了吗?所以未来在企业内部不可能是只有一个大模型,大家记住我这句话,而是一定有多个大模型,每个大模型干不同的专业。大模型通过协作,通过组合来工作,这是未来。所以我们企业要不你就不整,要整企业内部绝对不止一个大模型。

其他人在问
你可以推荐一些能够提高企业效率和生产力的AI工具,AI工具串联的资料给我吗
以下是一些能够提高企业效率和生产力的 AI 工具: 销售相关: Salesforce 爱因斯坦:来自 Salesforce,能分析大量数据集识别潜在客户,生成预测性潜在客户评分,还能自动化日常或耗时任务。 Clari:专门从事智能收入运营,能统一数据并以易理解方式呈现,简化财务预测过程。 Hightime:销售团队的 AI 助手,处理重复性任务和耗时研究。 编程相关: GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,提供代码建议。 通义灵码:阿里巴巴推出,提供多种编程辅助能力。 CodeWhisperer:亚马逊 AWS 团队推出,为开发人员实时提供代码建议。 CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数预训练大模型生成代码。 Cody:Sourcegraph 推出的 AI 代码编写助手,借助强大的代码语义索引和分析能力了解开发者的整个代码库。 此外,小红书上也有相关优质科技内容案例,如: ,体裁为视频,点赞 1.8 万,推荐理由是工具用途和优点介绍清晰不拖沓。 ,体裁为视频,点赞 6000,推荐理由是视频制作专业,文稿结构清晰简洁。
2024-08-28
国内外好用的图生视频模型
以下是一些国内外好用的图生视频模型: 可灵(国内,免费) 网址:https://klingai.kuaishou.com/ 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 ETNA(国内) 网址:https://etna.7volcanoes.com/ 由七火山科技开发的文生视频 AI 模型。 可以根据用户简短的文本描述生成相应的视频内容。 生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。 文生视频,支持中文,时空理解。 关于可灵的文生视频效果,测试者 Austin 周安鑫进行了以下测试: 1. 场景识别:包括室内和室外,如客厅的沙发、液晶电视、漂亮的波斯猫、超现实主义的蜿蜒河流、茂密森林、灿烂花海、碧绿草坪等。 2. 物体识别:涵盖静态和动态物体,如水晶球、跳动的火焰、翱翔的飞鸟、闪烁的流星、飞溅的水珠等。 3. 人物识别:包括面部和姿态,如一个人笑容灿烂、一个人惊恐愤怒,一位芭蕾舞女孩在冰面上跳舞等。 4. 动作识别:包含基本和复杂动作,如短跑运动员快速奔跑、赛车手驾驶跑车激烈漂移等。 5. 事件检测:有简单和复杂事件,如一位帅哥在喝水、外星文明和地球进行星际大战等。 6. 环境变化:涉及光线和天气,如奇幻的极光舞动变幻、城市写字楼灯光忽明忽暗、闪电交加、乌云密布、台风、大雨等。 7. 多对象场景:包括单一和多对象场景,如 1 个飞行员驾驶战斗机翱翔太空、海军指挥航母战斗群展开激烈战斗等。 8. 特殊场景:有遮挡和非标准场景,如城市大雾遮挡摩天大楼、一边是神秘海底世界,一边是梦幻糖果屋。 9. 细节检测:包含小物体和微表情,如崭新的苹果电脑屏幕上播放电影、瞳孔收缩、脸颊泛红、嘴唇微微颤抖。
2024-09-19
你自己使用的是什么模型
以下是关于模型的相关信息: 新的 gpt3.5turbo 模型针对会话进行了优化,原始的 GPT3.5 模型针对文本补全进行了优化。 用于创建嵌入和编辑文本的端点有自己的一组专用模型。 在 AI 输入框下方有一个下拉列表,允许选择要使用的模型。默认情况下,Cursor 已准备好使用的模型包括:GPT4o、GPT4、Claude 3.5 Sonnet、cursorsmall。其中,cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。您可以在 Cursor Settings > Models > Model Names 下添加其他模型。 谷歌一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是名为 PaLM 2 的模型。 Anthropic 发布了 Claude 2,其最值得注意的是有非常大的上下文窗口,与其他大型语言模型相比,不太可能恶意行事。
2024-09-19
推荐下好用的具备图像OCR能力的大模型
目前在具备图像 OCR 能力的大模型方面,一些较为知名和好用的包括百度的文心大模型、阿里云的通义大模型等。但大模型的性能和适用场景可能会因具体需求和使用场景的不同而有所差异。您可以根据自己的具体需求进一步评估和选择。
2024-09-19
AI 大模型命名 带有-instruct的含义
AI 大模型中带有“instruct”通常与指令微调相关。在大模型的训练过程中,指令微调是其中一个重要阶段。此阶段模型被训练以理解并执行具体指令,例如翻译文本等,从而能够回答问题。指令微调阶段输入的内容通常包括三个部分,如“Instruct:请你翻译下面这段话”“Input:一段英文”“Output:一段中文”。通过指令微调,模型能够更好地按照人类的期望和具体要求进行输出。
2024-09-19
你是基于哪个AI大模型的
我是 WaytoAGI 专属问答机器人,基于 Aily 和云雀大模型。 Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供了简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用,推动业务创新和效率提升。 云雀是由字节跳动研发的语言模型,通过便捷的自然语言交互,能够高效地完成互动对话、信息获取、协助创作等任务。 此外,还有一些免费的大模型接口,如阿里的通义千问大模型接口,可创建 API key。智谱 AI(ChatGLM)、科大讯飞(SparkDesk)也有免费接口,但国内的大模型大多限制一定免费额度的 Token。 谷歌的 Gemini 大模型(gemini 1.5)、海外版 Coze 的 GPT4 模型是免费且能图片识别,但需要给服务器挂梯子。想使用的话,可参考张梦飞同学写的教程。 在深入了解 AI 运作原理和众多落地产品后,重新思考 AI 大模型引发的变革。此前曾有疑问,大模型与智能语音技能的 NLU 存在差异。语音技能 NLU 是通过一系列规则、分词策略等训练而成,运作逻辑规律可观测,具有 ifelse 式逻辑性。而大模型凭借海量数据在向量空间中学习知识的关联性形成,运作逻辑难以观测,脱离了 ifelse 的层面。
2024-09-19
如果我需要一名助手帮我运营跨境电商的线上店铺,我需要一些精准的关键词就可以训练模型吗?
训练模型来协助运营跨境电商线上店铺,仅依靠一些精准的关键词通常是不够的。模型的训练需要多方面的数据和信息,包括但不限于产品的详细描述、客户的评价和反馈、市场趋势、竞争对手的情况等。精准的关键词可以作为其中的一部分输入,但不足以全面有效地训练模型以达到理想的辅助运营效果。
2024-09-19
文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些AI工具之间有什么不同,各自擅长哪些领域
以下是文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些 AI 工具的不同之处及各自擅长的领域: Kimi 智能助手:由 Moonshot AI 出品,有着超大“内存”,可以一口气读完二十万字的小说,还会上网冲浪。 文心一言:百度出品的 AI 对话产品,定位为智能伙伴,能写文案、想点子,陪聊天、答疑解惑,与搜索有较好的结合。 通义千问:由阿里云开发的聊天机器人,能够与人交互、回答问题及协作创作,与钉钉有结合应用。 腾讯混元:相对较为低调,公司文化特点及目前尚未有明确亮点可能是其受到关注较少的原因。 讯飞星火:暂未提及具体特点和擅长领域。 抖音豆包:字节旗下产品,字节在 AI 领域有较大投入和决心,如推出多种相关产品和应用。 智普清言:暂未提及具体特点和擅长领域。 需要注意的是,这些 AI 工具的性能和擅长领域可能会随着不断的更新和优化而发生变化。
2024-08-18
大语言模型,AI,AIGC和AGI他们之间是什么关系?
大语言模型、AI、AIGC 和 AGI 是人工智能领域中常用的几个概念,它们之间的关系如下: 1. AI(人工智能):是指能够执行人类智能任务的计算机程序,例如推理、学习、感知和行动。AI 是一个广泛的概念,包括机器学习、深度学习、自然语言处理、计算机视觉等多个领域。 2. AIGC(生成式人工智能):是指利用 AI 技术,特别是深度学习,来生成新的文本、图像、音频或视频等内容的过程。AIGC 是 AI 的一个子集,专注于生成式任务。 3. LLM(大型语言模型):是一种特殊类型的 AI 模型,专门用于处理自然语言处理(NLP)任务。LLM 是一种基于深度学习的模型,通过在大量文本数据上进行无监督学习,来学习语言的模式和结构。LLM 可以用于各种 NLP 任务,例如文本生成、机器翻译、问答系统等。 4. AGI(通用人工智能):是指能够执行人类智能任务的计算机程序,并且具有人类智能的一些关键特征,例如理解、学习、推理和行动。AGI 是 AI 的一个理想目标,目前还没有实现。 总的来说,AI 是一个广泛的概念,包括 AIGC 和 LLM 等子集。AIGC 是 AI 的一个子集,专注于生成式任务,而 LLM 是 AI 的一个子集,专注于 NLP 任务。AGI 是 AI 的一个理想目标,目前还没有实现。
2024-05-10