Navigate to WaytoAGI Wiki →
Home/question.detail.breadcrumb.questionList/question.detail.breadcrumb.questionDetail

gpt4o视觉模型

Answer

GPT-4o 是 OpenAI 推出的模型。开发人员现在可在 API 中将其作为文本和视觉模型进行访问。与 GPT-4 Turbo 相比,具有速度快 2 倍、价格减半、速率限制高出 5 倍的优势。未来几周计划向 API 中的一小群受信任的合作伙伴推出对其新音频和视频功能的支持。

GPT-4o(“o”代表“omni”)是迈向更自然人机交互的一步,能接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。它在 232 毫秒内可响应音频输入,平均为 320 毫秒,与人类响应时间相似。在英语文本和代码上的 GPT-4 Turbo 性能相匹配,在非英语语言的文本上有显著改进,在 API 中更快且便宜 50%,在视觉和音频理解方面表现出色。

在 GPT-4o 之前,语音模式由三个独立模型组成的管道实现,存在信息丢失等问题。而 GPT-4o 是在文本、视觉和音频上端到端训练的新模型,所有输入和输出都由同一个神经网络处理,但对其能做什么及局限性仍在探索。

Content generated by AI large model, please carefully verify (powered by aily)

References

OpenAI 春季发布会:GPT-4o

开发人员现在还可以在API中将GPT-4o作为文本和视觉模型进行访问。与GPT-4 Turbo相比,GPT-4o的速度快2倍,价格减半,速率限制高出5倍。我们计划在未来几周内向API中的一小群受信任的合作伙伴推出对GPT-4o新音频和视频功能的支持。

OpenAI 春季发布会:GPT-4o

[OpenAI Spring Update-2.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/HxnUbe3EMocJsnxcLZ1c9bSAnmd?allow_redirect=1)官方demo视频也值得每个都看,点击跳转→[OpenAI春季发布会:GPT-4o](https://waytoagi.feishu.cn/wiki/Qy5Pw3IUZidKf4ky6YacopJBnNh#P0eddxgnOo0EZmxOe6Fc7P3tnSY)[heading2]中文翻译版本[heading2]大家一起直播看发布会回放[content]它其实是GPT-4l/GPT-4,也是前几天神秘出现的gpt2-chatbotgpt2-chatbots刚刚一跃成为最佳,超越所有模型,OpenAI的新GPT-4o模型首次在MathVista上超越人类!人类平均:60.3 GPT-4o:63.8[heading2]介绍[content]GPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步——它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。它可以在短短232毫秒内响应音频输入,平均为320毫秒,这与对话中的人类响应时间相似。它在英语文本和代码上的GPT-4 Turbo性能相匹配,在非英语语言的文本上也有显著改进,同时在API中也更快且便宜50%。与现有模型相比,GPT-4o在视觉和音频理解方面尤其出色。

OpenAI 春季发布会:GPT-4o

在GPT-4o之前,您可以使用语音模式与ChatGPT交谈,平均延迟为2.8秒(GPT-3.5)和5.4秒(GPT-4)。为了实现这一点,语音模式是一个由三个独立模型组成的管道:一个简单的模型将音频转录为文本,GPT-3.5或GPT-4接收文本并输出文本,第三个简单模型将该文本转换回音频。这个过程意味着智能的主要来源GPT-4会丢失大量信息——它无法直接观察音调、多个扬声器或背景噪音,也无法输出笑声、歌声或表达情感。借助GPT-4o,我们在文本、视觉和音频上端到端地训练了一个新模型,这意味着所有输入和输出都由同一个神经网络处理。因为GPT-4o是我们第一个结合了所有这些模式的模型,所以我们仍然只是在探索该模型可以做什么及其局限性的表面。

Others are asking
你和GPT4o、MJ、suno有什么区别呢
GPT4o 能快速返回答案,但可能存在错误且无法自动纠错。 o1 推理模型在给出最终结果前会反复推演和验证,耗时更长但结果更准确,o1 Pro 计算时间更长,推理能力更强,适合复杂问题。 MJ (Midjourney)是一款专注于生成图像的工具。 Suno 相关的特点未在提供的内容中有明确提及。 由于不清楚您提到的“Suno”的具体情况,无法给出更详细的对比。但总体来说,不同的工具在功能、性能、适用场景等方面存在差异。
2024-12-26
免费试用chatgpt4o
ChatGPT 4o 于 5 月 13 日发布后引起热潮,目前 ChatGPT 官网有 3 个版本,分别是 GPT3.5、GPT4 和 ChatGPT 4o。发布会上称 ChatGPT 4o 可以免费体验,但次数有限。 GPT3.5 为免费版本,拥有 GPT 账号即可使用,但其智能程度不如 GPT4o,且无法使用 DALL.E3 等插件。ChatGPT 3.5 的知识更新到 2022 年 1 月,ChatGPT 4o 的知识更新到 2023 年 10 月,ChatGPT 4 则更新到 2023 年 12 月。 想要更多功能更智能的 GPT4o 需升级到 PLUS 套餐,收费标准为 20 美金一个月,GPT4 还有团队版和企业版,费用更贵,一般推荐使用 PLUS 套餐。 以下是安卓系统安装、订阅 GPT4 的教程: 1. 安装 Google Play:到小米自带的应用商店搜索 Google Play 进行安装,安装好后打开,按提示登录。 2. 下载安装 ChatGPT:在谷歌商店搜索“ChatGPT”进行下载安装,开发者是 OpenAI。可能会遇到“google play 未在您所在的地区提供此应用”的问题,可通过在 Google Play 点按右上角的个人资料图标,依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料,添加国内双币信用卡,地区选美。若仍搜不到,可卸载重装 Google Play 并保持梯子的 IP 一直是美。 3. 体验 ChatGPT:若只想体验 ChatGPT 3.5 版本,不升级 GPT4,直接登录第二部注册好的 ChatGPT 账号即可。 4. 订阅 GPT4 Plus 版本:先在 Google play 中的【支付和订阅】【支付方式】中绑定好银行卡,然后在 ChatGPT 里订阅 Plus。
2024-11-19
GPT4o能免费用几次
ChatGPT 4o 可以免费体验,但免费体验次数很有限。截至 2024 年 5 月 13 日,Plus 用户在 GPT4o 上每 3 小时最多发送 80 条消息。免费套餐的用户将默认使用 GPT4o,且使用 GPT4o 发送的消息数量受到限制,具体数量会根据当前的使用情况和需求而有所不同。当不可用时,免费层用户将切换回 GPT3.5。
2024-10-26
chatgpt4o免费的模型和付费的模型有什么区别
ChatGPT 免费的模型(如 GPT3.5)和付费的模型(如 GPT4o 的 PLUS 套餐)主要有以下区别: 1. 知识更新时间:ChatGPT 3.5 的知识更新到 2022 年 1 月,ChatGPT 4o 的知识更新到 2023 年 10 月,而 ChatGPT 4 更新到 2023 年 12 月。 2. 智能程度:GPT3.5 的智能程度明显低于 GPT4o。 3. 功能:GPT3.5 无法使用 DALL.E3(AI 画图功能)、GPTs 商店和高级数据分析等插件。 4. 费用:想要使用更多功能更智能的 GPT4o 需要升级到 PLUS 套餐,收费标准是 20 美金一个月。GPT4 还有团队版企业版,费用更贵,一般推荐使用 PLUS 套餐即可。 此外,ChatGPT 4o 发布后,虽称可免费体验,但免费体验次数很有限。
2024-10-26
如何连接GPT4o
以下是连接 GPT4o 的方法: 1. 对于 ChatGPT Mac 客户端: 下载地址:persistent.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg 使用 Proxyman、Charles 或您喜欢的网络代理来进行以下操作(需要有 ChatGPT 付费账号,以及网络技术基础):以 ProxyMan 为例 登录一次以触发 API 调用 对 ChatGPT 的 App 启用 SSL 代理(需要配置好 ProxyMan 证书) 再登录一次以触发 API 调用 然后右键点击 ab.chatgpt.com/v1/initialize 选择本地映射,并将所有的 false 替换为 true 再尝试一次,您就应该能顺利登录了。 详细版图文教程: 2. 对于安卓系统: 先在 Google play 中的【支付和订阅】【支付方式】中绑定好银行卡 然后在区 chatgpt 里订阅 Plus,操作如下截图 完成后即可开始使用 ChatGPT 4o
2024-08-18
gpt4o mini有关的文档
以下是关于 GPT4o mini 的相关文档信息: Open AI 发布了 GPT4o mini 模型。其 MMLU 得分为 82%,碾压其他同级别小模型。价格较低,为 0.15 美元/100 万 token 输入和 0.6 美元/100 万 token 输出,比 GPT3.5 Turbo 便宜超过 60%。具有 128k 的大上下文窗口,非常适合 RAG。GPT4o mini 在 API 中支持文本和图片,未来将支持文本、图像、视频和音频输入和输出。GPT4o mini 接替 3.5 成为 ChatGPT 中的免费模型,目前还不支持多模态,而且 4o mini 的 API 一旦涉及到图片 Token 数量也会大增。
2024-08-17
有没有视觉识别的模型
以下是一些视觉识别的模型: 1. siglipso400mpatch14384:由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容(如物体、场景、颜色、纹理等)、将这些视觉信息编码成一组特征向量。可在 ComfyUI\models\clip 中下载,若因环境问题,也可在网盘中下载。下载好后,目录的文件包括 image_adapter.pt(适配器),其连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征使其适合语言模型处理、进行一些特定任务的优化或微调(如图片到文字)。可通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,若该文件夹不存在,新建一个。 2. Comfyui IPAdapter 中的图像模型: ,下载并重命名。 ,下载并重命名。下载后放入/ComfyUI/models/clip_vision。需要注意的是,clip vison 只能编码 224x224 大小的正方形图片,后续使用时若图片不是正方形,需进行裁剪。
2024-12-19
我想找关于视觉识别相关的api
很抱歉,目前知识库中没有关于视觉识别相关 API 的具体信息。但您可以通过以下途径寻找: 1. 一些知名的云服务提供商,如阿里云、腾讯云、百度云等,它们通常提供视觉识别相关的 API 服务。 2. 专门的人工智能和计算机视觉技术公司的官方网站,可能会有相关的 API 介绍和使用文档。 3. 技术社区和开发者论坛,例如 CSDN、掘金等,您可以在这些地方与其他开发者交流,获取相关的推荐和经验分享。
2024-12-19
国内做视觉理解的大模型厂商有哪些
国内做视觉理解的大模型厂商有以下这些: 北京: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com 上海: 商汤(日日新大模型):https://www.sensetime.com MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 此外,在 0 基础手搓 AI 拍立得的模型供应商选择中,还有以下视觉类大模型厂商: 智谱 GLM4V:通用视觉类大模型,拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,一个接口支持图片/视频/文本,视频和图片类型不能同时输入,调用成本为 0.05 元/千 tokens, 阿里云百炼 qwenvlplus:通用视觉类大模型,拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为¥0.008/千 tokens,训练成本为¥0.03/千 tokens, 阶跃星辰:通用视觉类大模型,响应速度快,支持视频理解,输入成本为¥0.005~0.015/千 tokens,输出成本为¥0.02~0.07/千 tokens, 百度 PaddlePaddle:OCR,垂直小模型,文本识别能力补齐增强,私有化部署服务费,API 调用在¥0.05~0.1/次,
2024-12-19
有哪些好的将文本转换为视觉的AI工具
以下是一些将文本转换为视觉的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 2. SVD:Stable Diffusion 的插件,可在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 6. Napkin AI:将文本内容转换为视觉图像,生成图表、流程图等,可编辑和个性化设计元素,并导出多种格式。 7. Trellis AI:能从非结构化内容中提取数据,将复杂数据源高效转换成结构化的 SQL 格式。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 此外,在软件架构设计中,以下工具可用于绘制逻辑视图、功能视图和部署视图: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建。 2. Visual Paradigm:全面的 UML 工具,提供多种架构视图创建功能。 3. ArchiMate:开源建模语言,与 Archi 工具配合使用支持逻辑视图创建。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 6. draw.io(现称 diagrams.net):免费在线图表软件,支持多种图表创建。 7. PlantUML:文本到 UML 转换工具,可自动生成多种视图。 8. Gliffy:基于云的绘图工具,提供架构图创建功能。 9. Archi:免费开源工具,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持多种视图创建。
2024-12-12
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28
介绍一下视觉算法产品,以及该方向产品经理需要做的内容,以及面试可能会考察的知识点
目前知识库中暂时没有关于视觉算法产品、该方向产品经理工作内容以及面试考察知识点的相关信息。但一般来说,视觉算法产品是利用计算机视觉技术来实现特定功能的产品,例如图像识别、目标检测、视频分析等。 视觉算法产品经理需要做的工作内容可能包括: 1. 市场调研与需求分析:了解市场需求、竞争对手情况,挖掘潜在的用户需求。 2. 产品规划与定义:明确产品的目标、功能、性能指标等。 3. 算法选型与整合:根据需求选择合适的视觉算法,并进行整合和优化。 4. 项目管理与推进:协调开发团队、测试团队等,确保项目按时交付。 5. 与客户沟通:收集反馈,优化产品。 在面试视觉算法产品经理时,可能会考察以下知识点: 1. 计算机视觉基础知识,如常见的算法和模型。 2. 对相关行业和市场的了解。 3. 产品管理的方法和流程。 4. 项目管理经验和能力。 5. 沟通协调和团队合作能力。
2024-11-01
评测模型生图好坏的标准
评测模型生图好坏的标准主要包括以下几个方面: 1. 模型选择: 基础模型(Checkpoint):生图必需,不同模型适用于不同主题。 Lora:低阶自适应模型,可用于精细控制面部、材质、物品等细节。 ControlNet:控制图片中特定图像,如人物姿态、生成特定文字等。 VAE:类似于滤镜,可调整生图饱和度。 2. 提示词设置: 正向提示词(Prompt):描述想要 AI 生成的内容。 负向提示词(Negative Prompt):描述想要 AI 避免产生的内容。 3. 图片视觉质量: 自然度和美观度是关键指标。 可从数据和训练方法两方面提升,如使用特定的网络结构。 4. 文字生成能力: 目前未有模型具有良好的中文文字生成能力。 提升中文文字生成能力需从多方面准备数据。 需要注意的是,模型生图的效果并非完全由这些标准决定,还可能受到其他因素的影响,需要不断尝试和学习以获得更好的生图效果。
2024-12-26
ocr大模型的原理
OCR 大模型的原理如下: 1. 生成式:大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,一开始给定提示词,大模型结合自身存储的知识进行计算推理,算出下一个单词的概率并输出,新的输出与过去的输入一起成为新的输入来计算下一个词,直到计算出的概率最大时结束输出。 2. 预训练:大模型“脑袋”里存储的知识都是预先学习好的,这个预先学习并把对知识的理解存储记忆在“脑袋”里的过程称为预训练。预训练需要花费大量时间和算力资源,且在没有其他外部帮助的情况下,大模型所知道的知识信息可能不完备和滞后。 3. 规模效应:参数规模的增加使得大模型实现了量变到质变的突破,最终“涌现”出惊人的“智能”。就像人类自身,无论是物种进化还是个体学习成长,都有类似“涌现”的结构。
2024-12-26
目前字节有哪些可以运用到安全审核业务的大模型?
字节在安全审核业务中可能运用到的大模型包括: 1. Claude2100k 模型,其上下文上限是 100k Tokens,即 100000 个 token。 2. ChatGPT16k 模型,其上下文上限是 16k Tokens,即 16000 个 token。 3. ChatGPT432k 模型,其上下文上限是 32k Tokens,即 32000 个 token。 大模型的相关知识: 1. 大模型中的数字化便于计算机处理,为让计算机理解 Token 之间的联系,需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。 2. 以 Transform 为代表的大模型采用自注意力机制来学习不同 token 之间的依赖关系,生成高质量 embedding。大模型的“大”指用于表达 token 之间关系的参数多,例如 GPT3 拥有 1750 亿参数。 3. 大模型的架构包括 encoderonly(适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT)、encoderdecoder(同时结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 google 的 T5)、decoderonly(更擅长自然语言生成任务,典型使用包括故事写作和博客生成,众多 AI 助手基本都来自此架构)。大模型的特点包括预训练数据非常大(往往来自互联网,包括论文、代码、公开网页等,一般用 TB 级数据进行预训练)、参数非常多(如 Open 在 2020 年发布的 GPT3 已达到 170B 的参数)。
2024-12-25
大模型在金融领域的量化投研领域的应用
大模型在金融领域的量化投研领域有以下应用和特点: 1. 大型系统工程: 量化和大模型都需要大型计算集群,上万张卡的互联是对基础设施的极致挑战。量化对性能和效率有极致追求,交易指令速度至关重要;大模型在基础设施层面的每一点提升都能优化训练效率。 细节在大型系统工程中十分关键。量化交易系统包含多个方面,任何环节出问题都会导致交易系统失败;大模型预训练从数据到评估包含大量细节,如数据配比、顺序、训练策略等。 2. 本土化机会: 很多 Global 的量化基金到中国会水土不服,国家政策也限制其大规模开展业务,给国内量化基金崛起机会。 OpenAI、Google、Meta 等的模型中文能力一般,未对中国国情优化,不符合政策要求,给国内大模型公司本土化预训练机会。 两者都受政策影响极大,需要有效监管才能健康发展。 3. 其他相似之处: 少数精英的人赚大量的钱,做大模型和金融量化都不用很多人,但每个人都要绝顶聪明。 核心问题一样,下一个 token 预测和下一个股价预测类似。 都需要大量数据,都追求可解释性。 作者:黄文灏 源地址:https://zhuanlan.zhihu.com/p/646909899 最近和朋友讨论发现大模型预训练和金融量化有很多相似之处,作者恰好同时具有两者背景,做了对比。
2024-12-25
大模型在办公场景的应用
大模型在办公场景有诸多应用,具体如下: 基础办公提效:在 PPT、Excel、会议报告、策划会、文案包装、图文海报、客服机器人 bot 等方面,能从单个任务 task 到角色 role 再到角色间协同 collaboration 显著提高工作效率。 人力资源管理:覆盖招聘初期(如职位描述生成、简历分析、面试题设计)、员工绩效评估(分析员工工作表现,识别绩效趋势和提升点,为管理层提供数据支持的绩效反馈)以及员工培训与发展各个环节,提高工作效率。 通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够理解自然语言,进行文本生成、推理问答、对话、文档摘要等工作。其训练和使用过程可类比为上学参加工作: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,能代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与 LLM 可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表(Vocabulary)。 此外,在游戏行业,大模型能降低成本,打造创新玩法,提供更好的游戏体验。如网易推出的首款 AI 手游《逆水寒》,将 AIGC 应用于美术开发,在 NPC 与玩家的交互上呈现独特剧情体验,还内嵌了全自动“AI 作词机”。在健身行业,AI 减重顾问既能解决售前客服问题,也能解决学员离开健身营之后的健康监护,提高学员体验。
2024-12-25
图像对比与图像搜索这块,有没有哪个ai大模型做的比较好比较深入的
在图像对比与图像搜索方面,以下是一些相关的 AI 大模型特点和应用: RAG(检索增强生成):通过引用外部数据源为模型做数据补充,适用于动态知识更新需求高的任务。其原理是在基础大模型基础上引用外部数据,对搜索到的数据信息进行切片、拆分和语义理解,再根据用户提问进行检索和回答,但比基座模型更耗时。RAG 是一个检索生成框架,能够支持在本地运行。 AI 搜索:结合了多种能力,如 fine tuning、实时联网查询和查询知识源等,能够为用户整理出想要的内容。一些 AI 搜索平台专注于特定领域,如为程序员提供代码搜索。 多模态大模型:像能唱会跳、精通多种技能的机器人,能看见、听见、思考、说话,例如能识别物体、听取指令等。 生成式模型和决策式模型:决策式模型偏向逻辑判断,按预设程序固定输出;生成式模型偏随机性,能动态组合并结构化呈现,如在图像识别中,决策式模型返回关键词,生成式模型用语言表达结构化信息。
2024-12-25