Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

视觉理解技术最新动态和趋势

Answer

以下是视觉理解技术的最新动态和趋势:

一、视觉分析技术

  1. Transformer 视觉模型优点
  2. Transformer 视觉模型的局限

二、图像-语言模型

三、视频-语言模型

四、LLM 多模态 Agent

五、应用场景

  1. 多模态内容理解与处理
  2. 智能交互与自动化
  3. 具身智能
  4. 未来发展趋势(2024 - ?)
  5. 视频生成模型 mapping

六、未来发展方向

  1. 技术路径而言:利用预训练 LLMs 进行指令调整
    • 最初,多模态融合方法常采用预训练的目标检测器,如 ViLBERT、VisualBERT 和 Unicoder-VL,通过提取图像特征和执行交叉模态预训练任务,为后续的图像 - 文本任务奠定基础。
    • 随着 ViT 的出现和普及,更多方法开始利用 ViT 作为图像编码器,强调大规模预训练,以提高模型的性能和泛化能力,例如 Flamingo。
    • 近期,向多模态 LLMs 发展,从进行预训练到向指令调整(instruction tuning)转变,如 LLaVA 和 MiniGPT-4,融合视觉和语言信息,能更有效地完成视觉理解相关任务,提升模型对于指令的理解能力和零样本性能,更好地泛化到未见过的任务和领域。
  2. 应用场景而言:赋予机器理解多模态的能力

此外,李飞飞在 2015 年的 TED 演讲《我们怎么教计算机理解图片?》中提到了计算机视觉方面的研究进展,指出虽然在科技上取得了很多进步,但在计算机视觉方面仍存在一些问题,如自动驾驶车辆的视觉敏锐度、向盲人传递画面、无人机的视觉技术等。

Content generated by AI large model, please carefully verify (powered by aily)

References

质朴发言:视觉-语言理解模型的当前技术边界与未来应用想象|Z 研究第 2 期

原文链接:https://mp.weixin.qq.com/s/dYLqW8dNOcQw59UtQwXNgA来源:质朴发言发文时间:2024.01.22近期,生成式AI领域的浪潮催化了多模态模型的探索,研究人员不断尝试使用更多模态数据的编码,以训练出能够理解和处理多种类型数据的模型。本份研究报告集中讨论了基于Transformer架构的视觉-语言模型,这些模型优化了从视觉输入到语言输出的转换过程。报告的范围专注于视觉和语言之间的交互,而不考虑单纯的视觉到视觉的计算机视觉任务。综上,本报告旨在为所有关心大模型事业的伙伴,提供一个全面而深入的视角,以理解视觉-语言理解模型的发展历程、现状及未来趋势。🌊目录建议结合要点进行针对性阅读。👇一、视觉分析技术1、Transformer视觉模型优点2、Transformer视觉模型的局限二、图像-语言模型三、视频-语言模型四、LLM多模态Agent五、应用场景1、多模态内容理解与处理2、智能交互与自动化3、具身智能4、未来发展趋势(2024-?)5、视频生成模型mapping六、未来发展方向1、技术路径而言:利用预训练LLMs进行指令调整2、应用场景而言:赋予机器理解多模态的能力七、References八、附录

质朴发言:视觉-语言理解模型的当前技术边界与未来应用想象|Z 研究第 2 期

最初,多模态融合方法常采用预训练的目标检测器,例如ViLBERT、VisualBERT和Unicoder-VL。这些方法通过提取图像特征和执行交叉模态预训练任务,为后续的图像-文本任务奠定了基础。随着ViT的出现和普及,更多方法开始利用ViT作为图像编码器。这些方法强调大规模预训练,以提高模型的性能和泛化能力,例如Flamingo。近期,我们见证了向多模态LLMs的发展趋势,从进行预训练到向指令调整(instruction tuning)转变。例如LLaVA和MiniGPT-4,它们通过融合视觉和语言信息,能够更有效地完成视觉理解相关的任务。这进一步提升模型对于指令的理解能力,提升零样本性能,使模型能够更好地泛化到未见过的任务和领域,对于实现具有高度智能的通用人工智能,是一个重要的进步。

李飞飞的两次 TED 演讲

链接:https://www.ted.com/talks/fei_fei_li_how_we_re_teaching_computers_to_understand_pictures?language=zh-CN我先来给你们看点东西。(视频)女孩:好吧,这是只猫,坐在床上。一个男孩摸着一头大象。那些人正准备登机。那是架大飞机。李飞飞:这是一个三岁的小孩在讲述她从一系列照片里看到的东西。对这个世界,她也许还有很多要学的东西,但在一个重要的任务上,她已经是专家了:去理解她所看到的东西。我们的社会已经在科技上取得了前所未有的进步。我们把人送上月球,我们制造出可以与我们对话的手机,或者订制一个音乐电台,播放的全是我们喜欢的音乐。然而,哪怕是我们最先进的机器和电脑也会在这个问题上犯难。所以今天我在这里,向大家做个进度汇报:关于我们在计算机视觉方面最新的研究进展。这是计算机科学领域最前沿的、具有革命性潜力的科技。是的,我们现在已经有了具备自动驾驶功能的原型车,但是如果没有敏锐的视觉,它们就不能真正区分出地上摆着的是一个压扁的纸袋,可以被轻易压过,还是一块相同体积的石头,应该避开。我们已经造出了超高清的相机,但我们仍然无法把这些画面传递给盲人。我们的无人机可以飞越广阔的土地,却没有足够的视觉技术

Others are asking
有没有视觉识别的模型
以下是一些视觉识别的模型: 1. siglipso400mpatch14384:由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容(如物体、场景、颜色、纹理等)、将这些视觉信息编码成一组特征向量。可在 ComfyUI\models\clip 中下载,若因环境问题,也可在网盘中下载。下载好后,目录的文件包括 image_adapter.pt(适配器),其连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征使其适合语言模型处理、进行一些特定任务的优化或微调(如图片到文字)。可通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,若该文件夹不存在,新建一个。 2. Comfyui IPAdapter 中的图像模型: ,下载并重命名。 ,下载并重命名。下载后放入/ComfyUI/models/clip_vision。需要注意的是,clip vison 只能编码 224x224 大小的正方形图片,后续使用时若图片不是正方形,需进行裁剪。
2024-12-19
我想找关于视觉识别相关的api
很抱歉,目前知识库中没有关于视觉识别相关 API 的具体信息。但您可以通过以下途径寻找: 1. 一些知名的云服务提供商,如阿里云、腾讯云、百度云等,它们通常提供视觉识别相关的 API 服务。 2. 专门的人工智能和计算机视觉技术公司的官方网站,可能会有相关的 API 介绍和使用文档。 3. 技术社区和开发者论坛,例如 CSDN、掘金等,您可以在这些地方与其他开发者交流,获取相关的推荐和经验分享。
2024-12-19
国内做视觉理解的大模型厂商有哪些
国内做视觉理解的大模型厂商有以下这些: 北京: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com 上海: 商汤(日日新大模型):https://www.sensetime.com MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 此外,在 0 基础手搓 AI 拍立得的模型供应商选择中,还有以下视觉类大模型厂商: 智谱 GLM4V:通用视觉类大模型,拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,一个接口支持图片/视频/文本,视频和图片类型不能同时输入,调用成本为 0.05 元/千 tokens, 阿里云百炼 qwenvlplus:通用视觉类大模型,拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为¥0.008/千 tokens,训练成本为¥0.03/千 tokens, 阶跃星辰:通用视觉类大模型,响应速度快,支持视频理解,输入成本为¥0.005~0.015/千 tokens,输出成本为¥0.02~0.07/千 tokens, 百度 PaddlePaddle:OCR,垂直小模型,文本识别能力补齐增强,私有化部署服务费,API 调用在¥0.05~0.1/次,
2024-12-19
有哪些好的将文本转换为视觉的AI工具
以下是一些将文本转换为视觉的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 2. SVD:Stable Diffusion 的插件,可在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 6. Napkin AI:将文本内容转换为视觉图像,生成图表、流程图等,可编辑和个性化设计元素,并导出多种格式。 7. Trellis AI:能从非结构化内容中提取数据,将复杂数据源高效转换成结构化的 SQL 格式。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 此外,在软件架构设计中,以下工具可用于绘制逻辑视图、功能视图和部署视图: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建。 2. Visual Paradigm:全面的 UML 工具,提供多种架构视图创建功能。 3. ArchiMate:开源建模语言,与 Archi 工具配合使用支持逻辑视图创建。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 6. draw.io(现称 diagrams.net):免费在线图表软件,支持多种图表创建。 7. PlantUML:文本到 UML 转换工具,可自动生成多种视图。 8. Gliffy:基于云的绘图工具,提供架构图创建功能。 9. Archi:免费开源工具,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持多种视图创建。
2024-12-12
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28
gpt4o视觉模型
GPT4o 是 OpenAI 推出的模型。开发人员现在可在 API 中将其作为文本和视觉模型进行访问。与 GPT4 Turbo 相比,具有速度快 2 倍、价格减半、速率限制高出 5 倍的优势。未来几周计划向 API 中的一小群受信任的合作伙伴推出对其新音频和视频功能的支持。 GPT4o(“o”代表“omni”)是迈向更自然人机交互的一步,能接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像输出的任意组合。它在 232 毫秒内可响应音频输入,平均为 320 毫秒,与人类响应时间相似。在英语文本和代码上的 GPT4 Turbo 性能相匹配,在非英语语言的文本上有显著改进,在 API 中更快且便宜 50%,在视觉和音频理解方面表现出色。 在 GPT4o 之前,语音模式由三个独立模型组成的管道实现,存在信息丢失等问题。而 GPT4o 是在文本、视觉和音频上端到端训练的新模型,所有输入和输出都由同一个神经网络处理,但对其能做什么及局限性仍在探索。
2024-11-14
最新的AI行业动态和进展有哪些,包含2025年
以下是关于最新的 AI 行业动态和进展(包含 2025 年)的内容: 2024 年: 图片超短视频的精细操控:包括表情、细致动作、视频文字匹配。 有一定操控能力的生成式短视频:风格化、动漫风最先成熟,真人稍晚。 AI 音频能力长足进展:带感情的 AI 配音基本成熟。 “全真 AI 颜值网红”出现,可以稳定输出视频,可以直播带货。 游戏 AI NPC 有里程碑式进展,出现新的游戏生产方式。 AI 男/女朋友聊天基本成熟:记忆上有明显突破,可以较好模拟人的感情,产品加入视频音频,粘性提升并开始出圈。 实时生成的内容开始在社交媒体内容、广告中出现。 AI Agent 有明确进展,办公场景“AI 助手”开始有良好使用体验。 AI 的商业模式开始有明确用例:数据合成、工程平台、模型安全等。 可穿戴全天候 AI 硬件层出不穷,虽然大多数不会成功。 中国 AI 达到或超过 GPT4 水平;美国出现 GPT5;世界上开始现“主权 AI”。 华为昇腾生态开始形成,国内推理芯片开始国产替代(训练替代要稍晚)。 AI 造成的 DeepFake、诈骗、网络攻击等开始进入公众视野,并引发担忧。 AI 立法、伦理讨论仍然大规模落后于技术进展。 2025 2027 年: AI 3D 技术、物理规则成熟:正常人无法区别 AI 生成还是实景拍摄。 全真 AI 虚拟人成熟:包含感情的 AI NPC 成熟,开放世界游戏成熟;游戏中几乎无法区别真人和 NPC。 AR/VR 技术大规模商用。 接近 AGI 的技术出现。 人与 AI 配合的工作方式成为常态,很多日常决策开始由 AI 来执行。 AI 生产的数据量超过全人类生产数据量,“真实”成为稀缺资源。 具身智能、核聚变、芯片、超导、机器人等技术有明显进展突破。 “人的模型”出现,出现“集中化 AGI”与“个人 AGI”的历史分叉。 AI 引发的社会问题开始加重,结构性失业开始出现。 AGI 对于地缘政治的影响开始显露。 此外,还有以下相关动态: 算力瓶颈不只是单纯的技术和建设问题,而是影响整个行业竞争格局的重要变量。 逐渐进入多模态灵活转换的新时代,实现文本、图像、音频、视频及其他更多模态之间的互相理解和相互转换。 人类劳动形式逐步“软件化”,复杂劳动被抽象为可调用的软件服务,劳动流程被大幅标准化和模块化,劳动能力像“即插即用”的工具一样易于获取。 AI 行业目前仍处于严重亏损的阶段,商业化进程仍有巨大提升空间。 云厂商是产业链中毋庸置疑的“链主”。 2024 年,头部 AI 应用的品类变化并不显著。创意工具(如图像和视频内容创作)依然占据最大比重。To P(面向专业用户)应用展现出强大的市场潜力,ToB(面向企业)应用发展路径相对复杂,ToC 应用面临较大的挑战。 在 AI 应用领域,Copilot 和 AI Agent 是两种主要的技术实现方式。 北美和欧洲贡献了 AI 移动应用市场三分之二的份额,众多中国 AI 公司积极出海。 2024 年 10 月的大事记包括: Gartner 发布 2025 年十大战略技术趋势。 DeepSeek 开源多模态 LLM 框架 Janus。 司南开源大模型能力评估模型 CompassJudger。 Anthropic 发布新功能 computer use,发布 Claude 3.5 Haiku,更新 Claude 3.5 Sonnet。 Stability AI 发布 Stable Diffusion 3.5。 x.AI 正式推出 API。 ComfyUI V1 官方桌面版开放内测。 华为发布纯血操作系统鸿蒙 OS NEXT。 Jina AI 推出高性能分类器 Classifier API。 OpenAI 发布图像生成模型 sCM。 Midjourney 上线外部图片编辑器。 Runway 发布动画视频功能 ActOne。 Ideogram 推出 AI 画板工具 Canvas。 Genmo 开源视频生成模型 Mochi 1。 荣耀发布操作系统 MagicOS 9.0。 美国 14 岁少年与 C.AI 聊天后离世。 新华社发文表示警惕「AI 污染」乱象。 港中文&趣丸推出 TTS 模型 MaskGCT。 科大讯飞发布讯飞星火 4.0 Turbo。 阿里通义代码模式开始内测。 Anthropic Claude 新增数据分析功能。 北京市大中小学推广 AI 学伴和 AI 导学应用。 稚晖君开源「灵犀 X1」全套资料。 OpenAI 高管 Miles Brundage 离职。
2025-02-17
最新的AI行业动态和进展有哪些
以下是最新的 AI 行业动态和进展: 1. 《2024 年度 AI 十大趋势报告》发布,其中提到大模型创新方面,架构优化加速涌现,融合迭代大势所趋;Scaling Law 泛化方面,推理能力成皇冠明珠,倒逼计算和数据变革;AGI 探索方面,视频生成点燃世界模型,空间智能统⼀虚拟和现实;AI 应用格局方面,第⼀轮洗牌结束,聚焦 20 赛道 5 大场景;AI 应用竞争方面,多领域竞速运营大于技术,AI 助手兵家必争;AI 应用增长方面,AI+X 赋能类产品大干快上,原生 AI 爆款难求;AI 产品趋势方面,多模态上马,Agent 席卷⼀切,高度个性化呼之欲出;AI 智变千行百业,左手变革生产力,右手重塑行业生态;AI 行业渗透率方面,数据基础决定初速度,用户需求成为加速度;AI 创投方面,投融资马太效应明显,国家队出手频率提升。 2. 2024 年 9 月的 AI 行业大事记: 9 月 12 日:李继刚再现神级 Prompt,玩法持续翻新;Mistral 发布首个多模态模型 Pixtral 12B。 9 月 13 日:商汤 Vimi 相机开放微博小程序;元象开源中国最大 MoE 大模型 XVERSEMoEA36B;OpenAI 发布 o1 模型。 9 月 14 日:人工智能生成合成内容标识办法(征求意见稿);Jina AI 发布 ReaderLM 和 Jina Embeddings V3。 9 月 18 日:DeepSeek 发文庆祝登上 LMSYS 榜单国产第一,几小时后 Qwen 新模型表示不服。 9 月 19 日:云栖大会;通义万相 AI 生视频上线;快手可灵 1.5 模型新增运动笔刷能力。 9 月 20 日:腾讯元器智能体对外发布;秘塔科技产品经理 JD 走红 AI 圈;阶跃跃问接入 Step2 万亿参数 MoE 语言大模型。 9 月 21 日:大模型测试基准研究组正式成立。 9 月 23 日:钉钉 365 会员上线。 9 月 24 日:讯飞星火 API 全新升级;豆包大模型全系列发布&更新。 9 月 25 日:Vidu API 正式开放,加速企业级视频创作;OpenAI 发布高级语音功能;西湖心辰开源 WestlakeOmni。 3. 2024 年,国内 AI 行业融资总金额增加,但事件数同比下降,马太效应越发明显,资本更青睐热点和高成熟度赛道。智能驾驶在各细分赛道中独占鳌头,AI+教育、AI+游戏、AI+医疗等赛道投资总额也有增长。政府积极推进 AI 原生行业发展,北京、上海、武汉等城市出台系列政策吸引人才和企业,国家队频繁投资体现政策支持。
2025-02-17
最新的AI行业动态和进展有哪些
以下是最新的 AI 行业动态和进展: 1. 《2024 年度 AI 十大趋势报告》发布,其中提到: 大模型创新方面,架构优化加速涌现,融合迭代大势所趋。 Scaling Law 泛化,推理能力成皇冠明珠,倒逼计算和数据变革。 AGI 探索中,视频生成点燃世界模型,空间智能统⼀虚拟和现实。 AI 应用格局方面,第一轮洗牌结束,聚焦 20 赛道 5 大场景。 AI 应用竞争中,多领域竞速运营大于技术,AI 助手兵家必争。 AI 应用增长方面,AI+X 赋能类产品大干快上,原生 AI 爆款难求。 AI 产品趋势为多模态上马,Agent 席卷一切,高度个性化呼之欲出。 AI 智变千行百业,左手变革生产力,右手重塑行业生态。 AI 行业渗透率方面,数据基础决定初速度,用户需求成为加速度。 AI 创投方面,投融资马太效应明显,国家队出手频率提升。 2. 2024 年 9 月的 AI 行业大事记: 9 月 12 日:李继刚再现神级 Prompt,玩法持续翻新;Mistral 发布首个多模态模型 Pixtral 12B。 9 月 13 日:商汤 Vimi 相机开放微博小程序;元象开源中国最大 MoE 大模型 XVERSEMoEA36B;OpenAI 发布 o1 模型。 9 月 14 日:人工智能生成合成内容标识办法(征求意见稿);Jina AI 发布 ReaderLM 和 Jina Embeddings V3。 9 月 18 日:DeepSeek 发文庆祝登上 LMSYS 榜单国产第一,几小时后 Qwen 新模型表示不服。 9 月 19 日:云栖大会;通义万相 AI 生视频上线;快手可灵 1.5 模型新增运动笔刷能力。 9 月 20 日:腾讯元器智能体对外发布;秘塔科技产品经理 JD 走红 AI 圈;阶跃跃问接入 Step2 万亿参数 MoE 语言大模型。 9 月 21 日:大模型测试基准研究组正式成立,国家队来了。 9 月 23 日:钉钉 365 会员上线。 9 月 24 日:讯飞星火 API 全新升级;豆包大模型全系列发布&更新。 9 月 25 日:Vidu API 正式开放,加速企业级视频创作;OpenAI 发布高级语音功能;西湖心辰开源 WestlakeOmni。 3. 从行业视角来看,2024 年国内 AI 行业融资总金额增加,但事件数同比下降,马太效应越发明显,资本更青睐热点和高成熟度赛道。智能驾驶在各细分赛道中独占鳌头,AI+教育、AI+游戏、AI+医疗等赛道投资总额也有增长。在政策方面,政府积极推进 AI 原生行业发展,北京、上海、武汉等城市出台系列政策吸引人才和企业,国家队频繁出手投资体现政策支持。
2025-02-17
想在手机上通过宠物照片给宠物建模,是宠物可以有一些动态性,需要怎么做?利用 AIGC 能快速的实现吗?
在手机上通过宠物照片给宠物建模并实现一定的动态性,可以考虑以下几种方式: 1. 利用 3D 引擎:目前有一些公司提供通过手机摄像头快速创建虚拟人身体的服务,例如 NextHuman。不过,3D 引擎在拟真程度高的同时,定制化成本也较高。 2. 借助 AIGC:虽然 AIGC 省去了建模流程,能直接生成数字人的展示图片,但可能存在数字人难以保持 ID 一致性、帧与帧连贯性不佳等问题。典型的相关项目有 wav2lip等。但需要注意的是,如果对模型真实度要求较高,AIGC 方式可能不太理想,因为算法发展很快,未来可能会有更好的连贯度生成方式。 目前利用 AIGC 来快速实现可能存在一些挑战,但随着技术的发展,未来有可能更便捷高效地达成您的需求。
2025-02-13
AI的最新动态
以下是 AI 的一些最新动态: 《2024 年度 AI 十大趋势报告》发布,其中包括大模型创新,架构优化加速涌现,融合迭代大势所趋;Scaling Law 泛化,推理能力成皇冠明珠,倒逼计算和数据变革;AGI 探索,视频生成点燃世界模型,空间智能统⼀虚拟和现实;AI 应用格局,第⼀轮洗牌结束,聚焦 20 赛道 5 大场景;AI 应用竞争,多领域竞速运营大于技术,AI 助手兵家必争;AI 应用增长,AI+X 赋能类产品大干快上,原生 AI 爆款难求;AI 产品趋势,多模态上马,Agent 席卷⼀切,高度个性化呼之欲出;AI 智变千行百业,左手变革生产力,右手重塑行业生态;AI 行业渗透率,数据基础决定初速度,用户需求成为加速度;AI 创投,投融资马太效应明显,国家队出手频率提升。 对于新手学习 AI,要持续学习和跟进,AI 是快速发展的领域,新的研究成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 《2024 年度 AI 十大趋势报告》从技术、产品、行业三个维度勾勒 AI 现状、展望未来走势。区别于其他智库和研究机构,量子位智库基于长期理解把握和深厚积淀,持续跟踪领域在产学研届的创新、洗牌、动态,结合对近百家初创公司、研究院、投资机构的深度交流。报告不仅深入剖析前沿科技如何迭代技术能力、重塑商业版图、引领产业升级,还敏锐洞察变革趋势,对未来路径进行前瞻性展望。该报告得到了产学研领域众多机构的支持。
2025-02-04
我怎么知道ai的最新发展动态
以下是了解 AI 最新发展动态的一些方法: 1. 持续学习和跟进:AI 是快速发展的领域,新的研究成果和技术不断涌现。您可以关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 2. 加入相关社群和组织:考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。 3. 阅读权威报告:例如《2024 年度 AI 十大趋势报告》,此类报告通常会从技术、产品、行业等多个维度呈现 AI 的现状和未来走势,深入剖析前沿科技如何迭代技术能力、重塑商业版图、引领产业升级,并对未来路径进行前瞻性展望。 4. 关注权威媒体和学者:关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展,思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。
2025-01-29
deepseek的论文里面讲的混合专家模型怎么理解
混合专家(MoE)模型是一种在深度学习中提升计算效率的架构。以 DeepSeek 为例,其最新模型 V3 与 R1 采用了这种架构。 在 DeepSeek 的 V3 模型中,引入了多头潜注意力(MLA),将 KV 缓存压缩至新低,从而提升了计算性能。R1 模型则通过强化学习激活推理能力,首次验证无需监督微调即可实现推理。 DeepSeek 的 2360 亿参数的 DeepSeekV2 是 60 位专家混合开源模型,在数学、编码和推理方面表现出色,具有 236B 参数,21B 在生成过程中被激活,在 MTBench 上表现优异,中文能力强且性价比高。 您可以通过以下链接获取更详细的介绍:https://xiaohu.ai/p/7468 、https://zhuanlan.zhihu.com/p/21208287743 。
2025-02-19
deepseek为什么在古诗词理解上这么弱智?
DeepSeek 在很多方面表现出色,并非像您认为的在古诗词理解上弱智。它具有以下优点: 1. 语气还原:能还原帝王的语气,相比其他模型输出更准确恰当,兼顾了古典文字和可读性。 2. 熟悉历史细节:可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原唐初的历史称谓,如“太极宫”“甘露殿”“掖庭局”“观音婢”“宫门鱼符”等,对“魏徵”等字词的使用也很讲究。 3. 输出具体且细节惊人:其输出充满具体而惊人的细节,行文的隐喻拿捏到位,如“狼毫蘸墨时发现指尖残留着未洗净的血痂”等句子,虽未直接写“愧疚与野心,挣扎与抱负”,但句句体现。
2025-02-18
如何理解Deepseek认知启发式的设计理念
DeepSeek 认知启发式的设计理念主要包括以下几个方面: 1. 将 Agent 封装成 Prompt,并将 Prompt 储存在文件中,以保证最低成本的人人可用,同时减轻调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,通过思考减轻 AI 味,增加可读性。 4. 参照大模型的 temperature 设计了阈值系统,但可能形式大于实质,后续可能根据反馈修改。 5. 用 XML 来进行更为规范的设定,而非 Lisp(有难度)和 Markdown(运行不太稳定)。 此外,DeepSeek 具有以下特点: AI 特性定位:支持多模态理解,包括文本/代码/数学公式混合输入;具备动态上下文,即对话式连续记忆(约 4K tokens 上下文窗口);具有任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 在提示词系统方面: 基础指令框架包括四要素模板、格式控制语法等。格式控制语法中,强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号中>表示关键要求,!表示禁止项。 进阶控制技巧包含思维链引导、知识库调用、多模态输出。思维链引导中有分步标记法和苏格拉底式追问;知识库调用中有领域限定指令和文献引用模式。 HiDeepSeek 是为解决使用 AI 工具时答案思考过程不可见的问题而设计的工具,其核心目标是让 AI 像人类交流时那样展示思考过程,在技术层面通过特别规则实现,例如要求 AI 思考像人类一样自然。它能帮助用户更好地理解和使用 AI,让 AI 成为更好的助手。
2025-02-11
扣子工作流上传图片并让AI理解图片内容
扣子工作流可以实现上传图片并让 AI 理解图片内容。具体步骤如下: 1. 上传输入图片:将本地图片转换为在线 OSS 存储的 URL,以便在平台中进行调用。 2. 理解图片信息,提取图片中的文本内容信息:通过封装的图片理解大模型和图片 OCR 等插件来实现。 3. 场景提示词优化/图像风格化处理。 4. 返回文本/图像结果。 在搭建工作流时,主要关注以下几个步骤: 1. 点击工作流后面的“➕”来添加一个工作流。 2. 点击创建工作流。 3. 给工作流起名字和描述,名字只能用字母、数字和下划线,描述清晰以便区分。 4. 初始化的工作流:左边有各种可用的插件和搭建 Agent 的工具,可通过点击加号或直接拖拽使用。插件一般有对应的参数说明,初始化后会生成开始模块和结束模块,且只能以开始模块启动,结束模块终结工作流。 此外,扣子平台具有以下特点和功能: 1. 集成了丰富的插件工具,包括资讯阅读、旅游出行、效率办公、图片理解等 API 及多模态模型,支持内置插件和自定义插件。 2. 提供简单易用的知识库功能来管理和存储数据,支持多种格式的数据上传,包括文本格式、表格格式,也支持本地文件和在线网页内容及 API JSON 数据的上传。 3. 具有持久化的记忆能力,可记住用户对话的重要参数或内容。 4. 工作流功能灵活,可通过拖拉拽的方式搭建处理逻辑复杂且稳定性要求高的任务流。
2025-02-10
长文本理解能里较强的AI
以下是一些长文本理解能力较强的 AI 模型: 1. 智谱·AI 的 ChatGLM26B32k:这是第二代 ChatGLM 长上下文对话模型,在 ChatGLM26B 的基础上进一步强化了对于长文本的理解能力,能够更好地处理最多 32K 长度的上下文。在实际使用中,如果上下文长度基本在 8K 以内,推荐使用 ChatGLM26B;如果需要处理超过 8K 的上下文长度,推荐使用 ChatGLM26B32K。此外,还有 ChatGLM26B32kint4 版本,它是 ChatGLM26B32K 的 int4 版本。 2. 通义千问的 Qwen2.51M:推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT4omini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速。首次将开源 Qwen 模型的上下文扩展到 1M 长度。在上下文长度为 100 万 Tokens 的大海捞针任务中,Qwen2.51M 能够准确地从 1M 长度的文档中检索出隐藏信息。其开源平台包括 Huggingface(https://huggingface.co/spaces/Qwen/Qwen2.51MDemo)和 Modelscope(https://www.modelscope.cn/studios/Qwen/Qwen2.51MDemo)。
2025-02-09
从行业角度怎么理解AI行业
从行业角度理解 AI 行业可以从以下几个方面来看: 1. 领军人物与公司:以 OpenAI 及其掌舵人山姆·奥特曼为例,了解其为人处事态度和原则,以及宏伟构想,有助于洞悉 AI 行业的理念趋势。 2. 行业渗透率:AI 对各行业的渗透呈现出不同的生态位。如智能驾驶和具身智能行业对 AI 技术需求紧密且伴生性强,处于第一梯队;营销、游戏、影视和智能硬件行业处于第二梯队,通过 AI 技术实现生产降本增效和行业升级;教育和医疗基础行业处于第三梯队,在政策支持下积极拥抱 AI 技术,但对安全可控性有更高要求。行业的数据基础和用户需求是影响 AI 技术渗透和变革力的关键因素。 3. 创投情况:2024 年,AI 仍是最强吸金赛道。国内 AI 行业融资总金额增加,但事件数同比下降,马太效应明显,资本更青睐热点和高成熟度赛道。智能驾驶在各细分赛道中独占鳌头,AI+教育、AI+游戏、AI+医疗等赛道投资总额也有所增长。同时,政府积极推进 AI 原生行业发展,出台政策吸引人才和企业,国家队频繁出手投资体现政策支持。
2025-02-09
RAG最新进展
RAG(检索增强生成)是由 Lewis 等人于 2020 年中期提出的一种大语言模型领域的范式。 其发展经历了以下阶段: 1. 2017 年创始阶段,重点是通过预训练模型吸收额外知识以增强语言模型,主要集中在优化预训练方法。 2. 大型语言模型如 GPT 系列在自然语言处理方面取得显著成功,但在处理特定领域或高度专业化查询时存在局限性,易产生错误信息或“幻觉”,特别是在查询超出训练数据或需要最新信息时。 3. RAG 包括初始的检索步骤,查询外部数据源获取相关信息后再回答问题或生成文本,此过程为后续生成提供信息,确保回答基于检索证据,提高输出准确性和相关性。 4. 在推断阶段动态检索知识库信息能解决生成事实错误内容的问题,被迅速采用,成为完善聊天机器人能力和使大语言模型更适用于实际应用的关键技术。 RAG 在多个基准测试中表现出色,如在 Natural Questions、WebQuestions 和 CuratedTrec 等中表现抢眼。用 MSMARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、具体和多样,FEVER 事实验证使用后也有更好结果。基于检索器的方法越来越流行,常与 ChatGPT 等流行大语言模型结合使用提高能力和事实一致性,在 LangChain 文档中有相关使用例子。 同时,对增强生成检索的兴趣增长促使了嵌入模型质量的提高,传统 RAG 解决方案中的问题也得到解决。
2025-02-20
哪里可以学习最新AI
以下是一些学习最新 AI 的途径和建议: 1. 持续学习和跟进:AI 是快速发展的领域,新成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 2. 加入相关社群和组织:参加研讨会、工作坊和会议,与其他 AI 爱好者和专业人士交流。例如“通往 AGI 之路”这样的中文知识库和社区平台,它汇集了上千个人工智能网站和工具,提供最新的 AI 工具、应用、智能体和行业资讯,还有丰富的学习资源、实践活动,并倡导开放共享的知识体系。 3. 参考学习日记:如《雪梅 May 的 AI 学习日记》,其中提到适合纯 AI 小白的学习模式,即输入→模仿→自发创造。但需注意学习内容可能因 AI 发展而变化,可在相关社区发现自己感兴趣的领域,学习最新内容。 4. 利用免费开源资源:很多学习资源是免费开源的,充分利用这些资源进行学习。
2025-02-18
配置最新的ai
以下是关于配置最新 AI 的相关内容: 1. Yaki:GPT/MJ 接入微信 检查环境 安装 Python 安装 git 克隆项目代码 安装 pip 环境 更改名称 配置文件:在 FinalShell 窗口下找到 root/chatgptonwechat/config.json 文件打开进行配置。 OpenAI API 的基础 URL(如果调用的不是官方的 key,需要更改这部分的内容):"open_ai_api_base":"https://api.gptapi.us/v1" 使用的模型版本(如果想要使用其他模型,记得需要更改这里):"model":"gpt4" 启动命令 注:扫码登录是模拟电脑登录微信号,需要保持在线才会触发,如果切换退出等,那么服务器中的微信也会掉线。 更详细内容参考:https://github.com/zhayujie/chatgptonwechat/tree/master 2. python 安装 FittenAI 编程助手 安装 python 的运行环境: 安装步骤:点击左上角的 FileSettingsPluginsMarketplace 注册:安装完成后左侧会出现 Fitten Code 插件图标,注册登录后即可开始使用 智能补全:按下 Tab 键接受所有补全建议;按下 Ctrl+→键接收单个词补全建议 AI 问答:通过点击左上角工具栏中的 Fitten Code–开始新对话打开对话窗口进行对话 自动生成代码:Fitten Code 工具栏中选择"Fitten Code生成代码",然后在输入框中输入指令即可生成代码 代码转换:Fitten Code 可以实现代码的语义级翻译,并支持多种编程语言之间的互译。选中需要进行翻译的代码段,右键选择"Fitten Code–编辑代码",然后在输入框中输入需求即可完成转换 3. 张梦飞:【知识库】FastGPT+OneAPI+COW 带有知识库的机器人完整教程 环境配置: 复制代码时注意复制全,每次只粘贴一行,然后点击一次回车。 回车后,只有最左边显示中括号时,才是上一个命令执行完毕。 1、第一步:cd/root||exit 1 2、第二步:下方两行粘贴进入,然后点击回车,等待下载完成。(如果有卡点,进行不下去,可能是服务器网络问题,去拉取时下载不全,可以复制网址,手动去下载到电脑上。然后进入文件夹,找到 root 文件夹,把下载的文件上传进去。) 2.2、再粘贴下方代码,出现下图,就代表在执行中了。 3、然后把下边这行粘贴进去,点击回车。rm f Anaconda32021.05Linuxx86_64.sh 4、继续粘贴:/root/anaconda/bin/conda create y name AI python=3.8 5、继续,一行一行依次粘贴,依次回车:echo 'source /root/anaconda/bin/activate AI' >> ~/.bashrc 6、执行完成后。刷新一下,重新进入终端,最左侧出现了(AI)的字符则配置完成。
2025-02-16