Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

什么是多模态模型?

Answer

多模态模型是指能够处理和融合多种不同模态信息(如视觉、语言、音频等)的模型。

以下为一些常见的多模态模型示例:

  • 智谱·AI 推出的具有视觉和语言双模态的模型:
    • CogAgent-18B:基于 CogVLM-17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 1120*1120 分辨率的图像理解,在 CogVLM 功能的基础上,具备 GUI 图像的 Agent 能力。代码链接:CogVLM&CogAgent,模型下载:Huggingface魔搭社区Swanhub
    • CogVLM-17B:强大的开源视觉语言模型(VLM),基于对视觉和语言信息之间融合的理解,在多模态权威学术榜单上综合成绩优异。代码链接:Huggingface,模型下载:魔搭社区
    • Visualglm-6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM-6B,具有 62 亿参数;图像部分通过训练 BLIP2-Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。代码链接:VisuaGLM,模型下载:Huggingface魔搭社区
    • RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。代码链接:RDM

Google 的人工智能多模态大模型叫 Gemini,它是 Google DeepMind 团队开发的,不仅支持文本、图片等提示,还支持视频、音频和代码提示。能够理解和处理几乎任何输入,结合不同类型的信息,并生成几乎任何输出。被称为 Google 迄今为止最强大、最全面的模型,被描述为一种“原生多模态大模型”,从设计之初就支持多模态,能够处理语言、视觉、听觉等不同形式的数据。但请注意,以上内容由 AI 大模型生成,请仔细甄别。

Content generated by AI large model, please carefully verify (powered by aily)

References

智谱·AI 开源模型列表

,我们推出了具有视觉和语言双模态的模型。|模型|介绍|代码链接|模型下载||-|-|-|-||CogAgent-18B|基于CogVLM-17B改进的开源视觉语言模型。CogAgent-18B拥有110亿视觉参数和70亿语言参数,支持1120*1120分辨率的图像理解,在CogVLM功能的基础上,具备GUI图像的Agent能力。|[CogVLM&CogAgent](https://github.com/THUDM/CogVLM)|[Huggingface](https://huggingface.co/THUDM/CogVLM)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/cogagent-chat/summary)|[Swanhub](https://swanhub.co/ZhipuAI/cogagent-chat-hf)|始智社区||CogVLM-17B|强大的开源视觉语言模型(VLM)。基于对视觉和语言信息之间融合的理解,CogVLM可以在不牺牲任何NLP任务性能的情况下,实现视觉语言特征的深度融合。我们训练的CogVLM-17B是目前多模态权威学术榜单上综合成绩第一的模型,在14个数据集上取得了state-of-the-art或者第二名的成绩。||[Huggingface](https://huggingface.co/THUDM/cogvlm-chat-hf)|[魔搭社区](https://modelscope.cn/models/AI-ModelScope/cogvlm-chat/summary)||Visualglm-6B|VisualGLM-6B是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于[ChatGLM-6B](https://github.com/THUDM/ChatGLM-6B),具有62亿参数;图像部分通过训练[BLIP2-Qformer](https://arxiv.org/abs/2301.12597)构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。|[VisuaGLM](https://github.com/THUDM/VisualGLM-6B)|[Huggingface](https://huggingface.co/THUDM/visualglm-6b)|[魔搭社区](https://modelscope.cn/models/ZhipuAI/visualglm-6b/summary)|

智谱·AI 开源模型列表

,我们推出了具有视觉和语言双模态的模型。|模型|介绍|代码链接|模型下载||-|-|-|-||RDM|Relay Diffusion Model:级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。|[RDM](https://github.com/THUDM/RelayDiffusion)||

问:Google 的多模态大模型叫什么?

Google的人工智能多模态大模型叫Gemini。具体介绍如下:-Gemini是Google DeepMind团队开发的多模态模型,不仅支持文本、图片等提示,还支持视频、音频和代码提示。-Gemini能够理解和处理几乎任何输入,结合不同类型的信息,并生成几乎任何输出。-Gemini被称为Google迄今为止最强大、最全面的模型。-Gemini被描述为一种"原生多模态大模型",从设计之初就支持多模态,能够处理语言、视觉、听觉等不同形式的数据。内容由AI大模型生成,请仔细甄别

Others are asking
多模态大模型与图像、视频生成
多模态大模型与图像、视频生成相关知识如下: 多模态大模型的架构和原理:基于大圆模型,能识别页面组件结构和位置绝对值信息,并与组件、文本映射。由解码器、backbone、Generator 等部件组成,左侧多模态理解,右侧生成输出。 Stable Diffusion 模型原理:是生成模型,通过加噪和去噪实现图像的正向扩散和反向还原,解决潜在空间模型中的速度问题。其应用场景包括带货商品图生成、模特服装展示、海报生成、装修设计等。 吉梦 AI 和吐司平台的使用体验:吉梦 AI 提供 AI 视频生成等能力,通过简单提示词生成图像,对数字体有专项场景训练;吐司是类似的在线生成平台,具备多种 AI 能力,有模型、在线训练、上传模型工作流等功能,可通过输入提示词生成图片。 模型训练:训练模型需要大量图像数据和标签化处理。 AI 视频生成原理:主要基于 Sara 的整体架构,采用 diffusion Transformer 架构,以扩散模型通过随机造点、加噪和去噪得到连续图像帧,输入视频可看成若干帧图片,经处理后生成视频。 模态生成器 MG_X 一般用于生成不同的模态来输出。当前的工作一般使用现成的扩大模型(Latent diffusion model),例如 Stable Diffusion 用于图像生成,Zeroscope 用于视频生成,AudioLDM2 用于音频生成。 多模态模型的技术架构:如果模型既支持 3D 生成,又支持视频生成,就可以实现图文编辑以及具有强一致性的视频生成。Open AI 可能会尝试把图片、视频、3D 变为一个自然空间。Transformer 架构的多模态模型给机器提供了像人类一样与世界互动的新机会,杨立昆(Yann LeCun)提出的世界模型可能是近一年值得关注的研究点。
2025-01-07
多模态大模型与图像、视频生成
多模态大模型与图像、视频生成相关知识如下: 多模态大模型的架构和原理:基于大圆模型,能识别页面组件结构和位置绝对值信息,并与组件、文本映射。由解码器、backbone、Generator 等部件组成,左侧多模态理解,右侧生成输出。 Stable Diffusion 模型原理:是生成模型,通过加噪和去噪实现图像的正向扩散和反向还原,解决潜在空间模型中的速度问题。其应用场景包括带货商品图生成、模特服装展示、海报生成、装修设计等。 吉梦 AI 和吐司平台的使用体验:吉梦 AI 提供 AI 视频生成等能力,通过简单提示词生成图像,对数字体有专项场景训练;吐司是类似的在线生成平台,具备多种 AI 能力,有模型、在线训练、上传模型工作流等功能,可通过输入提示词生成图片。 模型训练:训练模型需要大量图像数据和标签化处理。 AI 视频生成原理:主要基于 Sara 的整体架构,采用 diffusion Transformer 架构,以扩散模型通过随机造点、加噪和去噪得到连续图像帧,输入视频可看成若干帧图片,经处理后生成视频。 模态生成器 MG_X 一般用于生成不同的模态来输出。当前的工作一般使用现成的扩大模型(Latent diffusion model),例如 Stable Diffusion 用于图像生成,Zeroscope 用于视频生成,AudioLDM2 用于音频生成。 多模态模型的技术架构:如果模型既支持 3D 生成,又支持视频生成,就可以实现图文编辑以及具有强一致性的视频生成。Open AI 可能会尝试把图片、视频、3D 变为一个自然空间,Google 的 VideoPoet 已在这个方向上有尝试,但分辨率不够高。Transformer 架构的多模态模型给机器提供了像人类一样与世界互动的新机会,杨立昆(Yann LeCun)提出的世界模型可能是近一年值得关注的研究点。
2025-01-07
Video-LLaVA与多模态图像视频识别
以下是对 26 个多模态大模型的全面比较总结: 1. Flamingo:是一系列视觉语言(VL)模型,能处理交错的视觉数据和文本,并生成自由格式的文本作为输出。 2. BLIP2:引入资源效率更高的框架,包括用于弥补模态差距的轻量级 QFormer,能利用冻结的 LLM 进行零样本图像到文本的生成。 3. LLaVA:率先将 IT 技术应用到多模态(MM)领域,为解决数据稀缺问题,引入使用 ChatGPT/GPT4 创建的新型开源 MM 指令跟踪数据集及基准 LLaVABench。 4. MiniGPT4:提出简化方法,仅训练一个线性层即可将预训练的视觉编码器与 LLM 对齐,能复制 GPT4 展示的功能。 5. mPLUGOwl:提出新颖的 MMLLMs 模块化训练框架,结合视觉上下文,包含用于评估的 OwlEval 教学评估数据集。 6. XLLM:陈等人将其扩展到包括音频在内的各种模式,具有强大的可扩展性,利用 QFormer 的语言可迁移性成功应用于汉藏语境。 7. VideoChat:开创高效的以聊天为中心的 MMLLM 用于视频理解对话,为该领域未来研究制定标准,并为学术界和工业界提供协议。
2025-01-07
多模态模型与多模态问答
多模态模型与多模态问答相关内容如下: Gemini 模型在图像理解方面表现出色,在多个基准测试中处于领先地位。它在高级对象识别、细粒度转录、空间理解和多模态推理等任务中展现出强大性能,在 zeroshot QA 评估中优于其他模型,在学术基准测试中如 MathVista 和 InfographicVQA 有显著改进,在 MMMU 基准测试中取得最好分数。 智谱·AI 推出了具有视觉和语言双模态的模型,如 CogAgent18B、CogVLM17B 和 Visualglm6B。CogAgent18B 拥有 110 亿视觉参数和 70 亿语言参数,支持高分辨率图像理解,具备 GUI 图像的 Agent 能力。CogVLM17B 是多模态权威学术榜单上综合成绩第一的模型。VisualGLM6B 是支持图像、中文和英文的多模态对话语言模型。 Zhang 等人(2023)提出了一种多模态思维链提示方法,将文本和视觉融入到一个两阶段框架中,多模态 CoT 模型(1B)在 ScienceQA 基准测试中的表现优于 GPT3.5。
2025-01-07
什么是多模态模型
多模态模型是指能够处理和融合多种不同模态信息(如视觉、语言、音频等)的模型。 智谱·AI 推出了具有视觉和语言双模态的模型,例如: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,具备 GUI 图像的 Agent 能力。 CogVLM17B:强大的开源视觉语言模型(VLM),在多模态权威学术榜单上综合成绩优异,能实现视觉语言特征的深度融合。 Visualglm6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁。 RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。 Gemini 模型本身也是多模态的,展示了无缝结合跨模态能力,能从表格、图表或图形中提取信息和空间布局,具有强大的推理能力,在识别输入中的细微细节、在空间和时间上聚合上下文,以及在一系列视频帧和/或音频输入上应用这些能力方面表现出色。
2025-01-07
常用的多模态大模型
以下是一些常用的多模态大模型: 1. InstructBLIP:基于预训练的BLIP2模型进行训练,在MM IT期间仅更新QFormer。通过引入指令感知的视觉特征提取和相应的指令,能够提取灵活多样的特征。 2. PandaGPT:是一种开创性的通用模型,能够理解6种不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。 3. PaLIX:使用混合VL目标和单峰目标进行训练,包括前缀完成和屏蔽令牌完成。这种方法对于下游任务结果和在微调设置中实现帕累托前沿都是有效的。 4. VideoLLaMA:引入了多分支跨模式PT框架,使LLMs能够在与人类对话的同时处理给定视频的视觉和音频内容,使视觉与语言以及音频与语言保持一致。 5. 视频聊天GPT:专门为视频对话设计的模型,能够通过集成时空视觉表示来生成有关视频的讨论。 6. Shikra:Chen等人介绍了一种简单且统一的预训练MMLLM,专为参考对话(涉及图像中区域和对象的讨论的任务)而定制,展示了值得称赞的泛化能力,可以有效处理看不见的设置。 7. DLP:提出PFormer来预测理想提示,并在单模态句子数据集上进行训练,展示了单模态训练增强MM学习的可行性。 8. BuboGPT:通过学习共享语义空间构建,用于全面理解MM内容,探索不同模式之间的细粒度关系。 9. ChatSpot:引入了一种简单而有效的方法来微调MMLLM的精确引用指令,促进细粒度的交互。 10. QwenVL:多语言MMLLM,支持英文和中文,还允许在训练阶段输入多个图像,提高其理解视觉上下文的能力。 11. NExTGPT:端到端、通用的anytoany MMLLM,支持图像、视频、音频、文本的自由输入输出,采用轻量级对齐策略。 12. MiniGPT5:集成了生成voken的反演以及与稳定扩散的集成,擅长为MM生成执行交错VL输出,在训练阶段加入无分类器指导可以提高生成质量。 13. Flamingo:代表了一系列视觉语言模型,旨在处理交错的视觉数据和文本,生成自由格式的文本作为输出。 14. BLIP2:引入了资源效率更高的框架,包括用于弥补模态差距的轻量级QFormer,实现对冻结LLMs的充分利用,利用LLMs可以使用自然语言提示进行零样本图像到文本的生成。 15. LLaVA:率先将IT技术应用到MM领域,引入了使用ChatGPT/GPT4创建的新型开源MM指令跟踪数据集以及MM指令跟踪基准LLaVABench。 16. MiniGPT4:提出了一种简化的方法,仅训练一个线性层即可将预训练的视觉编码器与LLM对齐,能够复制GPT4所展示的功能。 17. mPLUGOwl:提出了一种新颖的MMLLMs模块化训练框架,结合了视觉上下文,包含一个名为OwlEval的教学评估数据集。 18. XLLM:扩展到包括音频在内的各种模式,并表现出强大的可扩展性。利用QFormer的语言可迁移性,成功应用于汉藏语境。 19. VideoChat:开创了一种高效的以聊天为中心的MMLLM用于视频理解对话,为该领域的未来研究制定标准,并为学术界和工业界提供协议。
2025-01-06
大模型排名怎么查看
要查看大模型排名,您可以通过以下几种方式: 1. 查阅相关的科技新闻网站、学术论坛或关注人工智能领域的社交媒体平台,这些渠道通常会及时发布最新的排名和评价。 2. 在通往 AGI 之路的知识库里,在会定期更新相关的排名报告,可以供您查阅。 3. 例如,您可以访问聊天机器人竞技场网站,输入一些问题,根据两个模型的响应选择获胜者,通过这种方式根据胜率计算 ELO 分数来确定排名。越高越好。目前表现最好的模型多为专有模型,如 OpenAI 的 GPT 系列,以及 Anthropic 的 Claude 系列等。 4. 斯坦福发布的大模型排行榜 AlpacaEval 也可作为参考,其支持两种模式的模型评估方式: alpaca_eval:直接根据目标模型输出的响应来评估模型。 alpaca_eval evaluate_from_model:根据 HuggingFace 已注册模型或这 API 提供商来端到端评测模型。评测过程分为以下 3 步: 选择一个评估集,并计算指定为 model_outputs 的输出。默认情况下,使用来自 AlpacaEval 的 805 个示例。 计算 golden 输出 reference_outputs。默认情况下,在 AlpacaEval 上使用 textdavinci003 的输出。 通过 annotators_config 选择指定的自动标注器,它将根据 model_outputs 和 reference_outputs 计算胜率。这里建议使用 alpaca_eval_gpt4 或 claude。根据不同的标注器,使用者还需要在环境配置中设定 API_KEY。 需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-01-14
大模型评测
以下是关于大模型评测的相关信息: 招聘信息:有大模型算法工程师/产品经理(实习)岗位在北京,工作包括大模型效果评测,要求研究生及以上学历,相关专业优先,有相关实习经验、代码能力强等。 开源评测体系及平台: FlagEval(天秤):旨在建立科学、公正、开放的评测基准、方法、工具集,创新构建了“能力任务指标”三维评测框架。 CEval:构造了覆盖多学科的中文知识和推理型测试集,并给出主流中文 LLM 的评测结果。 SuperCLUElyb:中文通用大模型匿名对战评价基准,发布了初步结果和基于 Elo 评级系统的排行榜。 测评示例:小七姐对文心一言 4.0、智谱清言、KimiChat 进行小样本测评,包括测评机制、目标、能力考量和多轮测评任务,如复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等,每轮测评都有不同的任务和模型参与。
2025-01-14
目前来看 AI生图模型 哪个最好用
目前比较好用的 AI 生图模型有以下几种: 1. Artguru AI Art Generator:是一个在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计,能将上传的照片转换为芭比风格,效果很好。 此外,Leonardo 也是一款不错的 AI 生图模型: 支持用户上传自己 DIY 的模型,尤其是 Lora 模型,增强了应用的灵活性和个性化。 提供丰富的模型选择,包括官方精心微调过的模型和社区贡献的 Lora 模型。 能够生成高质量的图片,在细节精致程度和整体艺术效果上表现出色。 价格已变得更加合理,但存在访问限制的问题。 在选择平台时,目前市面上有线上和线下本地部署两种: 线上平台出图速度快,不依赖本地显卡配置,无需下载大型模型,能看其他创作者的作品,但出图分辨率有限,制作横板、高清图片会受限。 线下部署可自己添加插件,出图质量高,但使用时电脑基本宕机,配置不高可能出现爆显存导致出图失败。 可以充分发挥线上和线下平台的优势,线上用于找参考、测试模型,线下作为主要出图工具。先在线上绘图网站的绘图广场发现想要的画风,点击创作会自动匹配模型和标签,截取游戏人物底图将线上算力集中在人物身上,多尝试不同画风得出合适模型和组合,最后在 C 站下载对应模型到本地加载部署后正式生图。但这些模型仍存在一些局限,如偶尔性能不稳定、生成内容不当等问题。
2025-01-14
智能体(AI Agent)对比大模型在应用中的优势是什么
智能体(AI Agent)对比大模型在应用中的优势主要包括以下方面: 1. 能够回答私有领域问题,例如公司制度、人员信息等,而大模型存在无法回答此类问题的局限性。 2. 可以及时获取最新信息,如实时天气、比赛结果等,大模型在这方面有所不足。 3. 能准确回答专业问题,如复杂数学计算、图像生成等,大模型在这些方面表现欠佳。 4. 适用于多种客户场景,如有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务的场景,以及缺少技术人员开发大模型问答应用的情况。 5. 基于大模型,通过集成特定的外部能力,弥补大模型的不足。例如集成实时信息获取、回答私有领域问题等外部能力。 6. 典型场景丰富,包括私有领域知识问答、个性化聊天机器人、智能助手等。如私有领域知识问答,只需准备好相关知识库文件,就可在百炼控制台快速创建应用;个性化聊天机器人可通过长期记忆保存关键历史对话信息,并集成夸克搜索和图像生成等插件扩展功能;智能助手可引入 RAG 能力、长期记忆和自定义插件等功能提升工作效率。 在基准测评方面,AI Agent 智能体正在最大程度释放 LLM 潜能,逐渐成为通向 AGI 的技术共识。现有关于 Agent 能力的测评,主要在英文场景或任务,目前还没有一个在中文任务和场景上针对中文大模型的全面测评。通过测评结果发现,在 Agent 核心基础能力上,国内模型已经较为接近或部分超过 GPT3.5 水平。 从原理上看,智能体中间的“智能体”就是 LLM 或大模型,通过为其增加工具、记忆、行动、规划四个能力来实现。行业里主要用到的是 langchain 框架,它把 LLM 之间以及 LLM 和工具之间通过代码或 prompt 的形式进行串接,在 prompt 层和工具层完成主要的设计逻辑。
2025-01-13
生成 3D 模型
以下是关于生成 3D 模型的相关信息: Rodin Gen 1: 输入文本后会文生图,不满意可重复生成图片。 图片满意后点击 GENERATING 生成 3D,很快获得一个快速生成的粗模。 右上可选择是否对称、是锋利边缘还是光滑边缘,是否简单几何模式。 选择后查看模型是否满意,不满意可 redo,满意后选择 confirm 进行下一步,这里可以先选择产出的面数(开始扣积分)。 下一步生成材质,可选材质的复杂度以及参考图片的影响。 生成后在左边查看,满意点击 confirm。 左侧预览区可以选择多种形式查看。 模型基本完成后,可以选择对应的格式规格下载,压缩包里会有 obj 格式和 PBR 材质,也可以发布到 sketchfab。 Tripo AI: 文生 3D 模型:在「Create」界面底部输入框输入提示词(不支持中文),不会写提示词可点击输入框左侧的</>按钮随机生成并自动填入。填写好后点击右侧「Create」生成 3D 模型,每次生成 4 个基础模型,不满意可点击「Retry」重新生成,有满意的模型点击单个模型下方黄色的「Refine」精修,在「My Models」中查看精修进度,一般 5 分钟左右完成。 图生 3D 模型:点击输入框右侧的图标上传图片生成 3D 模型,一次生成一个基础模型,支持Retry 重生成和 Refine 精修。 工具汇总: xiaohu.ai 相关 3D 信息: MakeACharacter:一键生成 3D 数字人,可自定义面部特征,基于真实人类扫描数据,使用 Unreal Engine 渲染,支持中英文提示,兼容多个行业应用。 Rodin Gen1:拥有 1.5B 参数,可实现 3Dto3D 生成,生成 3D 模型及物理基础渲染材质,支持 3D LoRA 技术。 Skybox AI 0.9 版本更新:可以从文本提示或草图生成 360 度 3D 世界,使用 NeRF 技术,增强图像的空间深度和真实感,提供不同分辨率的 3D 网格下载。 扫描物体生成 3D 模型:使用 APP 扫描物体,完成 3D 全貌捕获,创建 AR QR 码,展示物体于任何地点,苹果新品官网展示中应用此技术。
2025-01-13
什么是AI大模型
AI 大模型是一个复杂的体系,具有以下特点和组成部分: 1. 整体架构: 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 数据层:包括静态的知识库和动态的三方数据集,是企业根据自身特性维护的垂域数据。 模型层:包含 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)或多模态模型(如文生图、图生图等模型,训练数据为图文或声音等多模态数据集)。 平台层:如大模型的评测体系或 langchain 平台等,是模型与应用之间的组成部分。 表现层:即应用层,是用户实际看到的地方。 2. 运作原理:以 LLm 为例,大模型在回复时是一个字一个字地推理生成内容,类似于输入法的输入联想逻辑。但存在计算量和干扰信息的问题,词向量机制和 transformer 模型中的 attention 自注意力机制解决了这些难题。 3. 带来的变革:大模型与当下智能语音技能的 NLU 存在本质差别。NLU 是通过规则、分词策略等训练而成,运作逻辑可观测,具有 ifelse 式逻辑性;大模型凭借海量数据在向量空间中学习知识的关联性,运作逻辑难以观测,脱离了 ifelse 层面。此次 AI 变革量级可能与移动互联网同级,甚至可能达到蒸汽机出现的级别。
2025-01-13