Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

常见GPU卡介绍与比较

Answer

以下是常见 GPU 卡的介绍与比较:

在 AI 基础设施的考虑因素中,比较 GPU 时需要关注以下几个方面:

训练与推理:

  • 训练 Transformer 模型除了模型权重外,还需要存储 8 字节的数据用于训练。内存 12GB 的典型高端消费级 GPU 几乎无法用于训练 40 亿参数的模型。
  • 训练大型模型通常在机器集群上完成,最好是每台服务器有多个 GPU、大量 VRAM 以及服务器之间的高带宽连接。
  • 许多模型在 NVIDIA H100 上最具成本效益,但截至目前很难找到在 NVIDIA H100 上运行的模型,且通常需要一年以上的长期合作承诺。如今,更多选择在 NVIDIA A100 上运行大多数模型训练,但对于大型集群,仍需要长期承诺。

内存要求:

  • 大型 LLM 的参数数量太多,任何卡都无法容纳,需要分布到多个卡中。
  • 即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10、A40、A4000、A5000 和 A6000,甚至 RTX 卡。

硬件支持:

  • 虽然绝大多数工作负载都在 NVIDIA 上运行,但也有一些公司开始尝试其他供应商,如谷歌 TPU、英特尔的 Gaudi2。
  • 这些供应商面临的挑战是,模型的性能往往高度依赖于芯片的软件优化是否可用,可能需要执行 PoC 才能了解性能。

延迟要求:

  • 对延迟不太敏感的工作负载(如批处理数据处理或不需要交互式 UI 响应的应用程序)可以使用功能较弱的 GPU,能将计算成本降低多达 3 - 4 倍。
  • 面向用户的应用程序通常需要高端 GPU 卡来提供引人入胜的实时用户体验,优化模型是必要的,以使成本降低到可管理的范围。

峰值:

  • 生成式 AI 公司的需求经常急剧上升,新产品一经发布,请求量每天增加 10 倍,或者每周持续增长 50%的情况并不罕见。
  • 在低端 GPU 上处理这些峰值通常更容易,因为更多的计算节点可能随时可用。如果这种流量来自于参与度较低或留存率较低的用户,那么以牺牲性能为代价使用较低成本的资源也是有意义的。

此外,算力可以直接转化成 GPU,电脑里的显卡就是 GPU。一张显卡除了 GPU 外,显存也是很重要的参数。GPU 的生产商主要有 NVIDIA 和 ATI。GPU 作为一种专门在个人电脑、工作站、游戏机和一些移动设备上做图像和图形相关运算工作的微处理器,其诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作。

Content generated by AI large model, please carefully verify (powered by aily)

References

惊人算力成本背后,AI混战下如何选择基础设施?

在其他条件相同的情况下,顶级GPU在几乎所有工作负载上都会表现最佳。然而,正如下表所示,最好的硬件也要昂贵得多。根据具体应用选择合适的GPU可以大大降低成本,也可能使你的商业模式从不可行变为可行。决定要往下走多远——也就是说,确定对你的应用来说最具成本效益的GPU选择——主要是一个技术决策,超出了本文的讨论范围。但我们将在下面分享一些我们认为最重要的选择标准:[heading3]训练与推理:[content]正如我们在上文第一节看到的,训练Transformer模型除了模型权重外,还需要存储8字节的数据用于训练。这意味一个内存12GB的典型高端消费级GPU几乎无法用于训练40亿参数的模型。实际上,训练大型模型是在机器集群上完成的,最好是每台服务器有多个GPU、大量VRAM以及服务器之间的高带宽连接(即使用顶级数据中心GPU构建的集群)。具体来说,许多模型在NVIDIA H100上最具成本效益,但截至今天很难找到在NVIDIA H100上运行的模型,而且通常需要一年以上的长期合作承诺。如今,更多的选择是在NVIDIA A100上运行大多数模型训练,但对于大型集群,仍需要长期承诺。[heading3]内存要求:[content]大型LLM的参数数量太多,任何卡都无法容纳。它们需要分布到多个卡中,并且需要类似于训练的设置。换句话说,即使进行LLM推理,您也可能需要H100或A100。但是较小的模型(例如Stable Diffusion)需要的VRAM要少得多。虽然A100仍然很受欢迎,但我们已经看到初创公司使用A10,A40,A4000,A5000和A6000,甚至RTX卡。

惊人算力成本背后,AI混战下如何选择基础设施?

虽然我们采访过的公司的绝大多数工作负载都在NVIDIA上运行,但也有一些开始尝试其他供应商。最常见的是谷歌TPU,英特尔的Gaudi2似乎也有一些吸引力。这些供应商面临的挑战是,模型的性能往往高度依赖于这些芯片的软件优化是否可用。你可能需要执行PoC才能了解性能。[heading3]延迟要求:[content]一般来说,对延迟不太敏感的工作负载(例如,批处理数据处理或不需要交互式UI响应的应用程序)可以使用功能较弱的GPU。这可以将计算成本降低多达3-4倍(例如,在AWS上将A100与A10进行比较)。另一方面,面向用户的应用程序通常需要高端GPU卡来提供引人入胜的实时用户体验。优化模型是必要的,以使成本降低到可管理的范围。[heading3]峰值:[content]AI技术是如此新颖和令人兴奋,生成式AI公司的需求经常急剧上升,新产品一经发布,请求量每天增加10倍,或者每周持续增长50%,这种情况并不罕见。在低端GPU上处理这些峰值通常更容易,因为更多的计算节点可能随时可用。如果这种流量来自于参与度较低或留存率较低的用户,那么以牺牲性能为代价使用较低成本的资源也是有意义的。

你看我这算力如何?(硬件篇)

作者:小鱼干了发布时间:2023-06-30 21:58原文地址:https://mp.weixin.qq.com/s/FTYC4O58xihe6U06B_7x7w微信扫一扫关注该公众号[heading1]算力是什么?[content]算力的字面意思就是计算能力(Computing Power),是随着区块链,AI等概念被反复提及,其实没什么特别的,可以直接转化成GPU就是算力,电脑里的显卡就是GPU,那么算力=显卡可以这样粗暴的理解。哪怕你购买云服务,也是服务商买显卡“租”给你用的意思。而一张显卡除了GPU外,还有一个很重要的参数是显存。GPU:图形处理器(Graphics Processing Unit)又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。CPU:中央处理器(Central Processing Unit)作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。显存:也被叫做帧缓存,它的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。如同计算机的内存一样,显存是用来存储要处理的图形信息的部件。GPU的诞生源自对CPU的减负,使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L技术可以说是GPU的标志。GPU的生产商主要有NVIDIA和ATI。

Others are asking
ai为何使用GPU而不是CPU
AI 使用 GPU 而不是 CPU 主要有以下原因: 1. 强大的计算能力:GPU 在并行处理大量数据方面具有显著优势。例如,同年《Largescale Deep Unsupervised Learning using Graphics Processors》这篇论文指出,利用 GPU 比 CPU 快 70 倍,能将数周的工作压缩到几天甚至一天完成。 2. 适应深度学习需求:大型神经网络、输入的多个变量以及有效的反向传播 GPU 实现等方面,GPU 表现出色。如 MNIST 数据库能达到令人惊叹的 0.35%错误率。 3. 处理图形相关运算:GPU 原本就是为处理图像和图形相关运算工作而设计,其采用的核心技术如硬件 T&L 等,适合 AI 中的图形处理任务。 4. 分担 CPU 工作:GPU 的诞生源自对 CPU 的减负,使显卡减少对 CPU 的依赖,并进行部分原本 CPU 的工作。 5. 算力优势:算力可以直接转化为 GPU,一张显卡中的 GPU 是计算能力的关键。 6. 适应 AI 模型需求:当今所有 AI 模型都在使用大量专用芯片的 GPU 卡上运行。例如 NVIDIA A100 GPU 有 512 个“张量核心”,能大幅提高计算效率。但实际应用中,也存在一些限制,如数据传输、内存容量和优化方法等问题。
2025-02-14
comfyui的本地部署安装,GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G*2
以下是关于 ComfyUI 本地部署安装的相关信息: ComfyUI 相比 WebUI,配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。如果电脑能顺畅清晰地玩 3A 游戏,那玩 webui 和 ComfyUI 也没问题。配置上不封顶,根据自己的需求和预算来即可。 安装地址:https://github.com/comfyanonymous/ComfyUI 。可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 节点存放目录:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComFYUI_windows_portable\\ComfyUI\\models\\vae 。 已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 您的电脑配置为 GPU:RX6600 8G,CPU:R5 5600,内存:DDR4 8G2,可能需要注意内存方面可能不太满足推荐配置,可能会影响运行效果。
2025-02-13
RuntimeError: All input tensors need to be on the same GPU, but found some tensors to not be on a GPU
以下是对您所遇到的报错“RuntimeError: All input tensors need to be on the same GPU, but found some tensors to not be on a GPU”的一些可能的解决方案: 1. 检查您的代码和模型设置,确保所有输入张量都被正确地分配到同一个 GPU 上。 2. 对于与显存相关的问题,如爆显存的情况,在训练时可以尝试调小批量大小,在推理时可以使用强制切片。 3. 调大虚拟内存,可能有助于解决一些与内存相关的报错。 同时,在处理与 AI 相关的报错时,还可能会遇到其他类似的问题,例如: 1. 页面文件太小,无法完成操作。解决方法是增大系统虚拟内存大小。 2. 出现“torch.cuda.OutOfMemoryError: CUDA out of memory”报错,通常是爆显存了。 3. 遇到“DataLoader workerexited unexpectedly”报错,可把虚拟内存再调大一点。 4. “CUDA error: CUBLAS_STATUS_NOT_INITIALIZED when calling 'cublasCreate'”报错,一般也是爆显存。 5. “'HParams' object has no attribute 'xxx'”报错,可能是无法找到音色,一般是配置文件和模型没对应,打开配置文件拉到最下面查看是否有训练的音色。 6. “The expand size of the tensor at nonsingleton dimension 0”报错,可把 dataset/44k 下的内容全部删除,重新走一遍预处理流程。 7. “Given groups=1, weight of size to have 256 channels, but got 768 channels instead”报错,可能是 vec256 的模型用了 vec768 的配置文件,反之亦然,请参考旧模型兼容,确认配置文件和模型维度对应。 8. “配置文件中的编码器与模型维度不匹配”报错,可能是在修改配置文件中的“speech_encoder”时修改错了,检查配置文件中的“ssl_dim”一项,如果这项是 256,那您需要确认配置文件和模型维度的对应关系。
2025-01-17
常见GPU卡介绍与比较
以下是常见 GPU 卡的介绍与比较: 在选择 GPU 作为 AI 基础设施时,需要考虑多个因素: 训练与推理方面:训练大型 Transformer 模型通常需要在机器集群上完成,最好是每台服务器有多个 GPU、大量 VRAM 以及服务器之间的高带宽连接。许多模型在 NVIDIA H100 上最具成本效益,但获取较难且通常需要长期合作承诺。如今,NVIDIA A100 常用于大多数模型训练。对于大型语言模型(LLM)的推理,可能需要 H100 或 A100,而较小的模型如 Stable Diffusion 则对 VRAM 需求较少,初创公司也会使用 A10、A40、A4000、A5000 和 A6000 甚至 RTX 卡。 内存要求方面:大型 LLM 的参数数量众多,无法由单张卡容纳,需要分布到多个卡中。 硬件支持方面:虽然绝大多数工作负载在 NVIDIA 上运行,但也有公司开始尝试其他供应商,如谷歌 TPU 和英特尔的 Gaudi2,但这些供应商面临的挑战是模型性能高度依赖软件优化。 延迟要求方面:对延迟不太敏感的工作负载可使用功能较弱的 GPU 以降低计算成本,而面向用户的应用程序通常需要高端 GPU 卡来提供实时用户体验。 峰值方面:生成式 AI 公司的需求经常急剧上升,在低端 GPU 上处理峰值通常更容易,若流量来自参与度或留存率较低的用户,以牺牲性能为代价使用较低成本资源也有意义。 此外,算力可以理解为计算能力,在电脑中可直接转化为 GPU,显卡就是 GPU,除了 GPU 外,显存也是重要参数。GPU 是一种专门做图像和图形相关运算工作的微处理器,其诞生是为了给 CPU 减负,生产商主要有 NVIDIA 和 ATI。
2025-01-06
GPU的计算特性
GPU(图形处理器)具有以下计算特性: 1. 专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。 2. 诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作,尤其是在 3D 图形处理时。 3. 所采用的核心技术有硬件 T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素 256 位渲染引擎等,硬件 T&L 技术可以说是 GPU 的标志。 4. 生产商主要有 NVIDIA 和 ATI。 5. 在矩阵乘法方面表现出色,早期使用游戏用的 GPU 能使运算速度提高 30 倍。 6. 随着 AI 领域的发展而不断发展,例如在训练神经网络方面发挥重要作用。
2025-01-06
GPU的计算特性
GPU(图形处理器)具有以下计算特性: 1. 专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。 2. 诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作,尤其是在 3D 图形处理时。 3. 所采用的核心技术有硬件 T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素 256 位渲染引擎等,硬件 T&L 技术可以说是 GPU 的标志。 4. 生产商主要有 NVIDIA 和 ATI。 5. 在矩阵乘法方面表现出色,早期使用 GPU 训练神经网络,能使运算速度提高 30 倍。
2025-01-06
大模型就是指大语言模型吗?有哪些常见的非语言类大模型和小模型,两者的区别和联系是什么?
大模型并非仅指大语言模型。大型模型主要分为两类:一是大型语言模型,专注于处理和生成文本信息;二是大型多模态模型,能够处理包括文本、图片、音频等多种类型的信息。 大型多模态模型与大型语言模型存在以下区别: 1. 处理的信息类型不同:大型语言模型专注于文本信息,而大型多模态模型能处理多种信息类型。 2. 应用场景不同:大型语言模型主要用于自然语言处理任务,如文本翻译、生成、情感分析等;大型多模态模型可应用于图像识别与描述、视频分析、语音识别与生成等更广泛的领域。 3. 数据需求不同:大型语言模型主要依赖大量文本数据训练,大型多模态模型则需要多种类型数据。 当我们提到“小模型”时,是相对大型模型而言,规模较小。这些小模型通常是为完成特定任务而设计,比如最初用于图像分类,只能分辨是或不是某一个东西(如猫、狗)。 “小模型”在特定任务上表现出色,但“大模型”像多功能基础平台,能处理多种任务,应用范围广泛,拥有更多通识知识。 大模型并不拥有无限知识,其知识来源于训练过程中的有限数据,只能回答训练中见过或类似的问题,知识库不会自动更新,在某些特定或专业领域的知识可能不够全面。 大型语言模型的运作机制主要是通过大量数据训练学习语言结构和模式,然后根据输入生成相应文本,类似于词语接龙游戏,永远在猜测下一个字符将要生成什么。
2025-03-16
请起草一份小白学习AI辅助修图的入门到精通的教程,提供学习大纲,包括从基本玩法到高级卡bug玩法,常见红海赛道,常见问题,注意事项,常见误区,避坑指南等等
以下是为您提供的小白学习 AI 辅助修图从入门到精通的教程大纲: 一、基础知识与基本玩法 1. 了解 AI 辅助修图的概念和基本原理。 2. 熟悉常见的 AI 修图工具和软件。 二、常见问题与注意事项 1. 风格局限性:如全是二次元风格,缺少适合特定需求的风格。 2. 图像叙事性不足:画出来的多为美少女看镜头,缺乏叙事内容。 3. 素材局限性:已有素材单一,图生图可行性低,训练泛化性差。 三、常见误区与避坑指南 1. 避免盲目依赖初始的 Embedding、CKPT 等方法,不断尝试和改进。 2. 注意训练集中人物朝向固定等问题,采取相应处理措施,如镜像处理。 四、从入门到精通的进阶玩法 1. 掌握不同的训练方法,如 Lora 等,以获得更理想的效果。 2. 学会引导 AI 画出具有前景后景区分明显的图像,如制作引导图。 五、高级卡 bug 玩法 探索一些非常规但有效的技巧和方法,以突破常规限制,实现更出色的修图效果。但需注意,此部分玩法可能存在一定风险和不确定性。 六、常见红海赛道 分析当前 AI 辅助修图在不同领域的竞争激烈程度和应用热点。 在学习过程中,还需了解以下 AI 相关的技术原理和概念: 1. 生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习,监督学习有标签,无监督学习无标签,强化学习从反馈中学习。 深度学习参照人脑神经网络,神经网络可用于多种学习方式。 生成式 AI 可生成多种内容形式。 LLM 为大语言模型,不同模型有不同擅长的任务。 3. 技术里程碑:2017 年 6 月谷歌团队发表的《Attention is All You Need》提出了 Transformer 模型。
2025-03-05
请起草一份小白学习AI应用(包括app和网站)的入门到精通的教程,提供学习大纲,包括从基本玩法到高级卡bug玩法,常见红海赛道,常见问题,注意事项,常见误区,避坑指南等等
以下是一份小白学习 AI 应用(包括 app 和网站)的入门到精通的教程,涵盖学习大纲、常见问题等方面: 一、学习大纲 1. 了解 AI 基本概念 阅读相关资料,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(机器学习、深度学习、自然语言处理等)及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始 AI 学习之旅 参考「」中的初学者课程,了解生成式 AI 等基础知识,推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)按照自己的节奏学习,并争取获得证书。 3. 选择感兴趣的模块深入学习 AI 领域广泛,包括图像、音乐、视频等,根据自身兴趣选择特定模块深入学习。 掌握提示词技巧,因其上手容易且实用。 4. 实践和尝试 理论学习后进行实践,巩固知识,尝试使用各种产品创作作品。 分享实践后的经验和成果。 5. 体验 AI 产品 与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式,获得实际应用体验。 二、常见红海赛道 目前,AI 在自然语言处理、图像识别、智能推荐等领域竞争较为激烈。 三、常见问题 1. 对复杂应用的需求理解不准确,导致产品出错。 2. 技术组件的配置和整合可能遇到困难。 四、注意事项 1. 注重基础知识的学习,打牢根基。 2. 实践过程中要耐心,遇到问题多尝试解决。 五、常见误区 1. 认为 AI 学习短期内就能精通,忽略了长期积累和实践的重要性。 2. 过度依赖现成的模型和工具,缺乏对原理的深入理解。 六、避坑指南 1. 在选择学习资源时,要注意其权威性和适用性。 2. 开发 AI 应用时,要充分考虑用户需求和实际场景,避免盲目跟风。 希望以上内容对您有所帮助,祝您在 AI 学习的道路上取得成功!
2025-03-05
请起草一份小白学习AI视频制作的入门到精通的教程,提供学习大纲,包括从基本玩法到高级卡bug玩法,常见红海赛道,常见问题,注意事项,常见误区,避坑指南等等
以下是一份小白学习 AI 视频制作从入门到精通的教程大纲: 一、基础玩法 1. 项目规划 确定短片主题和目标观众。 制定详细的制作计划。 2. 剧本创作 编写故事脚本。 设计角色和场景以及创意。 3. 分镜头脚本 根据脚本制作分镜头脚本,确定每个镜头的画面和动作。 4. 资源准备 准备动画制作所需的素材,包括背景、角色和音效。 5. 画面图片制作 利用 AI 出图工具,比如通过 ChatGPT、MJ、SD 等工具快速生成高质量的图片。 6. 视频制作 利用 AI 工具制作动画,通过 RUNWAY、Luma、Dreamina 等平台快速生成高质量的动画。 7. 后期剪辑 添加音效、配音和字幕,进行最终的剪辑和合成。 8. 发布和推广 将完成的动画短片发布到各大平台,并进行推广和宣传。 二、高级玩法 1. 写提示词 掌握有效的提示词撰写技巧,以获得更符合需求的生成结果。 2. 导入图片用 Mini Max、模型的首尾帧玩法等操作实现一镜到底效果。 3. 利用不同模型进行创作,如海螺无限生成。 4. 反复修改提示词以优化生成效果。 三、常见红海赛道 1. 创意广告类视频。 2. 短视频故事类。 四、常见问题 1. 生成效果不符合预期。 2. 工具操作不熟练。 3. 资源获取困难。 五、注意事项 1. 注重版权问题,合法使用素材和工具。 2. 不断学习和更新知识,跟上 AI 技术发展。 六、常见误区 1. 过度依赖 AI,忽略自身创意和审美。 2. 忽视视频的逻辑性和连贯性。 七、避坑指南 1. 提前了解不同工具的收费模式,避免不必要的费用支出。 2. 多参考优秀案例,避免重复常见错误。 希望这份大纲能帮助您在 AI 视频制作的学习道路上不断进步!
2025-03-04
DeepSeek常见应用技巧
DeepSeek 常见应用技巧包括以下方面: 1. 高阶能力调用: 文风转换矩阵,如作家风格移植(用鲁迅杂文风格写职场 PUA 现象)、文体杂交(将产品说明书改写成《史记》列传格式)、学术口语化(把这篇论文摘要翻译成菜市场大妈能听懂的话)。 领域穿透技术,如行业黑话破解(解释 Web3 领域的“胖协议瘦应用”理论)。 2. 场景化实战策略: 商业决策支持。 创意内容生成。 技术方案论证。 3. 效能增强技巧: 对话记忆管理,包括上下文锚定(记住当前讨论的芯片型号是麒麟 9010)、信息回溯(请复述之前确认的三个设计原则)、焦点重置(回到最初讨论的供应链问题)。 输出质量控制,如针对过度抽象(请具体说明第三步操作中的温度控制参数)、信息过载(用电梯演讲格式重新组织结论)、风格偏移(回归商务报告语气,删除比喻修辞)等问题的修正指令。 4. 特殊场景解决方案: 长文本创作,如分段接力法(先完成故事大纲→逐章扩展→最后进行伏笔校验)、逻辑粘合剂(确保新章节与前文的三处细节呼应)。 敏感内容处理,如概念脱敏法(用经济学原理类比说明网络审查机制)、场景移植法(假设在火星殖民地讨论该议题)。 Deepseek 时代提示词的针对性技巧: 1. 身份定位技巧,目的是让 AI 理解您的背景和专业水平,例如差的表述:“帮我写一篇营销方案”,好的表述:“作为一名刚入职的电商运营,需要为天猫美妆店铺制定 618 活动方案”。 2. 场景描述技巧,目的是提供具体的应用场景和限制条件,例如差的表述:“写一篇新品发布文案”,好的表述:“为新上市的儿童智能手表写一篇朋友圈文案,目标用户是 2535 岁的年轻父母,预算 3000 以内,需强调安全定位功能”。 3. 结构化输出技巧,目的是指定具体的输出格式和内容结构,例如差的表述:“分析最近的新能源汽车销量数据”,好的表述:“请用表格对比 2024 年 Q1 特斯拉、比亚迪的销量数据,包含以下维度:月度销量、同比增长、市场份额,并在表格下方总结三个关键发现”。 4. 分步骤提问技巧,目的是将复杂问题拆解为可管理的小任务,例如差的表述:“怎么做短视频运营?”,好的表述:“请分三步指导新手做美食短视频:前期准备:需要哪些设备和技能 拍摄阶段:关键场景和机位选择 后期制作:剪辑节奏和音乐配合建议”。 5. 反馈优化技巧,目的是通过追问获得更精准的答案,例如第一轮:“帮我做一份产品分析报告”,追问 1:“内容太专业了,能用更通俗的语言解释吗?”,追问 2:“可以增加一些具体的用户案例来支撑观点吗?”。 6. 深度思考引导技巧,目的是获得更深入的分析和见解。 以下是一些用户使用 DeepSeek 的实际情况: 帮我脑爆活动方案(AJ 杭州)。 会议纪要给它出方案思考非常到位,稍加修改就可以呈现高质量的会议总结。 本地搭超级 AI 助手(陈星北京)。 DS+飞书批量处理客户评论(Lily 温州)。 分析总结复盘内容。 生成专业专用软件详细使用过程,非常正确(兰州)。 辰、李意儿用。 变现当然。 Candice 代码编写。 帮我写小说框架。 让 ds 给出拓展市场的梳理角度和咨询梳理。 写党员的用自我批评用古诗改简历(苏州)。 学长刚蝈。 探索外太空。 大创苏州 a 文案胡泽华改简历。 园子。 写文案。 Forget,之前用过 deepseek 分析过感情问题,补充了对于心理学的一些空缺,了解了更多。 Ecfa 苏州一晚三个营销方案,Deepseek 一晚,干了之前一个月的活。 Yvonne 写论文。 AI 中医+心理咨询师。 AI 育儿,生图 AI 撰写提示词辅食(北京,赵赵)。 帮我。 帮我生帮。 短视频脚本。当百度用。 写方案,做图。 用 a 帮我。 南京得一写小红书笔记,八字算命。 写周报用。 帮我做设计头脑风暴。 上海 BaoBig 粒。 Guigui 北京。 算命。 分析。 柯柯武汉做网站葉用。 投喂大量的 deepseek。
2025-03-01
有哪些在企业内部落地应用AI大模型工具的实践案例?不要营销文案生成、代码开发助手、智能客服问答机器人这种太常见的
以下是一些在企业内部落地应用 AI 大模型工具的实践案例: 1. 阿里云百炼: 智能体应用:能够弥补大模型的不足,如回答私有领域问题、获取实时信息、回答专业问题等。适用于有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务,以及缺少技术人员开发大模型问答应用的场景。典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供 UID 并通过白名单进行开启。 2. 达摩院: AI 模特(虚拟换装):支持虚拟换装、姿态编辑。 3. 电商零售: 推广文案写作:通过内置的多样化营销场景的文体模板,基于用户输入的创作主题以及参考素材,大模型即可为您生成对应的营销文案,为营销活动和宣传文案提供灵感和文案写作支持。 4. 泛企业: VOC 挖掘:是一个面向各类企业的 VOC 标签挖掘的工具。不论是用户的长短评论、帖子、还是用户和客服/销售的聊天记录、通话记录,都可以使用。通过选中或自定义标签,即可让大模型针对海量非结构化的 VOC 数据快速打标。相比于人工打标或规则打标准确率更高;对于业务标签变动频繁的情况,也能更敏捷、快速地影响。 5. 通义晓蜜:基于深度调优的对话大模型,为营销服类产品提供智能化升级所需的生成式摘要总结、质检、分析等能力应用。
2025-02-18
介绍下 ai切磋大会
AI 切磋大会是由 AI 社区“通往 AGI 之路”每月举办的切磋交流分享会。 11 月 9 日至 10 日在文三路数字生活街区举办的那次,更像是一场人人皆可参与的“市集”。此次大会由“大数据产业基地”发起,共有 106 个摊位,摊主都是 AI 爱好者,带来了非遗 AI 刮刮乐、AI 3D 打印、AI 视频转绘、AI 量化交易、AI 产品设计等贴近日常的“AI+”产品,让大家在互动中感受 AI 的魅力。现场还有基于通义千问开发的“航天小飞侠”AI 助理模型,以及根据 MBTI 和星座生成专属鸡尾酒配方并现场调制的 AI 调酒等新奇体验。 2 月 23 日举行的线下切磋大会以 Deepseek 为核心,进行交流分享、方法论提炼、脑暴等,活动形式多样,已开通 16 个城市报名。此外,还有写作活动、激梦 P 模型比赛成果展示、当代手势设计尝试、多工具组合创作等相关内容。 12 月 7 日举办的是校园版,由 WaytoAGI 和杭州云谷学校共同举办,杭州云谷学校准备举办第六届学术周,探讨 AI 在教育中的应用及未来发展方向。活动时间为 12 月 7 日下午 12:00 至晚宴结束,晚宴有烤全羊。被选中的摊主可免费参加,AI 摆摊仍在招募中。活动官网:https://ygaw.my.canvasite.cn/2024 ,报名链接:https://waytoagi.feishu.cn/share/base/form/shrcnoNPP9HMlIqiTMhbc64OMkJ?iframeFrom=docx&ccm_open=iframe
2025-03-30
mcp的介绍
模型上下文协议(MCP)是一种全新的开放协议,由 Anthropic 公司开发并开源。它旨在为大语言模型提供标准化的连接方式,使其能够更轻松地与外部工具和数据源集成。 MCP 就像为 AI 模型量身定制的“USBC 接口”或“转接头”“通用插座”,能统一不同的外部服务,如 Google Drive、GitHub、Slack、本地文件系统等。通过标准化接口与 AI 模型对接,开发者基于 MCP 规范开发一次“接口适配器”(MCP 服务器),就能让所有兼容 MCP 的模型(MCP 客户端)无缝接入,大幅提升兼容性与开发效率。 MCP 与传统 API 的关键区别在于: 1. 单一协议:MCP 像一个统一接口,一次整合就能连接多个服务。 2. 动态发现:AI 模型能自动识别并使用可用的工具,无需提前写死每个接口。 3. 双向通信:MCP 支持类似 WebSockets 的实时双向通信,模型不仅能查询数据,还能主动触发操作。 MCP 的好处包括: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 使用 MCP 而非传统 API 的原因通常是,传统 API 要求开发者为每个服务或数据源单独编写代码和整合方案,极大地增加了开发复杂度。而在某些应用场景,如需要精准且严格受控的交互方式、细粒度控制、功能严格限制、更偏好紧耦合以提升性能、希望最大化交互的可预测性时,传统 API 可能更合适。 快速集成 MCP 的步骤包括: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 总之,MCP 让 AI 与外部数据、工具的连接变得更加标准化和高效。
2025-03-27
介绍一下秘塔AI的基本情况和使用技巧
秘塔 AI 是一款优秀的工具,具有以下基本情况和使用技巧: 基本情况: 整体流程较长且完整,首先需要构建专题,并上传文档或者复制网页链接。 搜索完成后的操作类型丰富,例如可以继续追问、导出文档、收藏、保存到秘塔写作猫并编辑、生成在线演示文稿、下载脑图图片等,还能查看与原文的对应关系并进一步搜索。 RAG 和搜索能力出色,是国产之光。 使用技巧: 构建专题时,认真准备上传的文档或网页链接。 搜索时,在搜索框左下角选中专题以定制数据源。 充分利用丰富的搜索完成后的操作,满足不同需求,如追问、编辑、分享等。 您可以通过以下链接访问秘塔 AI 搜索:https://metaso.cn
2025-03-26
给我找一些介绍ai发展历史的文章。
以下是为您找到的关于 AI 发展历史的相关内容: 2022 年 11 月 30 日,OpenAI 发布基于 GPT 3.5 的 ChatGPT,自此开始,一股 AI 浪潮席卷全球,但 AI 并非近几年才出现。其起源最早可追溯到上世纪的 1943 年。 1943 年,心理学家麦卡洛克和数学家皮特斯提出机器的神经元模型,为后续的神经网络奠定基础。 1950 年,计算机先驱图灵最早提出图灵测试,作为判别机器是否具备智能的标准(即在一个对外不可见的房间内放置一台可以与外界沟通的机器,如果外界交互的人无法区分房间里到底是真人还是机器,那么我们就说房间里的机器具备了智能,通过了图灵测试)。 1956 年,在美国一个小镇的达特茅斯学院中,马文·明斯基和约翰·麦凯西拉着香农大佬站台背书,共同发起召开了著名的达特茅斯会议,在这次会议上,人工智能(Artificial Intelligence)一词被正式提出,并作为一门学科被确立下来。 此后接近 70 年的漫长时间里,AI 的发展起起落落,两次掀起人类对 AI 毁灭人类世界的恐慌,热度拉满,但又最终以“不过如此”冷却收场。 此外,知识库中还整理了 OpenAI 的发展时间线和万字长文回顾等历史脉络类资料。
2025-03-26
介绍把图片变清晰的软件,logo图片上的文字不清晰。
目前有一些可以将图片变清晰的软件,以下为您介绍几种常见的: 1. Adobe Photoshop:功能强大,通过图像增强、锐化等操作来提高图片清晰度。 2. Topaz Gigapixel AI:专门用于图像放大和增强清晰度。 3. Waifu2x:对动漫、插画类图片的清晰度提升效果较好。 您可以根据自己的需求和图片类型选择适合的软件来处理 logo 图片上不清晰的文字。
2025-03-25
介绍一下什么是stable diffusion
Stable Diffusion 是一种扩散模型的变体,最初称为潜在扩散模型(Latent Diffusion Models)。它是一个 AI 自动生成图片的软件,通过用户输入文字就能生成对应的图片。其核心组件包括将用户输入的 Prompt 文本转化成 text embedding 的 CLIP、VAE EncoderDecoder 以及进行迭代降噪并在文本引导下进行多轮预测的 UNET 等。 在硬件要求方面,建议使用不少于 16GB 内存,并有 60GB 以上的硬盘空间,需要用到 CUDA 架构,推荐使用 N 卡。目前也有对 A 卡的相关支持,但运算速度明显慢于 N 卡。在训练方面,不同模型有不同的训练要求,例如 SD1.5 训练要求 12G VARM,SDXL 训练要求 16G VARM。此外,还有诸如模型实例、融合模型、微调模型等相关内容。
2025-03-25
目前文字转视频,效果比较理想的工具有哪些?
目前文字转视频效果比较理想的工具包括: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:若熟悉 Stable Diffusion,可安装此最新插件,能在图片基础上直接生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需收费。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 更多的文生视频的网站可以查看这里: 此外,Sora v2 即将发布,支持 1 分钟视频生成,提供文本转视频、文本+参考图片转视频以及文本+视频转视频功能。Runway 还有 Act One 角色参考视频功能,能实现视频表演和声音的角色转移,支持通过拍摄视频驱动另一个视频,保持表情和口型同步。
2025-03-30
目前比较好用的编程辅助工具有哪些
以下是一些比较好用的编程辅助工具: 1. GitHub Copilot:由GitHub联合OpenAI和微软Azure团队推出,支持多种语言和IDE,能为程序员快速提供代码建议,帮助更快、更少地编写代码。 2. 通义灵码:阿里巴巴团队推出,基于通义大模型,提供行级/函数级实时续写、自然语言生成代码等多种能力。 3. CodeWhisperer:亚马逊AWS团队推出,由机器学习技术驱动,可为开发人员实时提供代码建议。 4. CodeGeeX:智谱AI推出的开源免费AI编程助手,基于130亿参数的预训练大模型,能快速生成代码提升开发效率。 5. Cody:代码搜索平台Sourcegraph推出,借助强大的代码语义索引和分析能力,了解开发者的整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的免费AI代码助手,基于自研的基础大模型微调的代码大模型。 7. Codeium:由AI驱动,通过提供代码建议、重构提示和代码解释帮助软件开发人员提高编程效率和准确性。 更多辅助编程AI产品,还可以查看这里:https://www.waytoagi.com/category/65 。每个工具的功能和适用场景可能不同,您可以根据自己的需求选择最适合的工具。 另外,Cursor也是一款好用的AI编程工具,它是一个现代化的集成开发环境,专为人工智能辅助编程而设计,具有AI辅助编码、代码自动补全、实时代码分析、多语言支持、集成终端、Git集成、自定义主题、跨平台、性能优化和实时协作等特点。您可以通过https://www.cursor.com/链接进入其产品主页下载。 在开发过程中,还可以利用AI辅助编程工具探索新的功能与技术,比如: 1. 更复杂的动画效果:实现宠物的动态行为,如当鼠标靠近宠物时做出躲避或好奇的动作,宠物在屏幕上随机游走,使用PyQt5的QGraphicsView和QGraphicsScene或引入外部动画资源实现更复杂的动画。 2. 智能交互功能:结合语音合成库让宠物通过语音提醒用户,使用自然语言处理库让宠物能够理解用户的语音指令。 3. 数据持久化与个性化:使用sqlite3或QSettings保存用户设置,添加用户账户系统。 4. 跨平台与云同步:确保程序在不同系统上正常运行并实现云同步功能。
2025-03-27
当前效果比较好的对口型,换脸,配音AI应用
以下是一些效果较好的对口型、换脸、配音的 AI 应用: Runway:网址为 https://runwayml.com ,有网页和 app 方便使用。工具教程: 即梦:网址为 https://dreamina.jianying.com/ ,是剪映旗下产品,生成 3 秒,动作幅度有很大升级,有最新 S 模型和 P 模型。工具教程: Minimax 海螺 AI:网址为 https://hailuoai.video/ ,非常听话,语义理解能力非常强。视频模型: Kling:网址为 kling.kuaishou.com ,支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。视频模型: Vidu:网址为 https://www.vidu.studio/ haiper:网址为 https://app.haiper.ai/ Pika:网址为 https://pika.art/ ,可控性强,可以对嘴型,可配音。工具教程: 智谱清影:网址为 https://chatglm.cn/video ,开源了,可以自己部署 cogvideo。工具教程: PixVerse:网址为 https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。工具教程: 通义万相:网址为 https://tongyi.aliyun.com/wanxiang/ ,大幅度运动很强。 luma:网址为 https://lumalabs.ai/ 即梦 AI 对口型的相关教程: 功能介绍:「对口型」是即梦 AI「视频生成」中的二次编辑功能,现支持中文、英文配音。目前主要针对写实/偏真实风格化人物的口型及配音生成,为用户的创作提供更多视听信息传达的能力。可上传包含完整人物面容的图片,进行视频生成,待视频生成完成后,点击预览视频下的「对口型」按钮,输入台词并选择音色,或上传配音文件进行对口型效果生成。目前支持语言:中文(全部音色),英文(推荐「超拟真」内的音色) 技巧:上传写实/近写实的人物单人图片,目前不支持多人物图片对口型;输入 prompt,选择参数,点击生成视频,尽量确保人物无形变等扭曲效果;确保人物生成的情绪与希望匹配的口型内容匹配;在生成的视频下方,点击【对口型】;输入或上传需要配音的内容,注意视频生成时长和配音试听时长尽量对齐,点击生成。先对口型,再超分补帧 关于 AI 短片的相关信息: AI 图片与视频生成的新能力与应用: 图片编辑功能:Midjourney 新增本地图片上传编辑入口,可进行局部重绘、扩图和风格转换等操作。 视频生成模型:解梦新出 p 模型和 s 模型,p 模型支持人物多动作和变焦,易改变画风;s 模型生成速度快、积分消耗少,能保持原始画风但语义理解有限。 特效玩法:皮卡和 Pixforce 有特效玩法,如人物爆炸、漂浮等,可用于优化视频效果。 视频转会:Runway 的 GN3 模型支持上传视频并转换风格,可用于实现多元宇宙等风格穿梭的片子,也能将简单场景转换为难以拍摄的场景。 视频生成中的角色生视频技术: 角色生视频突破关键帧限制:当前视频生成多依赖关键帧,而角色生视频不再是关键帧输入,而是直接传入角色本身,可更灵活生成视频,如让小男孩从左跑到右。 多角色参考生成创意视频:支持上传多张图,最多三张,可将人物、衣服、背景等元素融合生成视频,如小男孩穿裙子在宇宙飞。 角色对口型技术:如吉梦的对口型技术,支持文本朗诵和本地配音,能根据输入生成人物开口讲话的视频,但有上传人物长相等限制。 不同工具的角色生视频效果:对比了吉梦、Runway 等工具的角色生视频效果,如 Runway 的 x one 在身体、头部、眼神动态上表现更好。 角色生视频的应用场景:可用于规避机器人念台词的尴尬瞬间,让机器人有更丰富的表情和神态。 角色生视频的未来发展:未来视频生成将摆脱纯关键帧方式,采用多模态信息输入,如定义角色和场景的三视图等。
2025-03-25
MJ和runaway用什么软件代替比较好
以下是一些可以替代 MJ(Midjourney)和 Runway 的软件: Luma 发布的 DIT 视频生成模型 Dream Machine 图生视频表现惊艳,具有电影级效果。 出图工具方面,还有 SD(Stable Diffusion)和悠船。MJ 稳定性好、协作性强且有成熟经验参考,但并非所有人都拥有;SD 有独特能力但需本地部署且上手门槛高;悠船对中文支持好、交互友好简单易上手,但管控严格,有很多敏感词不能使用。 如果您想了解更多关于这些软件的详细信息或有其他特定需求,请进一步向我提问。
2025-03-24
现在比较好用的学术AI辅助工具有哪些?
以下是一些比较好用的学术 AI 辅助工具: 1. 文献管理和搜索: Zotero:结合 AI 技术,能自动提取文献信息,便于管理和整理参考文献。 Semantic Scholar:由 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,方便进行数据分析和可视化。 Knitro:用于数学建模和优化,助力复杂的数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 此外,在 AI 文章排版方面,以下工具可供选择: 1. Grammarly:不仅是语法和拼写检查工具,还提供排版功能,改进文档风格和流畅性。 2. QuillBot:AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 3. LaTeX:广泛用于学术论文排版,使用标记语言描述格式,有许多 AI 辅助的编辑器和插件。 4. PandaDoc:文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 5. Wordtune:AI 写作助手,重新表述和改进文本,使其更清晰专业。 6. Overleaf:在线 LaTeX 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 如果您的医学课题需要 AI 给出修改意见,可以考虑以下工具: 1. Scite.ai:为研究人员等打造的创新平台,提供引用声明搜索等工具,简化学术工作。 2. Scholarcy:能从文档提取结构化数据,生成文章概要,包含关键概念等板块内容。 3. ChatGPT:强大的自然语言处理模型,可提供修改意见和帮助。 使用这些工具时,应结合自身写作风格和需求,选择最合适的辅助工具。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-23
现在我想通过一段描述生成一段视频,那么我现在用哪一个?工具是最好的呢。我想说的是现在因为在国内访问不了国外的网站,那么国内有没有哪些应用比较功能强大的是视频生成工具。
以下是一些在国内可用且功能强大的视频生成工具: 1. VIGGLE:可以直接通过文字描述让任何静态图动起来,能做各种动作,如跳舞等。其核心技术基于 JST1 模型,能理解真实世界的物理运动原理,生成的视频很真实,还能直接文字生成视频,进行各种角色混合和动作替换。核心功能包括可控制的视频生成、基于物理的动画、3D 角色和场景创建。 2. Pika:非常出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 3. SVD:如果熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。 4. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要收费。 5. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 6. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 此外,还有以下根据视频脚本生成短视频的工具: 1. ChatGPT + 剪映:ChatGPT 生成视频小说脚本,剪映根据脚本自动分析出视频中需要的场景、角色、镜头等要素,并生成对应的素材和文本框架。 2. PixVerse AI:在线 AI 视频生成工具,支持将多模态输入(如图像、文本、音频)转化为视频。 3. Pictory:AI 视频生成器,允许用户轻松创建和编辑高质量视频,用户提供文本描述即可生成相应的视频内容。 4. VEED.IO:提供了 AI 图像生成器和 AI 脚本生成器,帮助用户从图像制作视频,并规划从开场到结尾的内容。 5. 艺映 AI:专注于人工智能视频领域,提供文生视频、图生视频、视频转漫等服务,用户可以根据文本脚本生成视频。 这些工具各有特点,适用于不同的应用场景和需求,您可以根据自己的具体情况进行选择。需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-03-23