Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

常见GPU卡介绍与比较

Answer

以下是常见 GPU 卡的介绍与比较:

在 AI 基础设施的考虑因素中,比较 GPU 时需要关注以下几个方面:

训练与推理:

  • 训练 Transformer 模型除了模型权重外,还需要存储 8 字节的数据用于训练。内存 12GB 的典型高端消费级 GPU 几乎无法用于训练 40 亿参数的模型。
  • 训练大型模型通常在机器集群上完成,最好是每台服务器有多个 GPU、大量 VRAM 以及服务器之间的高带宽连接。
  • 许多模型在 NVIDIA H100 上最具成本效益,但截至目前很难找到在 NVIDIA H100 上运行的模型,且通常需要一年以上的长期合作承诺。如今,更多选择在 NVIDIA A100 上运行大多数模型训练,但对于大型集群,仍需要长期承诺。

内存要求:

  • 大型 LLM 的参数数量太多,任何卡都无法容纳,需要分布到多个卡中。
  • 即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10、A40、A4000、A5000 和 A6000,甚至 RTX 卡。

硬件支持:

  • 虽然绝大多数工作负载都在 NVIDIA 上运行,但也有一些公司开始尝试其他供应商,如谷歌 TPU、英特尔的 Gaudi2。
  • 这些供应商面临的挑战是,模型的性能往往高度依赖于芯片的软件优化是否可用,可能需要执行 PoC 才能了解性能。

延迟要求:

  • 对延迟不太敏感的工作负载(如批处理数据处理或不需要交互式 UI 响应的应用程序)可以使用功能较弱的 GPU,能将计算成本降低多达 3 - 4 倍。
  • 面向用户的应用程序通常需要高端 GPU 卡来提供引人入胜的实时用户体验,优化模型是必要的,以使成本降低到可管理的范围。

峰值:

  • 生成式 AI 公司的需求经常急剧上升,新产品一经发布,请求量每天增加 10 倍,或者每周持续增长 50%的情况并不罕见。
  • 在低端 GPU 上处理这些峰值通常更容易,因为更多的计算节点可能随时可用。如果这种流量来自于参与度较低或留存率较低的用户,那么以牺牲性能为代价使用较低成本的资源也是有意义的。

此外,算力可以直接转化成 GPU,电脑里的显卡就是 GPU。一张显卡除了 GPU 外,显存也是很重要的参数。GPU 的生产商主要有 NVIDIA 和 ATI。GPU 作为一种专门在个人电脑、工作站、游戏机和一些移动设备上做图像和图形相关运算工作的微处理器,其诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作。

Content generated by AI large model, please carefully verify (powered by aily)

References

惊人算力成本背后,AI混战下如何选择基础设施?

在其他条件相同的情况下,顶级GPU在几乎所有工作负载上都会表现最佳。然而,正如下表所示,最好的硬件也要昂贵得多。根据具体应用选择合适的GPU可以大大降低成本,也可能使你的商业模式从不可行变为可行。决定要往下走多远——也就是说,确定对你的应用来说最具成本效益的GPU选择——主要是一个技术决策,超出了本文的讨论范围。但我们将在下面分享一些我们认为最重要的选择标准:[heading3]训练与推理:[content]正如我们在上文第一节看到的,训练Transformer模型除了模型权重外,还需要存储8字节的数据用于训练。这意味一个内存12GB的典型高端消费级GPU几乎无法用于训练40亿参数的模型。实际上,训练大型模型是在机器集群上完成的,最好是每台服务器有多个GPU、大量VRAM以及服务器之间的高带宽连接(即使用顶级数据中心GPU构建的集群)。具体来说,许多模型在NVIDIA H100上最具成本效益,但截至今天很难找到在NVIDIA H100上运行的模型,而且通常需要一年以上的长期合作承诺。如今,更多的选择是在NVIDIA A100上运行大多数模型训练,但对于大型集群,仍需要长期承诺。[heading3]内存要求:[content]大型LLM的参数数量太多,任何卡都无法容纳。它们需要分布到多个卡中,并且需要类似于训练的设置。换句话说,即使进行LLM推理,您也可能需要H100或A100。但是较小的模型(例如Stable Diffusion)需要的VRAM要少得多。虽然A100仍然很受欢迎,但我们已经看到初创公司使用A10,A40,A4000,A5000和A6000,甚至RTX卡。

惊人算力成本背后,AI混战下如何选择基础设施?

虽然我们采访过的公司的绝大多数工作负载都在NVIDIA上运行,但也有一些开始尝试其他供应商。最常见的是谷歌TPU,英特尔的Gaudi2似乎也有一些吸引力。这些供应商面临的挑战是,模型的性能往往高度依赖于这些芯片的软件优化是否可用。你可能需要执行PoC才能了解性能。[heading3]延迟要求:[content]一般来说,对延迟不太敏感的工作负载(例如,批处理数据处理或不需要交互式UI响应的应用程序)可以使用功能较弱的GPU。这可以将计算成本降低多达3-4倍(例如,在AWS上将A100与A10进行比较)。另一方面,面向用户的应用程序通常需要高端GPU卡来提供引人入胜的实时用户体验。优化模型是必要的,以使成本降低到可管理的范围。[heading3]峰值:[content]AI技术是如此新颖和令人兴奋,生成式AI公司的需求经常急剧上升,新产品一经发布,请求量每天增加10倍,或者每周持续增长50%,这种情况并不罕见。在低端GPU上处理这些峰值通常更容易,因为更多的计算节点可能随时可用。如果这种流量来自于参与度较低或留存率较低的用户,那么以牺牲性能为代价使用较低成本的资源也是有意义的。

你看我这算力如何?(硬件篇)

作者:小鱼干了发布时间:2023-06-30 21:58原文地址:https://mp.weixin.qq.com/s/FTYC4O58xihe6U06B_7x7w微信扫一扫关注该公众号[heading1]算力是什么?[content]算力的字面意思就是计算能力(Computing Power),是随着区块链,AI等概念被反复提及,其实没什么特别的,可以直接转化成GPU就是算力,电脑里的显卡就是GPU,那么算力=显卡可以这样粗暴的理解。哪怕你购买云服务,也是服务商买显卡“租”给你用的意思。而一张显卡除了GPU外,还有一个很重要的参数是显存。GPU:图形处理器(Graphics Processing Unit)又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。CPU:中央处理器(Central Processing Unit)作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。显存:也被叫做帧缓存,它的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。如同计算机的内存一样,显存是用来存储要处理的图形信息的部件。GPU的诞生源自对CPU的减负,使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L技术可以说是GPU的标志。GPU的生产商主要有NVIDIA和ATI。

Others are asking
RuntimeError: All input tensors need to be on the same GPU, but found some tensors to not be on a GPU
以下是对您所遇到的报错“RuntimeError: All input tensors need to be on the same GPU, but found some tensors to not be on a GPU”的一些可能的解决方案: 1. 检查您的代码和模型设置,确保所有输入张量都被正确地分配到同一个 GPU 上。 2. 对于与显存相关的问题,如爆显存的情况,在训练时可以尝试调小批量大小,在推理时可以使用强制切片。 3. 调大虚拟内存,可能有助于解决一些与内存相关的报错。 同时,在处理与 AI 相关的报错时,还可能会遇到其他类似的问题,例如: 1. 页面文件太小,无法完成操作。解决方法是增大系统虚拟内存大小。 2. 出现“torch.cuda.OutOfMemoryError: CUDA out of memory”报错,通常是爆显存了。 3. 遇到“DataLoader workerexited unexpectedly”报错,可把虚拟内存再调大一点。 4. “CUDA error: CUBLAS_STATUS_NOT_INITIALIZED when calling 'cublasCreate'”报错,一般也是爆显存。 5. “'HParams' object has no attribute 'xxx'”报错,可能是无法找到音色,一般是配置文件和模型没对应,打开配置文件拉到最下面查看是否有训练的音色。 6. “The expand size of the tensor at nonsingleton dimension 0”报错,可把 dataset/44k 下的内容全部删除,重新走一遍预处理流程。 7. “Given groups=1, weight of size to have 256 channels, but got 768 channels instead”报错,可能是 vec256 的模型用了 vec768 的配置文件,反之亦然,请参考旧模型兼容,确认配置文件和模型维度对应。 8. “配置文件中的编码器与模型维度不匹配”报错,可能是在修改配置文件中的“speech_encoder”时修改错了,检查配置文件中的“ssl_dim”一项,如果这项是 256,那您需要确认配置文件和模型维度的对应关系。
2025-01-17
常见GPU卡介绍与比较
以下是常见 GPU 卡的介绍与比较: 在选择 GPU 作为 AI 基础设施时,需要考虑多个因素: 训练与推理方面:训练大型 Transformer 模型通常需要在机器集群上完成,最好是每台服务器有多个 GPU、大量 VRAM 以及服务器之间的高带宽连接。许多模型在 NVIDIA H100 上最具成本效益,但获取较难且通常需要长期合作承诺。如今,NVIDIA A100 常用于大多数模型训练。对于大型语言模型(LLM)的推理,可能需要 H100 或 A100,而较小的模型如 Stable Diffusion 则对 VRAM 需求较少,初创公司也会使用 A10、A40、A4000、A5000 和 A6000 甚至 RTX 卡。 内存要求方面:大型 LLM 的参数数量众多,无法由单张卡容纳,需要分布到多个卡中。 硬件支持方面:虽然绝大多数工作负载在 NVIDIA 上运行,但也有公司开始尝试其他供应商,如谷歌 TPU 和英特尔的 Gaudi2,但这些供应商面临的挑战是模型性能高度依赖软件优化。 延迟要求方面:对延迟不太敏感的工作负载可使用功能较弱的 GPU 以降低计算成本,而面向用户的应用程序通常需要高端 GPU 卡来提供实时用户体验。 峰值方面:生成式 AI 公司的需求经常急剧上升,在低端 GPU 上处理峰值通常更容易,若流量来自参与度或留存率较低的用户,以牺牲性能为代价使用较低成本资源也有意义。 此外,算力可以理解为计算能力,在电脑中可直接转化为 GPU,显卡就是 GPU,除了 GPU 外,显存也是重要参数。GPU 是一种专门做图像和图形相关运算工作的微处理器,其诞生是为了给 CPU 减负,生产商主要有 NVIDIA 和 ATI。
2025-01-06
GPU的计算特性
GPU(图形处理器)具有以下计算特性: 1. 专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。 2. 诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作,尤其是在 3D 图形处理时。 3. 所采用的核心技术有硬件 T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素 256 位渲染引擎等,硬件 T&L 技术可以说是 GPU 的标志。 4. 生产商主要有 NVIDIA 和 ATI。 5. 在矩阵乘法方面表现出色,早期使用游戏用的 GPU 能使运算速度提高 30 倍。 6. 随着 AI 领域的发展而不断发展,例如在训练神经网络方面发挥重要作用。
2025-01-06
GPU的计算特性
GPU(图形处理器)具有以下计算特性: 1. 专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。 2. 诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作,尤其是在 3D 图形处理时。 3. 所采用的核心技术有硬件 T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素 256 位渲染引擎等,硬件 T&L 技术可以说是 GPU 的标志。 4. 生产商主要有 NVIDIA 和 ATI。 5. 在矩阵乘法方面表现出色,早期使用 GPU 训练神经网络,能使运算速度提高 30 倍。
2025-01-06
比H200更先进的GPU是什么
目前比 H200 更先进的 GPU 是英伟达推出的 Blackwell B200 GPU。 Blackwell B200 GPU 具有以下优势: 1. 性能强大:拥有 2080 亿个晶体管,能提供高达 20 petaflops 的 FP4 性能,而 H100 仅为 4 petaflops,性能提升达 5 倍。 2. 效率提升:将两个 B200 与单个 Grace CPU 相结合的 GB200,能为 LLM 推理工作负载提供 30 倍的性能,同时大大提高效率,成本和能耗降低了 25 倍。 3. 训练能力:可以训练更大、更复杂的模型,一个 GB200 NVL72 机柜可以训练 27 万亿参数的模型,相当于能训练近 15 个 GPT4 这样的模型。 它采用台积电 4NP 工艺节点,其中一个关键改进是采用了第二代 Transformer 引擎,对每个神经元使用 4 位(20 petaflops FP4)而不是 8 位,直接将算力、带宽和模型参数规模提高了一倍。此外,还推出了由 Blackwell 组成的 DGX 超算,如 DGX GB200 系统,具有强大的计算和扩展能力。
2024-12-23
国内有哪些gpu算力平台,支持快速搭建AI大模型预训练环境 和 微调环境
国内的 GPU 算力平台中,支持快速搭建 AI 大模型预训练环境和微调环境的有: 1. 阿里云:提供云计算资源,用户可根据需求租用算力服务。 2. 腾讯云:具备相应的算力支持,为用户提供灵活的选择。 3. 亚马逊 AWS:基础设施提供商建立的“算力集市”,可满足用户的算力需求。 在搭建环境时,通常需要考虑以下步骤: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,例如可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,英伟达还发布了统一的超算平台 DGX B200,用于 AI 模型训练、微调和推理。它包括 8 个 Blackwell GPU 和 2 个第五代 Intel Xeon 处理器,包含 FP4 精度功能,提供高达 144 petaflops 的 AI 性能、1.4TB 的 GPU 内存和 64TB/s 的内存带宽。但模型训练能耗也是一个关键问题,例如由 8 张 A100 GPU 组成的 DGX 服务器,最大功率达到 6.5 千瓦,运行一小时就会消耗 6.5 度电,若有 1000 台这样的服务器同时运行,每天的电费将达到惊人的 20 万元。
2024-12-14
常见的AI变现途径有哪一些
常见的 AI 变现途径主要包括以下几种: 1. 开发智能体:例如像 May 用 coze 捏了一个口语陪练 bot,并在豆包 APP 上随时使用。 2. AI 绘画相关: 用 AI 制作服装,如单价 239 元的 AI 小绿裙卖了 1160 多份,销售额达 27 万。熟练者可用 sd 或 mj 制作,新手可用 mewxai 或幻火。 用 AI 定制萌娃的头像,单价 19.9 元,卖了 2675 份,销售额达 5 万。 3. 针对特定群体的服务:如针对宝妈群体的婴儿四维彩超 AI 预测,后续还包括头像定制、绘画收徒、宝宝起名字、售胎毛纪念品、母乳纪念品、宝宝出生后的相关产品等。如果懂得私域的精细化运营,做好朋友圈运营,宝妈群体具有超高经济价值。
2025-01-15
提示词的常见结构
提示词常见的结构包括以下几种: 1. 视频模型 Vidu 的提示词结构: 基本构成:主体/场景——场景描述——环境描述——艺术风格/媒介。需调整句式和语序,避免主体物过多/复杂、分散的句式描述,避免模糊术语表达,使用流畅准确的口语化措辞,避免过度文学化叙述,丰富、准确和完整的描述以生成特定艺术风格、满足需求的视频。 与画面联想程度的说明:以单帧图像为例,通过具体详实的位置描述/环境描述进行构图,帮助构建画面基本呈现效果;通过艺术风格描述进一步提升效果和氛围,统一画面风格。 2. DALL·E 自动优化提示词结构: 提示词生成指南:强调使用精确、视觉化的描述而非难以捉摸的概念,清晰明确的指示有助于生成高质量图像。 提示词结构:是一个包括媒介、主题、背景、风格特点等多个元素的模板。媒介指定图像应模仿的艺术形式;主题是图像焦点,包括颜色、姿势和视角等;背景描述主题与环境的关系,包括时间、光线方向等;风格特点包括图像的独特艺术特点。还提供了生成图像和提出新想法的具体步骤和要求,默认设置除非另有说明会使用默认宽高比和风格,同时提醒避免使用违反服务条款的词语或概念。 3. Runway 提示词结构: 基本提示:纯文本提示遵循清晰结构,将相机运动、场景和主题的细节划分为单独部分时最有效。非纯文本提示为图片+基本提示词结构,使用输入图像时应专注描述希望在输出中看到的动作,而非图像内容。
2025-01-06
面试AI岗位的,常见面试题
以下是面试 AI 岗位常见的面试题相关内容: 1. 关于 AI 面试官的相关产品: 用友大易 AI 面试产品:具有强大技术底座、高度场景贴合度、招聘全环节集成解决方案、先进防作弊技术和严密数据安全保障,能完成面试、初筛和自动发送面试邀约。 海纳 AI 面试:在线方式自动面试、评估,精准度高达 98%,面试效率提升 5 倍以上,候选人到面率提升最高达 30%。 InterviewAI:在线平台提供面试职位相关问题和 AI 生成的推荐答案,候选人用麦克风回答,会收到评估、建议和得分。使用时需考虑数据安全性和隐私保护问题。 2. 成为“AI 提示词工程师”的岗位技能要求: 市场调研、观察目标群体工作流、创造并拆解需求、选型现有 AI 解决方案做成产品来解决需求、抽象集成互联网 APP 产品、写 PRD、画 APP 产品原型图、组织团队进行 APP 产品开发。 对于零基础小白,建议找网上教程,看科普类教程,阅读 OpenAI 文档,理解参数作用,推荐练手的 Prompt 工具和相关教程文档。 3. AI 产品案例: 销售:话术总结优缺点、定制销售解决方案。 客服:定制客服话术。 HR:团队绩效管理、面试工具。
2024-12-13
AI在办公领域的常见应用有哪些
以下是 AI 在办公领域的一些常见应用: 1. 腾讯文档分类功能:利用数据分析和机器学习,自动分类办公文件,方便管理,市场规模达数亿美元。 2. WPS Office 中的智能排版、语法检查等功能:借助自然语言处理和机器学习,提高办公效率,实现自动化办公流程,市场规模达数十亿美元。 3. 联想设备管理平台:通过数据分析和物联网技术,对企业办公设备进行管理,包括设备状态监测、故障预警、软件更新等,提高设备利用率,市场规模达数亿美元。
2024-11-22
Aigc 常见名词解释
以下是一些 AIGC 常见名词的解释: AIGC:AI generated content,又称为生成式 AI,意为人工智能生成内容。例如 AI 文本续写,文字转图像的 AI 图、AI 主持人等,都属于 AIGC 的应用。类似的名词缩写还有 UGC(普通用户生产),PGC(专业用户生产)等。能进行 AIGC 的产品项目和媒介众多,包括语言文字类(如 OpenAI 的 GPT,Google 的 Bard,百度的文心一言,还有一种国内大佬下场要做的的 LLM)、语音声音类(如 Google 的 WaveNet,微软的 Deep Nerual Network,百度的 DeepSpeech 等,还有合成 AI 孙燕姿大火的开源模型 Sovits)、图片美术类(如早期的 GEN 等图片识别/生成技术,去年大热的扩散模型带火的 Midjourney,先驱者谷歌的 Disco Diffusion,一直在排队测试的 OpenAI 的 Dalle·2,以及 stability ai 和 runaway 共同推出的 Stable Diffusion)。 SD:是 Stable Diffusion 的简称。是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像。Stable Diffusion 是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model; LDM)。SD 的代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。当前版本为 2.1 稳定版(2022.12.7)。源代码库:github.com/StabilityAI/stablediffusion 。 chatGPT:是由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具,于 2022 年 11 月 30 日发布,目前使用的是 GPT4 的 LLM。 AI:人工智能(Artificial Intelligence)。 AGI:通用人工智能(Artificial General Intelligence)能够像人类一样思考、学习和执行多种任务的人工智能系统。 NLP:自然语言处理(Natural Language Processing),就是说人话。 LLM:大型语言模型(Large Language Model),数据规模很大,没钱搞不出来,大烧钱模型。 此外,还有一些相对较难的名词解释: NAI: 咒语:prompts,关键词 施法/吟唱/t2i:Text2Image 魔杖:t2i/i2i 参数 i2i:Image2Image,一般特指全部图片生成 inpaint:i2i 一种 maskredraw,可以局部重绘 ti/emb/炼丹:Train 中的文本反转,一般特指 Embedding 插件 hn/hyper/冶金:hypernetwork,超网络 炸炉:指训练过程中过度拟合,但炸炉前的日志插件可以提取二次训练 废丹:指完全没有训练成功 美学/ext:aesthetic_embeddings,emb 一种,特性是训练飞快,但在生产图片时实时计算。 db/梦展:DreamBooth,目前一种性价比高(可以在极少步数内完成训练)的微调方式,但要求过高 ds:DeepSpeed,微软开发的训练方式,移动不需要的组件到内存来降低显存占用,可使 db 的 vram 需求降到 8g 以下。开发时未考虑 win,目前在 win 有兼容性问题故不可用 8bit/bsb:一般指 Bitsandbyte,一种 8 比特算法,能极大降低 vram 占用,使 16g 可用于训练 db。由于链接库问题,目前/预计未来在 win 不可用
2024-11-08
AI的历史和一些关键名词介绍
以下是关于 AI 的历史和一些关键名词的介绍: AI 的历史: 始于二十世纪中叶,最初符号推理流行,带来专家系统等重要进展。 20 世纪 70 年代出现“人工智能寒冬”,因从专家提取知识等任务复杂且成本高。 随着计算资源变便宜、数据增多,神经网络方法在计算机视觉、语音理解等领域展现出色性能,过去十年中“人工智能”常被视为“神经网络”的同义词。 关键名词: 机器学习:是 AI 的一个重要分支,研究如何让计算机通过数据学习和改进。 深度学习:基于神经网络的一种学习方法。 自然语言处理:使计算机理解和处理人类语言。 在学习 AI 时,您可以: 了解基本概念,阅读相关部分熟悉术语和基础概念,如“”。 浏览入门文章,了解历史、应用和发展趋势。 在“”中找到初学者课程,推荐李宏毅老师的课程。 通过在线教育平台按自己节奏学习。 选择感兴趣的模块深入学习,如图像、音乐、视频等。 掌握提示词技巧。 进行实践,尝试使用各种产品做出作品。 体验如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人。
2025-02-07
ai在hr上有哪些应用,分成国外和国内来介绍一下
目前在 HR 领域,AI 的应用在国内外都有一定的发展。 在国外,AI 被用于人才招聘,通过分析大量的简历和求职者数据,快速筛选出符合要求的候选人;还用于员工培训,根据员工的技能水平和学习需求,定制个性化的培训计划;在绩效管理方面,利用数据分析来评估员工的工作表现,提供更客观准确的评估结果。 在国内,AI 同样在人才招聘中发挥作用,例如利用智能聊天机器人与求职者进行初步沟通,提高招聘效率;在员工福利管理上,通过数据分析为员工提供更贴合需求的福利方案;在人力资源规划方面,借助 AI 预测人力资源需求,为企业战略提供支持。 需要注意的是,AI 在 HR 领域的应用仍在不断发展和完善中。
2025-02-06
介绍一下有没有适合一个5个人软件开发公使用的AI服务器,包含软硬件
目前市面上有多种适合 5 人软件开发公司使用的 AI 服务器,软硬件的选择需要综合考虑多方面因素。 在硬件方面,服务器的处理器性能至关重要,例如英特尔至强系列处理器具有较强的计算能力。内存容量应足够大,以满足数据处理和模型训练的需求,建议至少 32GB 或更高。存储方面,高速的固态硬盘(SSD)可以提供快速的数据读写速度。 在软件方面,常见的操作系统如 Linux(如 Ubuntu、CentOS 等)具有较好的稳定性和兼容性。深度学习框架如 TensorFlow、PyTorch 等是进行 AI 开发的重要工具。同时,还需要配备相关的数据库管理软件、开发工具和监控软件等。 然而,具体的选择还需根据公司的业务需求、预算以及技术团队的熟悉程度来决定。
2025-02-05
介绍两款好用免费的文字转音频的AI工具
以下为您推荐两款好用免费的文字转音频的 AI 工具: 1. 飞书妙记(https://www.feishu.cn/product/minutes):飞书的办公套件之一。 2. 通义听悟(https://tingwu.aliyun.com/home):阿里推出的 AI 会议转录工具。 另外,您还可以在 WaytoAGI 的工具网站上查看更多相关工具:https://waytoagi.com/sites/category/50 。 请注意,内容由 AI 大模型生成,请仔细甄别。
2025-02-01
我是一个AI小白,我使用AI的主要目的是使用这些工具,简化我工作中费时费力的事情,比如:表格的制作,筛选数据;图片的抠图,渲染,产品的口播介绍;日常工厂管理文件的编写及执行步骤;工作手册及岗位绩效的编写;作业指导书的编写
以下是为您整合的相关内容: 对于 AI 小白来说,使用 AI 工具简化工作中的费时费力之事是可行的。 在接触 AI 工具时,对于超出自己理解范围的事情,最简单有效的方法就是尝试。学习新事物,实践比听闻更重要。 比如在 AI 视频制作方面,人物设定与剧本是关键部分,包括主体、动作、场景等要素;分镜处理也较为重要,要考虑用几个镜头表述内容;生成环节如同抽卡,可多尝试,最后进行粗检和后期处理,如 AI 配音剪辑、加过渡滤镜等。小白制作 AI 视频要做好脚本即提示词,有耐心抽卡,并不断提升撰写提示词的能力。撰写提示词时要了解主体、动作、场景,避免使用专有名词和网络名词,给 AI 清晰描述。工具选用方面,没有绝对好的工具,只有适合的,如小白可使用剪映,主力机是 MacBook Pro 可使用 final cut。还可向 ChatGPT 询问获取灵感。 另外,在“AI 布道”活动中发现,AI 工具虽强大能做很多事,但也在其与普通人之间形成了一道墙。AI 是未来必然的方向,其科普还有很长的路要走,但尽可能简单地试用它,能让普通人更快受益。无论是什么身份、什么年龄段的人,都可以尝试使用 AI 工具。 如果您想要跟相关作者交朋友、一起在 AI 路上探寻,欢迎戳这里:
2025-01-30
介绍一些最新AI资讯的网站
以下是一些提供最新 AI 资讯的网站: 公众号“超时空视角”,地址:https://mp.weixin.qq.com/s/TBHiM_0w_bwUc20_KVQQ 小红书/抖音:EverAI B 站:Ever AI 酱(这里会有教程及 AI 工具界面操作) Recraft AI:https://www.recraft.ai/ ,更新了 60 种新的图像风格,是 AI 平面设计工具,用户可以使用其生成和编辑插画、海报、产品周边等,对所有用户每日都有免费的试用点数,并允许对生成的图像进行商业使用。 文小言 APP 中的“学习强国公文助手”,可以帮助用户进行文汇检索、AI 公文书写、AI 公文润色等。 Notion 近期进行了重构更新,增强了内置 AI 功能,旨在提供更自然的用户体验。新版本采用对话式交互,用户可通过聊天与 AI 进行工作安排,并能跨页面、跨应用调用素材。 WaytoAGI 网站(https://www.waytoagi.com/),提供和 AI 知识库对话、集合精选的 AI 网站、集合精选的提示词、知识库精选等功能。 文章中提到的 6 个精准的海外 AI 信息渠道,包括 TechURLs(科技媒体汇总)、Toolify.ai(AI 产品导航和排行榜)、SimilarWeb(数据分析工具)、A16Z(硅谷知名投资机构)等。
2025-01-28
比较好用的PPT制作AI
以下是一些比较好用的 PPT 制作 AI 工具: 1. Gamma:这是一个在线 PPT 制作网站,允许用户通过输入文本和想法提示快速生成幻灯片。它支持嵌入多媒体格式,如 GIF 和视频,以增强演示文稿的吸引力。网址:https://gamma.app/ 2. 美图 AI PPT:由知名图像编辑软件“美图秀秀”的开发团队推出。用户通过输入简单的文本描述来生成专业的 PPT 设计,包含丰富的模板库和设计元素,可根据需求选择不同风格和主题的模板,适用于多种场合。网址:https://www.xdesign.com/ppt/ 3. Mindshow:一款 AI 驱动的 PPT 辅助工具,提供自动布局、图像选择和文本优化等智能设计功能,还可能包括互动元素和动画效果。网址:https://www.mindshow.fun/ 4. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,提供智能文本生成、语音输入、文档格式化等功能。网址:https://zhiwen.xfyun.cn/ 在体验方面,有人认为 gamma 最好用,只要提供了内容框架,生成的 PPT/网页审美水平最高。此外,WPS AI 也表现出色,能帮助生成 PPT 大纲并进行优化,还能根据用户要求修改主题配色和字体。
2025-02-05
AI画图工具哪些比较好
以下是一些比较好的 AI 画图工具: 1. Lucidchart:流行的在线绘图工具,支持多种视图的创建,包括逻辑视图、功能视图和部署视图,具有拖放界面、支持团队协作和实时编辑、丰富的模板库和自动布局功能,官网:https://www.lucidchart.com/ 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,包括逻辑视图、功能视图和部署视图。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图的创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码的工具,支持创建多种架构视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现在称为 diagrams.net):免费的在线图表软件,允许创建各种类型的图表,包括逻辑视图和部署视图等,支持本地和云存储,多种图形和模板,易于创建和分享图表,可与多种第三方工具集成,官网:https://www.diagrams.net/ 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费的开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图的创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。 此外,以下是一些用于绘制示意图的 AI 工具: 1. Lucidchart:集成 AI 功能,可自动化绘制流程图、思维导图、网络拓扑图等多种示意图,具有拖放界面,易于使用,支持团队协作和实时编辑,丰富的模板库和自动布局功能,官网:https://www.lucidchart.com/ 2. Microsoft Visio:专业的图表绘制工具,适用于复杂的流程图、组织结构图和网络图,其 AI 功能可帮助自动化布局和优化图表设计,集成 Office 365,方便与其他 Office 应用程序协同工作,丰富的图表类型和模板,支持自动化和数据驱动的图表更新,官网:https://www.microsoft.com/enus/microsoft365/visio/flowchartsoftware 3. Creately:在线绘图和协作平台,利用 AI 功能简化图表创建过程,适合绘制流程图、组织图、思维导图等,具有智能绘图功能,可自动连接和排列图形,丰富的模板库和预定义形状,实时协作功能,适合团队使用,官网:https://creately.com/ 4. Whimsical:专注于用户体验和快速绘图的工具,适合创建线框图、流程图、思维导图等,具有直观的用户界面,易于上手,支持拖放操作,快速绘制和修改图表,提供多种协作功能,适合团队工作,官网:https://whimsical.com/ 5. Miro:在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制,如思维导图、用户流程图等,具有无缝协作,支持远程团队实时编辑,丰富的图表模板和工具,支持与其他项目管理工具(如 Jira、Trello)集成,官网:https://miro.com/ 使用 AI 绘制示意图的步骤: 1. 选择工具:根据具体需求选择合适的 AI 绘图工具。 2. 创建账户:注册并登录该平台。 3. 选择模板:利用平台提供的模板库,选择适合需求的模板。 4. 添加内容:根据需求添加并编辑图形和文字,利用 AI 自动布局功能优化图表布局。 5. 协作和分享:如果需要团队协作,可以邀请团队成员一起编辑。完成后导出并分享图表。
2025-02-04
我想找一款合适的ai视频剪辑模型,请帮我推荐一下,并比较各自的优劣
以下为您推荐几款 AI 视频剪辑模型,并比较它们的优劣: 1. Pika: 优点:对奇幻感较强的画面把控出色,自然度高;更新的唇形同步功能集成到平台上便捷。 缺点:真实环境画面容易糊。 2. Pixverse: 优点:在高清化方面有优势,对偏风景和纪录、有特定物体移动的画面友好。 缺点:生成的视频存在帧率问题,处理人物时易有慢速播放的感觉。 3. Runway: 优点:在真实影像方面质感好,战争片全景镜头处理出色,控件体验感较好。 缺点:特别爱变色,光影不稳定。 4. MiniMax 海螺 AI: 优点:文生视频制作便捷高效,能提供多元创作思路。 缺点:较难保证主体/画面风格的稳定性,实际使用场景多为空镜头/非叙事性镜头/大场面特效镜头的制作。 在实际使用中,您可以根据不同工具对画面的处理能力进行组合使用。例如,需要奇幻感强、人物表情自然的画面可用 Pika 生成;物体滑行运动可用 Pixverse 生成;有手部特殊运动的画面可用 Runway 辅助完成。
2025-02-03
国内有什么写代码比较好用的模型吗(除了deepseek)
国内写代码比较好用的模型除了 DeepSeek 外,还有零一万物、知谱 AI 和阿里巴巴开发的模型,它们在 LMSYS 排行榜上取得了优异成绩,尤其在数学和编程方面表现出色。此外,国产开源模型 DeepSeekV3 也具备出色的性能,其性能接近顶尖闭源模型 Claude 3.5Sonnet,在知识、长文本和数学任务上均有显著提升,生成速度可达每秒 60 个令牌。
2025-02-02
我是个小白,我如何开始学习比较好
对于小白来说,开始学习 AI 可以参考以下步骤: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库查看大家实践后的作品、文章分享,并分享自己实践后的成果。 5. 体验 AI 产品: 与现有的 AI 产品(如 ChatGPT、Kimi Chat、智谱、文心一言等)进行互动,了解其工作原理和交互方式。 此外,根据电脑的硬件情况和自身财力选择合适的开始方式: 1. 本地部署:如果电脑是 M 芯片的 Mac 电脑(Intel 芯片出图速度非常慢,因此不建议)或者 2060Ti 及以上显卡的 Windows 电脑,可以选择本地部署。强烈建议在配有 N 卡的 Windows 电脑上进行。 2. 在线平台:对于电脑不符合要求的小伙伴可以直接使用在线工具,在线工具分为在线出图和云电脑两种,前者功能可能会受限、后者需要自己手动部署,大家根据实际情况选择即可。 不建议一上来就配主机,玩几个月后还对 AI 有兴趣的话再考虑配个主机。主机硬盘要大,显卡预算之内买最好,其他的随意。 先验经验方面,需要熟练使用文生图、图生图;需要有一定的逻辑思考能力以及推理能力;适合炼丹新人、小白。课程大约 70 80%是理论和方法论的内容,大部分练习会在课外跟大家沟通、练习。只有少部分必要内容会在课上演示。 必学、必看内容是基础课,主要是为了解决环境问题和软件安装不上的问题;建炉是针对不同炼丹方式提供了不同的炼丹工具的安装教程;正式的内容部分分为了数据集预处理、模型训练以及模型调试及优化三个部分。 小白的第一课是读文档,若没看懂,可使用提示词让 GPT 换种说法解释或举例。可以点击链接查看对话原文,顶部的问题可以复制,然后作为 prompt 自己去提问来自测是否真的读懂。下一节会带来 prompt 小白系列课程(二)如何开始练习有效提问。
2025-02-02
现在AI编程始终不能编写一些比较大的项目
目前 AI 编程在处理较大项目时存在一些限制,主要原因包括: 1. 上下文窗口限制:复杂项目需要全局理解,AI 难以设计架构和模块化。 2. 自然语言描述不精确:项目需求常需反复讨论才能明确,AI 难以完全掌握。 3. 无法感知环境和直接执行:编译、部署、调试等复杂任务 AI 难以独立完成。 4. 幻觉问题:AI 可能编造不存在的 API 或错误代码,需人工严格审查。 在实际应用中,对于一些简单需求,我们可以给 AI 下达明确命令来完成一次性任务,如制作简单的 Chrome 插件、编写脚本或创建 Python 爬虫。但当期待提高,希望从繁琐日常任务中解脱时,需要了解 AI 编程的边界和限制。 在选择解决方案时,应遵循一定的准则: 1. 优先找线上工具,例如制作白底图等功能,若线上有现成工具最好。 2. 其次找插件,基于现有系统找合适的插件。 3. 最后是本地应用,当线上工具和插件都不满足需求时,再考虑本地应用。 对于 API 功能,先找现成的开源工具,GitHub 上有很多。然后考虑付费服务。只有在都找不到现成方案时,才考虑自己编程,且编程时要以终为始,抛开技术障碍,聚焦于目标。
2025-01-25