Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

gpu算力平台

Answer

以下是关于 GPU 算力平台的相关信息:

  • NVIDIA 推出全新 GPU 平台 Blackwell,涵盖与 Hopper 兼容的普通系统和与 Grace CPU 连接的专用系统,提供前所未有的算力,有望突破物理极限,为互联网产业注入新动力。配备第五代 NV Link 的全新 Transformer 引擎速度惊人,新型超算的高速运转离不开早期问题检测和替换机制,数据加密也至关重要。全新的 FP8 格式大幅提升计算速度,NVLink 交换芯片实现所有 GPU 同时全速通信,直接驱动铜技术的突破让系统更加经济实惠。训练一个 1.8 万亿参数的 GPT 模型,Blackwell 相比传统方法优势明显,AWS、GCP、Oracle、微软纷纷为 Blackwell 做好准备。Blackwell 惊人的推理能力是 Hopper 的 30 倍,有望成为未来生成式 AI 的核心引擎。
  • 能耗是模型训练的关键问题,一台由 8 张 A100 GPU 组成的 DGX 服务器性能强劲但能耗惊人,运行一小时消耗约 6.5 度电,包括散热每小时约消耗 13 度电。若有 1000 台这样的服务器同时运行,每天电费达 20 万元。对于大多数 AI 创业公司,大规模购买和部署 GPU 充满风险和挑战,但云服务平台为 AI 公司提供了灵活选择。
  • 英伟达发布统一的超算平台 DGX B200,用于 AI 模型训练、微调和推理。它包括 8 个 Blackwell GPU 和 2 个第五代 Intel Xeon 处理器,包含 FP4 精度功能,提供高达 144 petaflops 的 AI 性能、1.4TB 的 GPU 内存和 64TB/s 的内存带宽,使得万亿参数模型的实时推理速度比上一代产品提高 15 倍。目前,亚马逊、谷歌、微软已成为最新芯片超算的首批用户,亚马逊网络服务将建立一个拥有 20,000 GB200 芯片的服务器集群。
Content generated by AI large model, please carefully verify (powered by aily)

References

黄仁勋在AI界超级碗GTC2024的主旨演讲: 精华及全文(附视频)

Blackwell是NVIDIA推出的全新GPU平台,将涵盖与Hopper兼容的普通系统和与Grace CPU连接的专用系统。Blackwell提供了前所未有的算力,有望突破物理极限,为互联网产业注入新动力。在处理海量数据和复杂计算时,精确性和范围至关重要。配备第五代NV Link的全新Transformer引擎速度惊人。在多GPU环境中,信息同步与更新必不可少。新型超算的高速运转离不开早期问题检测和替换机制。同时,数据加密对价值数亿美元的AI模型和代码至关重要。高速压缩引擎可将数据高效导入导出,速度提升20倍。Nvidia必须全力保留这些功能,因为这些超算的投资和能力都十分惊人。全新的FP8格式让内存可容纳更多参数,大幅提升计算速度。生成式AI作为一种全新计算范式正在兴起。NVLink交换芯片实现所有GPU同时全速通信,仿佛成为一个巨无霸GPU。直接驱动铜技术的突破让系统更加经济实惠。训练一个1.8万亿参数的GPT模型,传统方法可能需要8000个GPU、15MW电力,历时90天。而Blackwell只需2000个GPU,功耗4MW。NVIDIA GPU有一半时间运行在云端,专注于生成Token,如Copilot、ChatGPT等。庞大的语言模型需要后台超算的支持。要在众多GPU中高效分配任务,CUDA和其丰富生态系统不可或缺。Blackwell惊人的推理能力是Hopper的30倍,有望成为未来生成式AI的核心引擎。这些AI工厂旨在产生智慧而非电力。AWS、GCP、Oracle、微软纷纷为Blackwell做好准备。

中国大模型面临的真实问题:登顶路远,坠落一瞬

另一个关键问题是能耗。接触过模型训练的人应该都知道,想练出一个好模型是超级费卡费电的,所以能耗也是一个拦路虎。假设,我们面前有一台由8张A100 GPU组成的DGX服务器。这台服务器就像是AI世界中的"超级跑车",性能强劲,但"油耗"惊人。它的最大功率达到6.5千瓦,这意味着运行一小时就会消耗6.5度电。然而,这仅仅是开始。让我们来做一个具体的计算:假设工业用电的平均价格是每度0.63元。一台服务器(包括散热)每小时消耗约13度电。如果这台服务器24小时不间断运行,每天的电费约为200元。现在,让我们将视野扩大到一个大规模的AI研究中心或大型科技公司:如果有1,000台这样的服务器同时运行,每天的电费将达到惊人的20万元。对于大多数AI创业公司来说,大规模购买和部署GPU就像是攀登珠穆朗玛峰:看似令人向往,实际上充满风险和挑战。但在瞬息万变的AI领域,长期大规模投资可能会成为公司的致命弱点。没准下一波海浪就会把他们拍死在沙滩上。然而,就像每一个挑战都孕育着机遇,GPU资源的稀缺也催生了新的解决方案。云服务平台如阿里云、腾讯云和亚马逊AWS,这些基础设施提供商建立的"算力集市",为AI公司提供了一个灵活的选择。在这些平台上,公司可以直接租用算力服务,而不必承担购买和维护的全部成本。然而,即使是租用模式,许多大模型公司也对大规模算力投入持谨慎态度。这种谨慎背后隐藏着两个深层次的问题,这些问题已经成为AI投资圈的"公开秘密":

老黄祭出新核弹B200!30倍H100单机可训15个GPT-4模型,AI迎新摩尔时代

这种架构可以为平台中的每个GPU提供高达每秒1,800 GB的带宽。除此之外,英伟达还发布了统一的超算平台DGX B200,用于AI模型训练、微调和推理。它包括8个Blackwell GPU和2个第五代Intel Xeon处理器,包含FP4精度功能,提供高达144 petaflops的AI性能、1.4TB的GPU内存和64TB/s的内存带宽。这使得万亿参数模型的实时推理速度,比上一代产品提高了15倍。用户还可以使用DGX B200系统构建DGX SuperPOD,创建人工智能卓越中心,为运行多种不同工作的大型开发团队提供动力。目前,亚马逊、谷歌、微软已经成为最新芯片超算的首批用户。亚马逊网络服务,将建立一个拥有20,000 GB200芯片的服务器集群。

Others are asking
微调所需要的算力计算公式
微调所需算力的计算较为复杂,会受到多种因素的影响。以下是一些相关的要点: 在一些教程中,如“大圣:全网最适合小白的 Llama3 部署和微调教程”,提到微调可能需要购买算力,预充值 50 元。 对于大型语言模型(LLM)的微调,由于模型规模大,更新每个权重可能需要很长时间的训练工作,还需考虑计算成本和服务麻烦。 调整用于微调的超参数通常可以产生产生更高质量输出的模型。例如,在某些情况中,可能需要配置以下内容: 模型:可选择“ada”、“babbage”、“curie”或“davinci”之一。 n_epochs:默认为 4,指训练模型的时期数。 batch_size:默认为训练集中示例数量的 0.2%,上限为 256。 learning_rate_multiplier:默认为 0.05、0.1 或 0.2,具体取决于 final batch_size。 compute_classification_metrics:默认为假,若为 True,在分类任务微调时在每个 epoch 结束时在验证集上计算特定分类指标。配置这些超参数可通过 OpenAI CLI 上的命令行标志传递。
2025-01-06
微调所需要的算力计算公式
微调所需算力的计算较为复杂,会受到多种因素的影响。以下为您提供一些相关信息: 在“大圣:全网最适合小白的 Llama3 部署和微调教程”中提到,微调可能需要预充值 50 元购买算力。 “9.生成式 AI Studio 简介”课程中指出,微调大型语言模型(LLM)时,由于模型规模大,更新每个权重可能需要很长时间的训练工作以及巨大的计算成本。 “微调(Finetuning)”部分提到,调整用于微调的超参数通常可以产生产生更高质量输出的模型。需要配置的超参数包括: model:要微调的基本模型的名称,可选择“ada”、“babbage”、“curie”或“davinci”之一。 n_epochs:默认为 4,指训练模型的时期数。 batch_size:默认为训练集中示例数量的 0.2%,上限为 256。 learning_rate_multiplier:默认为 0.05、0.1 或 0.2,具体取决于 final batch_size。 compute_classification_metrics:默认为假,若为 True,在分类任务微调时会在每个 epoch 结束时在验证集上计算特定指标。 需要注意的是,不同的模型和任务,其算力需求的计算方式可能会有所不同。
2025-01-06
微调所需要的算力计算公式
微调所需算力的计算涉及多个因素,目前没有一个固定的通用公式。但以下是一些相关的要点和参考: 在一些教程中,如“大圣:全网最适合小白的 Llama3 部署和微调教程”,提到微调可能需要预充值购买算力,费用约 50 元。 对于大型语言模型(LLM)的微调,由于模型规模大,更新每个权重可能需要很长时间的训练工作,计算成本较高。 在微调过程中,超参数的配置也会影响算力需求。例如,选择不同的基本模型(如“ada”、“babbage”、“curie”或“davinci”)、设置训练的时期数(n_epochs)、批量大小(batch_size)、学习率乘数(learning_rate_multiplier)等。批量大小通常为训练集中示例数量的 0.2%,上限为 256;学习率乘数默认为 0.05、0.1 或 0.2,具体取决于最终的批量大小。 需要注意的是,不同的模型和具体的微调任务,其算力需求会有所不同。
2025-01-06
现在智算非常火热,大家都在建立智算中心,提供大量的算力,请问一下,这些算力,都是哪些行业,哪些企业在消耗这些算力?
目前消耗大量算力的行业和企业主要包括以下方面: 1. 科技巨头:如 Google 拥有大量的 GPU 和 TPU 算力,用于复杂的推理任务和模型训练。 2. 云计算公司:例如 Amazon 和 Microsoft,其 AI 云计算收入主要来自模型托管。 3. 从事 AI 研发的公司:像 xAI 计划用十万块 H100 连成巨大集群,OpenAI 拉上微软打造算力中心 StarGate。 4. 特定领域的企业:如 Apple 利用自身优势发展边缘和远端混合的组合模型。 对于小公司而言,直接参与基础设施建设机会较小,但为当地企业提供 AI 训练的算力支持,并配备服务团队帮助整理知识、寻找业务场景、做垂直训练和微调等,可能存在一定机会。
2025-01-02
数据算法算力
以下是关于数据、算法、算力的相关知识: 数据:数据的质量对于生成理想的大模型至关重要,早期大模型存在使用不太合规数据等导致乱说的情况。 算法:算法有技术架构的迭代,如英伟达的显卡辅助模型训练。 算力:算力的字面意思是计算能力,可以直接转化成 GPU 就是算力,电脑里的显卡就是 GPU。一张显卡除了 GPU 外,还有一个很重要的参数是显存。GPU 是一种专门在个人电脑、工作站、游戏机和一些移动设备上做图像和图形相关运算工作的微处理器,其诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作。显存的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。GPU 的生产商主要有 NVIDIA 和 ATI。
2024-12-27
国内有哪些gpu算力平台,支持快速搭建AI大模型预训练环境 和 微调环境
国内的 GPU 算力平台中,支持快速搭建 AI 大模型预训练环境和微调环境的有: 1. 阿里云:提供云计算资源,用户可根据需求租用算力服务。 2. 腾讯云:具备相应的算力支持,为用户提供灵活的选择。 3. 亚马逊 AWS:基础设施提供商建立的“算力集市”,可满足用户的算力需求。 在搭建环境时,通常需要考虑以下步骤: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,例如可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,英伟达还发布了统一的超算平台 DGX B200,用于 AI 模型训练、微调和推理。它包括 8 个 Blackwell GPU 和 2 个第五代 Intel Xeon 处理器,包含 FP4 精度功能,提供高达 144 petaflops 的 AI 性能、1.4TB 的 GPU 内存和 64TB/s 的内存带宽。但模型训练能耗也是一个关键问题,例如由 8 张 A100 GPU 组成的 DGX 服务器,最大功率达到 6.5 千瓦,运行一小时就会消耗 6.5 度电,若有 1000 台这样的服务器同时运行,每天的电费将达到惊人的 20 万元。
2024-12-14
RuntimeError: All input tensors need to be on the same GPU, but found some tensors to not be on a GPU
以下是对您所遇到的报错“RuntimeError: All input tensors need to be on the same GPU, but found some tensors to not be on a GPU”的一些可能的解决方案: 1. 检查您的代码和模型设置,确保所有输入张量都被正确地分配到同一个 GPU 上。 2. 对于与显存相关的问题,如爆显存的情况,在训练时可以尝试调小批量大小,在推理时可以使用强制切片。 3. 调大虚拟内存,可能有助于解决一些与内存相关的报错。 同时,在处理与 AI 相关的报错时,还可能会遇到其他类似的问题,例如: 1. 页面文件太小,无法完成操作。解决方法是增大系统虚拟内存大小。 2. 出现“torch.cuda.OutOfMemoryError: CUDA out of memory”报错,通常是爆显存了。 3. 遇到“DataLoader workerexited unexpectedly”报错,可把虚拟内存再调大一点。 4. “CUDA error: CUBLAS_STATUS_NOT_INITIALIZED when calling 'cublasCreate'”报错,一般也是爆显存。 5. “'HParams' object has no attribute 'xxx'”报错,可能是无法找到音色,一般是配置文件和模型没对应,打开配置文件拉到最下面查看是否有训练的音色。 6. “The expand size of the tensor at nonsingleton dimension 0”报错,可把 dataset/44k 下的内容全部删除,重新走一遍预处理流程。 7. “Given groups=1, weight of size to have 256 channels, but got 768 channels instead”报错,可能是 vec256 的模型用了 vec768 的配置文件,反之亦然,请参考旧模型兼容,确认配置文件和模型维度对应。 8. “配置文件中的编码器与模型维度不匹配”报错,可能是在修改配置文件中的“speech_encoder”时修改错了,检查配置文件中的“ssl_dim”一项,如果这项是 256,那您需要确认配置文件和模型维度的对应关系。
2025-01-17
常见GPU卡介绍与比较
以下是常见 GPU 卡的介绍与比较: 在选择 GPU 作为 AI 基础设施时,需要考虑多个因素: 训练与推理方面:训练大型 Transformer 模型通常需要在机器集群上完成,最好是每台服务器有多个 GPU、大量 VRAM 以及服务器之间的高带宽连接。许多模型在 NVIDIA H100 上最具成本效益,但获取较难且通常需要长期合作承诺。如今,NVIDIA A100 常用于大多数模型训练。对于大型语言模型(LLM)的推理,可能需要 H100 或 A100,而较小的模型如 Stable Diffusion 则对 VRAM 需求较少,初创公司也会使用 A10、A40、A4000、A5000 和 A6000 甚至 RTX 卡。 内存要求方面:大型 LLM 的参数数量众多,无法由单张卡容纳,需要分布到多个卡中。 硬件支持方面:虽然绝大多数工作负载在 NVIDIA 上运行,但也有公司开始尝试其他供应商,如谷歌 TPU 和英特尔的 Gaudi2,但这些供应商面临的挑战是模型性能高度依赖软件优化。 延迟要求方面:对延迟不太敏感的工作负载可使用功能较弱的 GPU 以降低计算成本,而面向用户的应用程序通常需要高端 GPU 卡来提供实时用户体验。 峰值方面:生成式 AI 公司的需求经常急剧上升,在低端 GPU 上处理峰值通常更容易,若流量来自参与度或留存率较低的用户,以牺牲性能为代价使用较低成本资源也有意义。 此外,算力可以理解为计算能力,在电脑中可直接转化为 GPU,显卡就是 GPU,除了 GPU 外,显存也是重要参数。GPU 是一种专门做图像和图形相关运算工作的微处理器,其诞生是为了给 CPU 减负,生产商主要有 NVIDIA 和 ATI。
2025-01-06
GPU的计算特性
GPU(图形处理器)具有以下计算特性: 1. 专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。 2. 诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作,尤其是在 3D 图形处理时。 3. 所采用的核心技术有硬件 T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素 256 位渲染引擎等,硬件 T&L 技术可以说是 GPU 的标志。 4. 生产商主要有 NVIDIA 和 ATI。 5. 在矩阵乘法方面表现出色,早期使用游戏用的 GPU 能使运算速度提高 30 倍。 6. 随着 AI 领域的发展而不断发展,例如在训练神经网络方面发挥重要作用。
2025-01-06
常见GPU卡介绍与比较
以下是常见 GPU 卡的介绍与比较: 在 AI 基础设施的考虑因素中,比较 GPU 时需要关注以下几个方面: 训练与推理: 训练 Transformer 模型除了模型权重外,还需要存储 8 字节的数据用于训练。内存 12GB 的典型高端消费级 GPU 几乎无法用于训练 40 亿参数的模型。 训练大型模型通常在机器集群上完成,最好是每台服务器有多个 GPU、大量 VRAM 以及服务器之间的高带宽连接。 许多模型在 NVIDIA H100 上最具成本效益,但截至目前很难找到在 NVIDIA H100 上运行的模型,且通常需要一年以上的长期合作承诺。如今,更多选择在 NVIDIA A100 上运行大多数模型训练,但对于大型集群,仍需要长期承诺。 内存要求: 大型 LLM 的参数数量太多,任何卡都无法容纳,需要分布到多个卡中。 即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10、A40、A4000、A5000 和 A6000,甚至 RTX 卡。 硬件支持: 虽然绝大多数工作负载都在 NVIDIA 上运行,但也有一些公司开始尝试其他供应商,如谷歌 TPU、英特尔的 Gaudi2。 这些供应商面临的挑战是,模型的性能往往高度依赖于芯片的软件优化是否可用,可能需要执行 PoC 才能了解性能。 延迟要求: 对延迟不太敏感的工作负载(如批处理数据处理或不需要交互式 UI 响应的应用程序)可以使用功能较弱的 GPU,能将计算成本降低多达 3 4 倍。 面向用户的应用程序通常需要高端 GPU 卡来提供引人入胜的实时用户体验,优化模型是必要的,以使成本降低到可管理的范围。 峰值: 生成式 AI 公司的需求经常急剧上升,新产品一经发布,请求量每天增加 10 倍,或者每周持续增长 50%的情况并不罕见。 在低端 GPU 上处理这些峰值通常更容易,因为更多的计算节点可能随时可用。如果这种流量来自于参与度较低或留存率较低的用户,那么以牺牲性能为代价使用较低成本的资源也是有意义的。 此外,算力可以直接转化成 GPU,电脑里的显卡就是 GPU。一张显卡除了 GPU 外,显存也是很重要的参数。GPU 的生产商主要有 NVIDIA 和 ATI。GPU 作为一种专门在个人电脑、工作站、游戏机和一些移动设备上做图像和图形相关运算工作的微处理器,其诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作。
2025-01-06
GPU的计算特性
GPU(图形处理器)具有以下计算特性: 1. 专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。 2. 诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作,尤其是在 3D 图形处理时。 3. 所采用的核心技术有硬件 T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素 256 位渲染引擎等,硬件 T&L 技术可以说是 GPU 的标志。 4. 生产商主要有 NVIDIA 和 ATI。 5. 在矩阵乘法方面表现出色,早期使用 GPU 训练神经网络,能使运算速度提高 30 倍。
2025-01-06
比H200更先进的GPU是什么
目前比 H200 更先进的 GPU 是英伟达推出的 Blackwell B200 GPU。 Blackwell B200 GPU 具有以下优势: 1. 性能强大:拥有 2080 亿个晶体管,能提供高达 20 petaflops 的 FP4 性能,而 H100 仅为 4 petaflops,性能提升达 5 倍。 2. 效率提升:将两个 B200 与单个 Grace CPU 相结合的 GB200,能为 LLM 推理工作负载提供 30 倍的性能,同时大大提高效率,成本和能耗降低了 25 倍。 3. 训练能力:可以训练更大、更复杂的模型,一个 GB200 NVL72 机柜可以训练 27 万亿参数的模型,相当于能训练近 15 个 GPT4 这样的模型。 它采用台积电 4NP 工艺节点,其中一个关键改进是采用了第二代 Transformer 引擎,对每个神经元使用 4 位(20 petaflops FP4)而不是 8 位,直接将算力、带宽和模型参数规模提高了一倍。此外,还推出了由 Blackwell 组成的 DGX 超算,如 DGX GB200 系统,具有强大的计算和扩展能力。
2024-12-23
飞书文档如何作为知识库输入到coze平台
要将飞书文档作为知识库输入到 Coze 平台,主要有以下步骤: 1. 在线知识库: 点击创建知识库,创建一个画小二课程的 FAQ 知识库。 选择飞书文档,选择自定义的自定义,输入。 飞书的文档内容会以区分开来,可以点击编辑修改和删除。 点击添加 Bot,添加好可以在调试区测试效果。 2. 本地文档: 注意如何拆分内容,提高训练数据准确度,将海报的内容训练的知识库里面。 画小二这个课程 80 节课程,分为了 11 个章节,不能一股脑全部放进去训练。 正确的方法是首先将 11 章的大的章节名称内容放进来,章节内详细内容按固定方式进行人工标注和处理。 然后选择创建知识库自定义清洗数据。 3. 发布应用: 点击发布,确保在 Bot 商店中能够搜到。 此外,创建知识库并上传文本内容有以下方式: 1. 在线数据: 自动采集方式:适用于内容量大,需要批量快速导入的场景。 在文本格式页签下,选择在线数据,然后单击下一步。 单击自动采集。 单击新增 URL。在弹出的页面完成输入要上传的网站地址、选择是否需要定期同步网站内容及周期等操作。 当上传完成后单击下一步,系统会自动根据网站的内容进行内容分片。 手动采集方式:适用于需要精准采集网页上指定内容的场景。 安装扩展程序,详情请参考。 在文本格式页签下,选择在线数据,然后单击下一步。 点击手动采集,然后在弹出的页面点击权限授予完成授权。 在弹出的页面输入要采集内容的网址,然后单击确认。 在弹出的页面上,点击页面下方文本标注按钮,开始标注要提取的内容,然后单击文本框上方的文本或链接按钮。 单击查看数据查看已采集的内容,确认无误后再点击完成并采集。 Coze 的知识库功能不仅支持上传和存储外部知识内容,还提供了多样化的检索能力,主要包括两大核心能力:一是能够存储和管理外部数据;二是增强检索能力。Coze 支持从多种数据源,如本地文档、在线数据、Notion、飞书文档等渠道上传文本和表格数据。上传后,系统会自动将知识内容切分成多个片段进行存储,并允许用户自定义内容分片规则。Coze 还提供了多种检索方式来对存储的内容片段进行高效检索,例如全文检索可以通过关键词快速找到相关的内容片段并召回。基于这些召回的内容片段,大模型将生成最终的回复内容。Coze 支持上传文本内容及结构化表格数据,以适应各种使用场景。
2025-02-04
coze平台有没有DeepSeek的mml可以调用
在 Coze 平台上,DeepSeek 是可以调用的。以下是相关的具体信息: 效果对比:用 Coze 做了个小测试,大家可以对比看看,相关视频 如何使用: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对您来说有难度)和 Markdown(运行下来似乎不是很稳定) 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 这个项目是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。
2025-02-03
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
国内AI平台
以下是关于国内 AI 平台的相关信息: 从用户规模、新增速度、用户活跃和用户粘性等角度对 APP 端和 Web 端的 AI 产品进行数据统计: APP 端:尚未出现比肩互联网时代现象级破圈之作的产品,整体和海外同类型产品相差 5 倍以上。目前有 56 款产品历史下载量超百万,8 款超千万,夸克和豆包历史总下载量过亿。单月新增方面,夸克、豆包和 Kimi 智能助手月增长可达千万级,10 款产品可达百万级;DAU 方面,夸克 DAU 超过 2600 万,豆包、Kimi、天天跳绳和文小言 DAU 超百万;用户粘性方面,夸克和叨叨三日留存率超过 30%。 Web 端:AI 智能助手赛道外的所有赛道基本处于停滞状态,部分头部产品数据下滑或回升乏力。用户规模方面,月总访问量超千万的共 7 款产品;用户活跃度上,共 3 款产品的 MAU 超过千万,19 款产品 MAU 超过百万,仅有 14 款产品人均每月访问超过 5 次,13 款产品平均访问时长超过 10 分钟。 大模型落地方面: 根据 IDC 报告,2024 上半年中国 MaaS 市场规模达 2.5 亿元,AI 大模型解决方案市场规模达 13.8 亿元,百度智能云在这两个市场中均获得第一名,市占率分别为 32.4%和 17%。 百度智能云的 MaaS 业务依托千帆大模型平台提供服务,旗下有千帆行业场景解决方案,沉淀了八大行业解决方案。 2024 年百度世界大会上,百度智能云千帆大模型平台发布了工作流 Agent 能力。 9 月月度榜单: 包括百度输入法、万兴播爆、逗逗游戏伙伴、腾讯元宝、天天跳绳、稿定设计、流利说、支小宝等产品,涵盖了效率工具、视频编辑、情感陪伴、个人助理等分类。
2025-01-25
2025年AI新年春晚在哪儿直播?几点直播?从哪个平台上可以看得到?微信视频号?抖音?B站还是什么渠道可以看得到?
2025 年 AI 春晚的相关信息如下: 直播视频名称:共创贺新春,AI 中国年,第二届 AI 春晚! 60 字内容简介:30 多个共创 AI 节目,来自 1000 多位共创者 3 个月的辛勤筹备。2025 年 1 月 29 日(大年初一)晚上 6:00 准点开播。 正式开放配置时间:1 月 29 日晚上 5:45 正式直播时间:1 月 29 日晚上 6:00 关于转播: 有转播经验的:能直接接受 https,rtmp 信号源的可以直接用拉流地址。 第一次转播的小伙伴:如果直播平台不能直接接入信号源,请先下载一个 OBS:https://obsproject.com/zhcn/download 。配置教程已置顶主流直播平台推流地址获取方式可以参考这篇文章后半段:https://zhuanlan.zhihu.com/p/653204958?utm_id=0 。 直播技术问题咨询: AI 春晚是由 WaytoAGI 社区组织的一场由 AI 技术驱动的晚会,首届 AI 春晚的完整视频可在 B 站上观看。首届 AI 春晚于 24 年大年初一当晚直播,18 万人在线观看,后续视频播放量超过 200 万,媒体曝光量超过 500 万,被誉为 AI 视频寺庙时代的一部现象级作品。 更多详细信息可参考 WaytoAGI 的官方网站。 完整版:https://www.bilibili.com/video/BV15v421k7PY/?spm_id_from=333.999.0.0 。 相关进度:
2025-01-24
在哪个平台创建智能体可以很好的变现
目前,在一些平台创建智能体有变现的可能性,例如字节的扣子平台。在扣子平台上,无论是否具备编程基础,都能迅速构建基于 AI 模型的各类问答 Bot,开发完成后还可发布到各种社交平台和通讯软件上。 然而,需要注意的是,无论是国内还是国外的大多数智能体平台都存在一些问题。比如,对于应用开发者没有付费支持,对于插件提供者没有 API 费用支持。这导致很多精心钻研和打磨出来的智能体难以免费开放。 要实现智能体的商业化变现,除了设计一整套商业化产品这种高风险方式外,卡密验证的方式是一种较简单的模式,即用户输入卡密来使用智能体或核心插件。
2025-01-23