Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

微调所需要的算力计算公式

Answer

微调所需算力的计算较为复杂,会受到多种因素的影响。以下为您提供一些相关信息:

  • 在“大圣:全网最适合小白的 Llama3 部署和微调教程”中提到,微调可能需要预充值 50 元购买算力。
  • “9.生成式 AI Studio 简介”课程中指出,微调大型语言模型(LLM)时,由于模型规模大,更新每个权重可能需要很长时间的训练工作以及巨大的计算成本。
  • “微调(Fine-tuning)”部分提到,调整用于微调的超参数通常可以产生产生更高质量输出的模型。需要配置的超参数包括:
    • model:要微调的基本模型的名称,可选择“ada”、“babbage”、“curie”或“davinci”之一。
    • n_epochs:默认为 4,指训练模型的时期数。
    • batch_size:默认为训练集中示例数量的 0.2%,上限为 256。
    • learning_rate_multiplier:默认为 0.05、0.1 或 0.2,具体取决于 final batch_size。
    • compute_classification_metrics:默认为假,若为 True,在分类任务微调时会在每个 epoch 结束时在验证集上计算特定指标。

需要注意的是,不同的模型和任务,其算力需求的计算方式可能会有所不同。

Content generated by AI large model, please carefully verify (powered by aily)

References

大圣:全网最适合小白的 Llama3 部署和微调教程

本文的核心代码全部参考如下开源项目:[GitHub-datawhalechina/self-llm:《开源大模型食用指南》基于Linux环境快速部署开源大模型,更适合中国宝宝的部署教程](https://github.com/datawhalechina/self-llm/tree/master)[heading1]一、引言[content]大家好,我是大圣,一个致力于使用AI技术将自己打造为超级个体的程序员。作为一名程序员,我对大模型技术是非常向往的,但是因为是非科班出身,一直迟迟没有动手。在Llama3出来之后,我萌生了微调的想法,我的目的很简单,不是为了学习多么高深的知识,而是让自己先入门。入门最好的方式就是直接上手实操,这是也是之前的一系列教程中所强调的理念。由于市面上没有找到专门针对我们纯小白的教程,所以这篇教程就来啦!这篇教程的亮点教你如何购买算力,不再为本地电脑的配置不够而发愁手把手教你下载并部署Llama3模型,以前都是玩别人部署的,这次咱们玩自己的!)使用甄嬛数据集微调Llama3模型,并且针对微调后的模型进行实验了解微调的意义和概念但是这篇教程不会讲解微调的技术性原理以及文中会用到的Python代码。原因很简单,因为我是一位Java开发工程师,里面的代码我都是靠GPT4.0帮我读的另外这篇教程需要你充值50块钱,不过不是给我哦,是购买算力的预充值。我不想因为50块钱把你劝退,所以这里我要多说一句,免费的才是最贵的。看完我的教程,你绝对会认为这50块钱花的很值OK,都交代清楚,大家按照决定是否要继续享用,废话不多少,我们直接开始

9. 生成式 AI Studio 简介

12:29即使您确实为您的用例发现了一个好的提示,您可能会注意到模型响应的质量并不完全一致。为了缓解这些问题,我们可以做的一件事是调整模型。12:40那么调音是什么?好吧,您可能熟悉的一个版本是微调。在这种情况下,我们采用在通用数据集上预训练的模型。我们复制了这个模型。12:51然后,以这些学习到的权重为起点,我们在新的特定领域数据集上重新训练模型。这种技术对于许多不同的用例都非常有效。13:01但是当我们尝试微调LLM时,我们遇到了一些挑战。顾名思义,法学硕士是大型的。因此更新每个权重可能需要很长时间的训练工作。13:12将所有这些计算与现在必须为这个巨大模型提供服务的麻烦和成本相结合……因此,微调大型语言模型可能不是您的最佳选择。13:21但是有一种创新的调优方法称为参数有效调优。这是一个非常令人兴奋的研究领域,旨在通过仅训练一部分参数来减少微调LLM的挑战。13:34这些参数可能是现有模型参数的子集。或者它们可以是一组全新的参数。例如,也许您向模型添加了一些额外的层或额外的嵌入13:45到提示。如果您想了解更多关于参数有效调整和一些不同方法的信息,本课程的阅读列表中包含一篇摘要论文。13:53但如果您只想着手构建,那么让我们转到Generative AI Studio,看看如何开始调优工作。从Generative AI Studio的语言部分,14:02选择调整。为了创建一个调整模型,我们提供了一个名称。然后指向训练数据的本地或Cloud Storage位置。参数有效调整非常适合您拥有“适度”数量的场景14:14训练数据,例如数百或数千个训练示例。您的训练数据应以文本到文本格式构建为受监督的训练数据集。数据中的每条记录或行都将包含输入文本,换句话说,提示,

微调(Fine-tuning)

我们选择了适用于一系列用例的默认超参数。唯一需要的参数是训练文件。也就是说,调整用于微调的超参数通常可以产生产生更高质量输出的模型。特别是,您可能需要配置以下内容:model:要微调的基本模型的名称。您可以选择“ada”、“babbage”、“curie”或“davinci”之一。要了解有关这些模型的更多信息,请参阅[模型](https://ywh1bkansf.feishu.cn/wiki/R70MwasSpik2tgkCr7dc9eTmn0o)文档。n_epochs-默认为4。训练模型的时期数。一个纪元指的是训练数据集的一个完整周期。batch_size-默认为训练集中示例数量的0.2%,上限为256。批量大小是用于训练单个正向和反向传递的训练示例数。总的来说,我们发现更大的批次大小往往更适用于更大的数据集。learning_rate_multiplier-默认为0.05、0.1或0.2,具体取决于final batch_size。微调学习率是用于预训练的原始学习率乘以该乘数。我们建议使用0.02到0.2范围内的值进行试验,以查看产生最佳结果的值。根据经验,我们发现较大的学习率通常在较大的批量大小下表现更好。compute_classification_metrics-默认为假。如果为True,为了对分类任务进行微调,在每个epoch结束时在验证集上计算特定于分类的指标(准确性、F-1分数等)。要配置这些额外的超参数,请通过OpenAI CLI上的命令行标志传递它们,例如:

Others are asking
微调所需要的算力计算公式
微调所需算力的计算较为复杂,会受到多种因素的影响。以下是一些相关的要点: 在一些教程中,如“大圣:全网最适合小白的 Llama3 部署和微调教程”,提到微调可能需要购买算力,预充值 50 元。 对于大型语言模型(LLM)的微调,由于模型规模大,更新每个权重可能需要很长时间的训练工作,还需考虑计算成本和服务麻烦。 调整用于微调的超参数通常可以产生产生更高质量输出的模型。例如,在某些情况中,可能需要配置以下内容: 模型:可选择“ada”、“babbage”、“curie”或“davinci”之一。 n_epochs:默认为 4,指训练模型的时期数。 batch_size:默认为训练集中示例数量的 0.2%,上限为 256。 learning_rate_multiplier:默认为 0.05、0.1 或 0.2,具体取决于 final batch_size。 compute_classification_metrics:默认为假,若为 True,在分类任务微调时在每个 epoch 结束时在验证集上计算特定分类指标。配置这些超参数可通过 OpenAI CLI 上的命令行标志传递。
2025-01-06
微调所需要的算力计算公式
微调所需算力的计算涉及多个因素,目前没有一个固定的通用公式。但以下是一些相关的要点和参考: 在一些教程中,如“大圣:全网最适合小白的 Llama3 部署和微调教程”,提到微调可能需要预充值购买算力,费用约 50 元。 对于大型语言模型(LLM)的微调,由于模型规模大,更新每个权重可能需要很长时间的训练工作,计算成本较高。 在微调过程中,超参数的配置也会影响算力需求。例如,选择不同的基本模型(如“ada”、“babbage”、“curie”或“davinci”)、设置训练的时期数(n_epochs)、批量大小(batch_size)、学习率乘数(learning_rate_multiplier)等。批量大小通常为训练集中示例数量的 0.2%,上限为 256;学习率乘数默认为 0.05、0.1 或 0.2,具体取决于最终的批量大小。 需要注意的是,不同的模型和具体的微调任务,其算力需求会有所不同。
2025-01-06
现在智算非常火热,大家都在建立智算中心,提供大量的算力,请问一下,这些算力,都是哪些行业,哪些企业在消耗这些算力?
目前消耗大量算力的行业和企业主要包括以下方面: 1. 科技巨头:如 Google 拥有大量的 GPU 和 TPU 算力,用于复杂的推理任务和模型训练。 2. 云计算公司:例如 Amazon 和 Microsoft,其 AI 云计算收入主要来自模型托管。 3. 从事 AI 研发的公司:像 xAI 计划用十万块 H100 连成巨大集群,OpenAI 拉上微软打造算力中心 StarGate。 4. 特定领域的企业:如 Apple 利用自身优势发展边缘和远端混合的组合模型。 对于小公司而言,直接参与基础设施建设机会较小,但为当地企业提供 AI 训练的算力支持,并配备服务团队帮助整理知识、寻找业务场景、做垂直训练和微调等,可能存在一定机会。
2025-01-02
数据算法算力
以下是关于数据、算法、算力的相关知识: 数据:数据的质量对于生成理想的大模型至关重要,早期大模型存在使用不太合规数据等导致乱说的情况。 算法:算法有技术架构的迭代,如英伟达的显卡辅助模型训练。 算力:算力的字面意思是计算能力,可以直接转化成 GPU 就是算力,电脑里的显卡就是 GPU。一张显卡除了 GPU 外,还有一个很重要的参数是显存。GPU 是一种专门在个人电脑、工作站、游戏机和一些移动设备上做图像和图形相关运算工作的微处理器,其诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作。显存的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。GPU 的生产商主要有 NVIDIA 和 ATI。
2024-12-27
国内有哪些gpu算力平台,支持快速搭建AI大模型预训练环境 和 微调环境
国内的 GPU 算力平台中,支持快速搭建 AI 大模型预训练环境和微调环境的有: 1. 阿里云:提供云计算资源,用户可根据需求租用算力服务。 2. 腾讯云:具备相应的算力支持,为用户提供灵活的选择。 3. 亚马逊 AWS:基础设施提供商建立的“算力集市”,可满足用户的算力需求。 在搭建环境时,通常需要考虑以下步骤: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,例如可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,英伟达还发布了统一的超算平台 DGX B200,用于 AI 模型训练、微调和推理。它包括 8 个 Blackwell GPU 和 2 个第五代 Intel Xeon 处理器,包含 FP4 精度功能,提供高达 144 petaflops 的 AI 性能、1.4TB 的 GPU 内存和 64TB/s 的内存带宽。但模型训练能耗也是一个关键问题,例如由 8 张 A100 GPU 组成的 DGX 服务器,最大功率达到 6.5 千瓦,运行一小时就会消耗 6.5 度电,若有 1000 台这样的服务器同时运行,每天的电费将达到惊人的 20 万元。
2024-12-14
gpu算力平台
以下是关于 GPU 算力平台的相关信息: NVIDIA 推出全新 GPU 平台 Blackwell,涵盖与 Hopper 兼容的普通系统和与 Grace CPU 连接的专用系统,提供前所未有的算力,有望突破物理极限,为互联网产业注入新动力。配备第五代 NV Link 的全新 Transformer 引擎速度惊人,新型超算的高速运转离不开早期问题检测和替换机制,数据加密也至关重要。全新的 FP8 格式大幅提升计算速度,NVLink 交换芯片实现所有 GPU 同时全速通信,直接驱动铜技术的突破让系统更加经济实惠。训练一个 1.8 万亿参数的 GPT 模型,Blackwell 相比传统方法优势明显,AWS、GCP、Oracle、微软纷纷为 Blackwell 做好准备。Blackwell 惊人的推理能力是 Hopper 的 30 倍,有望成为未来生成式 AI 的核心引擎。 能耗是模型训练的关键问题,一台由 8 张 A100 GPU 组成的 DGX 服务器性能强劲但能耗惊人,运行一小时消耗约 6.5 度电,包括散热每小时约消耗 13 度电。若有 1000 台这样的服务器同时运行,每天电费达 20 万元。对于大多数 AI 创业公司,大规模购买和部署 GPU 充满风险和挑战,但云服务平台为 AI 公司提供了灵活选择。 英伟达发布统一的超算平台 DGX B200,用于 AI 模型训练、微调和推理。它包括 8 个 Blackwell GPU 和 2 个第五代 Intel Xeon 处理器,包含 FP4 精度功能,提供高达 144 petaflops 的 AI 性能、1.4TB 的 GPU 内存和 64TB/s 的内存带宽,使得万亿参数模型的实时推理速度比上一代产品提高 15 倍。目前,亚马逊、谷歌、微软已成为最新芯片超算的首批用户,亚马逊网络服务将建立一个拥有 20,000 GB200 芯片的服务器集群。
2024-12-14
微调
微调(Finetuning)是一种迁移学习技术,常用于深度学习中。其基本思路是先有一个在大量数据上预训练过的模型,该模型已学会一些基本模式和结构,然后在特定任务数据上继续训练,使其适应新任务。 例如在情感分类中,可先使用大量语料库预训练模型学会基本语法和单词语义,再用标注过的电影评论继续训练以判断情感。在图像分类中,先使用大量图片预训练模型学会识别基本形状和纹理,再用标注的猫和狗图片继续训练以区分二者。 创建微调模型时,假设已准备好训练数据,可使用 OpenAI CLI 开始微调工作。需确定从哪个基本模型(如 ada、babbage、curie 或 davinci)开始,并可使用后缀参数自定义微调模型名称。运行命令会上传文件、创建微调作业、流式传输事件直至作业完成。每个微调工作默认从 curie 模型开始,模型选择会影响性能和成本。作业开始后可能需几分钟或几小时完成,若事件流中断可恢复。此外,还可列出现有作业、检索作业状态或取消作业。 微调的超参数方面,选择了适用于一系列用例的默认超参数,唯一需要的参数是训练文件。但调整超参数通常可产生更高质量输出的模型,可能需配置的内容包括:要微调的基本模型名称(如“ada”“babbage”“curie”“davinci”);训练模型的时期数(n_epochs,默认为 4);批量大小(batch_size,默认为训练集中示例数量的 0.2%,上限为 256);微调学习率乘数(learning_rate_multiplier,默认为 0.05、0.1 或 0.2);是否计算分类指标(compute_classification_metrics,默认为假)。配置这些超参数可通过 OpenAI CLI 上的命令行标志传递。
2025-01-11
微调是什么意思
微调(Finetuning)是一种迁移学习技术,常用于深度学习中。其基本思路是:先有一个在大量数据上预训练过的模型,该模型已学会一些基本模式和结构(如自然语言处理中学会基本语法和单词语义,图像识别中学会基本形状和纹理)。然后,在特定任务数据上继续训练这个模型,使其适应新的任务。 以下是两个例子帮助理解: 1. 情感分类:先使用大量语料库预训练模型,使其学会基本语法和单词语义。再收集标注过的电影评论(一部分积极,一部分消极),在这些评论上继续训练模型,使其学会判断评论情感。 2. 图像分类:先使用大量图片(如 ImageNet 数据集)预训练模型,使其学会识别图片中的基本形状和纹理。再收集标注过的图片(一部分是猫,一部分是狗),在这些图片上继续训练模型,使其学会区分猫和狗。 微调在 LLM 应用中,是在已经训练好的模型基础上进一步调整,让模型的输出更符合预期。Finetune、Finetuning 是常用的英文写法。微调是在较小的、针对特定任务的标注数据集上进一步训练已经预训练过的 LLM 的过程,可调整部分模型参数以优化其在特定任务或任务集上的性能。 微调可让您从 API 提供的模型中获得更多收益,如比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省 Token、更低的延迟请求。GPT3 已在大量文本上预训练,微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例,这样可以节省成本并实现更低延迟的请求。 微调涉及以下步骤: 1. 准备和上传训练数据。 2. 训练新的微调模型。 3. 使用您的微调模型。 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。建议使用 OpenAI 命令行界面,安装时需注意相关要求。
2025-01-11
如何微调大模型
微调大模型主要包括以下几个方面: 1. 理解大模型:大模型是通过输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程,包括找学校(需要大量 GPU 进行训练)、确定教材(需要大量数据)、找老师(选择合适算法)、就业指导(微调)和搬砖(推导)。 2. 准备数据集:数据集是让大模型重新学习的知识。例如,对于 Llama3 的微调,可以参考相关文档获取和了解数据集,如下载数据集。 3. 选择微调方式:从参数规模的角度,大模型的微调分成两条技术路线,全量微调 FFT(Full Fine Tuning)对全量的模型参数进行全量训练,PEFT(ParameterEfficient Fine Tuning)只对部分模型参数进行训练。从成本和效果综合考虑,PEFT 是目前业界较流行的微调方案。 4. 进行微调操作:有了数据集后,将其上传到服务器,编写微调代码并执行,大概 15 分钟左右可完成微调。 5. 参考资源:OpenAI 官方微调教程 。 微调的好处包括提高模型在特定任务中的性能和提高模型效率。经过微调的模型可能会失去一些通用性,但对于特定任务会有更好的表现,同时还能实现更低的延迟和成本。
2025-01-10
微调和增量训练的区别
微调和增量训练是在人工智能领域中用于改进模型性能的两种不同方法,它们有以下区别: 微调: 参数调整范围:分为全量微调(FFT)和参数高效微调(PEFT)。全量微调对全量的模型参数进行全量训练,PEFT 则只对部分模型参数进行训练。 数据使用:在较小的、特定领域的数据集上继续大语言模型(LLM)的训练过程,通过调整模型本身的参数来提高在特定任务中的性能。 效果和优势: 能大幅提高模型在特定任务中的性能,因为可以输入更多示例。 提高模型效率,可通过专门化模型使用更小的模型,且由于只对输入输出对进行训练,能舍弃示例或指令,进一步改善延迟和降低成本。 但经过微调的模型可能会失去一些通用性。 增量训练:文中未明确提及增量训练的相关内容。 总的来说,微调是一种针对特定任务和数据集对模型参数进行调整的有效方法,而增量训练的具体特点和与微调的详细对比在提供的内容中未充分阐述。
2025-01-07
训练以及部署微调模型
以下是关于训练以及部署微调模型的相关信息: 创建微调模型: 假设您已准备好训练数据。使用 OpenAI CLI 开始微调工作,需指定从哪个 BASE_MODEL(如 ada、babbage、curie 或 davinci)开始,可使用后缀参数自定义微调模型的名称。运行命令后会进行以下操作: 1. 使用文件 API 上传文件(或使用已上传的文件)。 2. 创建微调作业。 3. 流式传输事件直到作业完成,这通常需要几分钟,但如果队列中有很多作业或数据集很大,可能需要数小时。 每个微调工作都从默认为 curie 的基本模型开始,模型的选择会影响性能和成本。您的模型可以是 ada、babbage、curie 或 davinci,可访问定价页面了解微调费率的详细信息。 开始微调作业后,可能需要一些时间才能完成。工作可能排在其他工作之后,训练模型可能需要几分钟或几小时,具体取决于模型和数据集的大小。若事件流中断,可通过运行特定命令恢复。工作完成后,会显示微调模型的名称。此外,还可以列出现有作业、检索作业状态或取消作业。 GPT 助手的训练: 在有监督的微调阶段,收集少量但高质量的数据集,要求人工承包商收集提示和理想响应的数据,通常是几万个或类似数量。然后对这些数据进行语言建模,算法不变,只是训练集从互联网文档变为问答提示响应类型的数据。训练后得到有监督的微调模型(SFT 模型),可实际部署。 大型语言模型的微调: 一旦有了基础模型,进入计算成本相对较低的微调阶段。编写标签说明,明确助手的表现期望,雇佣人员创建文档,如收集 100,000 个高质量的理想问答对来微调基础模型,此过程可能只需一天。然后进行大量评估,部署模型并监控表现,收集不当行为实例并纠正,将正确答案加入训练数据,重复此过程。由于微调成本较低,可每周或每天进行迭代。 例如 Llama2 系列,Meta 发布时包括基础模型和助手模型。基础模型不能直接使用,助手模型可直接用于回答问题。若想自己微调,Meta 完成的昂贵的第一阶段结果可提供很大自由。
2025-01-06
全量微调与少量参数微调
在参数规模的角度,大模型的微调分为全量微调(FFT,Full Fine Tuning)和少量参数微调(PEFT,ParameterEfficient Fine Tuning)两条技术路线。 全量微调是对全量的模型参数进行全量的训练。少量参数微调则只对部分模型参数进行训练。从成本和效果的综合考虑,PEFT 是目前业界较流行的微调方案。 微调是在较小的、特定领域的数据集上继续 LLM 的训练过程,通过调整模型本身的参数,而非像提示工程和 RAG 那样仅更改提示,能大幅提高模型在特定任务中的性能。微调有两大好处:一是提高模型在特定任务中的性能,可输入更多示例,经过微调的模型可能会失去一些通用性,但对于特定任务会有更好表现;二是提高模型效率,实现更低的延迟和成本,可通过专门化模型使用更小的模型,且只对输入输出对进行训练,舍弃示例或指令进一步改善延迟和成本。 关于微调的具体实现,LoRA 微调脚本见:。 在微调的超参数方面,选择了适用于一系列用例的默认超参数,唯一需要的参数是训练文件。调整超参数通常可产生更高质量输出的模型,可能需要配置的内容包括:model(要微调的基本模型的名称,可选择“ada”“babbage”“curie”或“davinci”之一)、n_epochs(默认为 4,训练模型的时期数)、batch_size(默认为训练集中示例数量的 0.2%,上限为 256)、learning_rate_multiplier(默认为 0.05、0.1 或 0.2,具体取决于 final batch_size)、compute_classification_metrics(默认为假,若为 True,为对分类任务进行微调,在每个 epoch 结束时在验证集上计算特定于分类的指标)。要配置这些额外的超参数,可通过 OpenAI CLI 上的命令行标志传递。 OpenAI 官方微调教程:
2025-01-06
需要一些ai入门科普资料
以下是为您提供的 AI 入门科普资料: 一、技术原理相关 1. RAG(检索增强生成):外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 2. PAL(程序辅助语言模型):2022 年一篇论文中提出,对于语言模型的计算问题,不让 AI 直接生成计算结果,而是借助 Python 解释器等工具作为计算工具。 3. ReAct:2022 年一篇《React:在语言模型中协同推理与行动》的论文提出了 ReAct 框架,即 reason 与 action 结合,让模型动态推理并采取行动与外界环境互动,比如用搜索引擎对关键字进行搜索,观察行动得到的结果,可借助 LangChain 等框架简化构建流程。 二、关于未来的想象 1. Transformer 是仿生算法的阶段性实现,10 年、20 年后可能不再使用。 2. 在端到端算法的时代,不应继续使用冯诺依曼架构。 3. 在存算一体(在存储单元里做计算)的芯片之上,一定会诞生全新的算法。 个人总结:很多大佬认为要关注或直接阅读技术论文,比如产品经理转型 AI 产品经理需要懂技术脉络。但小白直接看技术论文有难度,虽可让 AI 辅助阅读,仍需一定知识储备。林粒粒呀的相关视频是很好的科普入门。 此外,安克创新的 CEO 阳萌的一些观点也很有启发,比如之前对安克创新的印象是卖充电宝和安防设备,但看了访谈后会被其认知震撼。
2025-02-12
做ai自媒体博主需要用到哪些工具
做 AI 自媒体博主可能会用到以下工具: 1. AI 研究工具:Claude、ChatGPT、Bing Chat、Perplexity 等。 2. 图片处理工具:DallE、Leonardo、BlueWillow、Midjourney 等。 3. 版权写作工具:Rytr、Copy AI、Wordtune、Writesonic 等。 4. 设计工具:Canva、Clipdrop、Designify、Microsoft Designer 等。 5. 网站搭建工具:10Web、Framer、Hostinger、Landingsite 等。 6. 视频处理工具:Klap、Opus、Invideo、Heygen 等。 7. 音频处理工具:Murf、LovoAI、Resemble、Eleven Labs 等。 8. SEO 优化工具:Alli AI、BlogSEO、Seona AI、Clearscope 等。 9. Logo 设计工具:Looka、LogoAI、Brandmark、Logomaster 等。 10. 聊天机器人工具:Droxy、Chatbase、Voiceflow、Chatsimple 等。 11. 自动化工具:Make、Zapier、Bardeen、Postman 等。
2025-02-12
做一个口播博主,需要哪些ai 工具加持?
作为一名口播博主,以下是一些可以加持您工作的 AI 工具: 1. AI 研究工具:Claude、ChatGPT、Bing Chat、Perplexity。 2. 图片处理:DallE、Leonardo、BlueWillow、Midjourney。 3. 版权写作:Rytr、Copy AI、Wordtune、Writesonic。 4. 设计:Canva、Clipdrop、Designify、Microsoft Designer。 5. 网站搭建:10Web、Framer、Hostinger、Landingsite。 6. 视频处理:Klap、Opus、Invideo、Heygen。 7. 音频处理:Murf、LovoAI、Resemble、Eleven Labs。 8. SEO 优化:Alli AI、BlogSEO、Seona AI、Clearscope。 9. Logo 设计:Looka、LogoAI、Brandmark、Logomaster。 10. 聊天机器人:Droxy、Chatbase、Voiceflow、Chatsimple。 11. 自动化工具:Make、Zapier、Bardeen、Postman。 如果您想提升求职外企的口语能力,以下 AI 工具可供选择: 1. Speak:这是一款 AI 英语学习 APP,利用先进的 AI 语言学习技术,提供全面实时反馈,方便随时随地练习口语,OpenAI 曾投资该公司。 2. Duolingo:提供游戏化学习平台,通过 AI 辅助教学,帮助学习新词汇和短语,其口语练习功能有助于练习发音和口语表达。 3. Call Annie:在发音过程中能根据发言调整表情和动作,可随时通过视频或语音进行英语对话。 另外,剪映在制作口播数字人方面也有优势。剪映作为字节跳动旗下产品,在抖音平台广泛应用,海外版 CapCut 成绩斐然。其具有声音克隆和公模数字人等能力,搭配 facefusion 的换脸技术,可零成本实现口播数字人。制作流程为:打开剪映,添加文本到文字轨道并修改,点击朗读进行声音克隆,选择数字人形象并更换克隆音色,一键智能生成字幕并调整校准。剪映下载地址:
2025-02-12
产品经理与转变为ai产品经理,需要哪些步骤
产品经理转变为 AI 产品经理,需要以下步骤: 1. 学习技术原理:了解诸如 RAG(检索增强生成)、PAL(程序辅助语言模型)、ReAct 框架等相关技术知识。RAG 是将外部知识库切分成段落后转成向量存在向量数据库,用户提问时段落信息会和问题一起传给 AI,还可搭建企业和个人知识库。PAL 不让 AI 直接生成计算结果,而是借助 Python 解释器等工具。ReAct 框架是 reason 与 action 结合,让模型动态推理并与外界环境互动,可借助 LangChain 等框架简化构建流程。 2. 关注技术脉络:关注或直接阅读技术论文,虽然有难度,但这对于理解技术很重要,同时要完成一定的知识储备。 3. 了解前沿观点:例如 Transformer 是仿生算法的阶段性实现,未来可能不再使用;在端到端算法时代,不应继续使用冯诺依曼架构;在存算一体的芯片上会诞生全新算法等。 总之,转型需要不断学习和积累相关知识,关注行业动态和前沿观点。
2025-02-12
我想给我的品牌设计一整套的门店设计方案,现在哪个AI工具最合适,我需要中国内地的AI工具
以下是一些适合用于品牌门店设计的中国内地 AI 工具: 1. 藏师傅推荐的流程:通过获取 Logo 图片的描述、生成图片提示词,并输入 Comfyui 工作生成。相关链接:https://www.coze.cn/s/iDec2U13/ 2. 月度榜单中的相关工具: 美图公司的开拍,具有视频生成功能。 贝因科技的妙笔工坊,属于原生个人助理。 惊叹科技的 TalkAI 练口语,用于教育。 美图公司的美图设计室,具备图片生成功能。 秘塔网络的秘塔 AI 搜索,属于智慧搜索。 3. 生成 Logo 的 AI 产品: Looka:在线 Logo 设计平台,根据用户品牌信息和设计偏好生成方案。 Tailor Brands:通过回答问题生成 Logo 选项。 Designhill:基于用户输入生成个性化 Logo 设计。 LogoMakr:提供简单易用的设计工具和 AI 建议。 Canva:提供模板和元素,有 AI 辅助设计建议。 LogoAI by Tailor Brands:根据输入快速生成 Logo 方案。 标小智:中文 AI Logo 设计工具。 您可以访问网站的 AI 生成 Logo 工具版块获取更多好用的工具:https://waytoagi.com/category/20 。在选择工具时,建议您根据自身品牌理念和视觉偏好进行尝试和定制。
2025-02-11
用AI处理销售数据需要写代码吗
用 AI 处理销售数据不一定需要写代码,这取决于具体的情况和所使用的工具。 Python 是常用于自动化处理数据的语言之一,在处理销售数据时,它有丰富的库可用于各种任务,如数据收集、处理等。相关的 AI 脚本提示可按照操作意图分类,例如 Web Scraping Prompts、Data Processing Prompts 等。 如果您不熟悉代码,ChatGPT 等工具也能在一定程度上帮助您处理销售数据。 另外,让 AI 写出您想要的代码时,可通过创建优质的.cursorrules 来明确相关要求,例如说明自己是谁、要做什么、项目的规矩、文件存放位置、使用的工具、测试方法、参考资料以及 UI 要求等。 在处理数据库相关的销售数据时,若不会写 SQL 代码,可借助 AI 帮忙。例如向豆包提供具体需求,如操作的数据表、执行的操作及相关条件等,它能为您生成相应的 SQL 语句。
2025-02-11