Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

数据算法算力

Answer

以下是关于数据、算法、算力的相关知识:

数据:数据的质量对于生成理想的大模型至关重要,早期大模型存在使用不太合规数据等导致乱说的情况。

算法:算法有技术架构的迭代,如英伟达的显卡辅助模型训练。

算力:算力的字面意思是计算能力,可以直接转化成 GPU 就是算力,电脑里的显卡就是 GPU。一张显卡除了 GPU 外,还有一个很重要的参数是显存。GPU 是一种专门在个人电脑、工作站、游戏机和一些移动设备上做图像和图形相关运算工作的微处理器,其诞生源自对 CPU 的减负,使显卡减少了对 CPU 的依赖,并进行部分原本 CPU 的工作。显存的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。GPU 的生产商主要有 NVIDIA 和 ATI。

Content generated by AI large model, please carefully verify (powered by aily)

References

02-基础通识课

[heading2]总结AI模型及相关进展:讨论了AI模型的基础、最新进展,包括视频生成模型、相关论文,以及AI在诺奖和蛋白质研究领域的应用等。人工智能的发展历程与大语言模型人工智能发展历程:从图灵测试、早期的图灵机器人和ELISA,到IBM的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统,再到OpenAI发布ChatGPT模型,经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段。大模型的基石:大模型由数据、算法、算力构成,算法有技术架构的迭代,如英伟达的显卡辅助模型训练,而数据的质量对生成理想的大模型至关重要。弱智8相关活动:针对弱智8的问题对大模型进行测试,还开展了让大模型回复问题并找出真人回复的活动,且国内大模型的回答能力有很大改进。大语言模型的特点:早期大语言模型回复缺乏情感,如今有所改进,后续将体验几个大模型的回复场景。

02-基础通识课

[heading2]智能章节[00:00](https://waytoagi.feishu.cn/minutes/obcn8c6pm95g22581ei4p1l4?t=0)人工智能的发展历程及决策式模型与生成式AI概念引入本章节首先提到理学奖获得者对神经网络和机器学习的贡献,接着讲述人工智能创作小说的发展、微软同声传译系统等人工智能从实验性到实用性的转变,还提到深度学习算法迭代后的模型发展,最后阐述了大模型的组成以及一些相关概念。[03:33](https://waytoagi.feishu.cn/minutes/obcn8c6pm95g22581ei4p1l4?t=213000)大模型三大基石中的数据、算法与算力及大模型早期的数据合规问题本章节首先提及在本章节和后续共学课程中会涉及相关内容并体验大模型魅力。然后阐述了大模型的三大基石为数据、算法、算力,分别对算法和数据进行讲解,如算法的技术架构迭代,数据方面早期存在使用不太合规数据等导致大模型乱说的情况。[06:40](https://waytoagi.feishu.cn/minutes/obcn8c6pm95g22581ei4p1l4?t=400000)将弱智8问题收录知识库,用多种工具测试并针对其开展活动本章节AJ补充将弱智8的问题收录到知识库,提到有很多人参与其中,还提到马诺。他们用多种工具对这些问题进行测试,问题旨在刁难大模型且最初难住了大模型,不过后来大家根据数据集进行了优化,江南还根据问题进行了调教,还针对这些题目搞了一个活动。[08:32](https://waytoagi.feishu.cn/minutes/obcn8c6pm95g22581ei4p1l4?t=512000)以弱智巴题目开展的人机回复辨认活动及大模型改进情况

你看我这算力如何?(硬件篇)

作者:小鱼干了发布时间:2023-06-30 21:58原文地址:https://mp.weixin.qq.com/s/FTYC4O58xihe6U06B_7x7w微信扫一扫关注该公众号[heading1]算力是什么?[content]算力的字面意思就是计算能力(Computing Power),是随着区块链,AI等概念被反复提及,其实没什么特别的,可以直接转化成GPU就是算力,电脑里的显卡就是GPU,那么算力=显卡可以这样粗暴的理解。哪怕你购买云服务,也是服务商买显卡“租”给你用的意思。而一张显卡除了GPU外,还有一个很重要的参数是显存。GPU:图形处理器(Graphics Processing Unit)又称显示核心、视觉处理器、显示芯片,是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。CPU:中央处理器(Central Processing Unit)作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。显存:也被叫做帧缓存,它的作用是用来存储显卡芯片处理过或者即将提取的渲染数据。如同计算机的内存一样,显存是用来存储要处理的图形信息的部件。GPU的诞生源自对CPU的减负,使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L技术可以说是GPU的标志。GPU的生产商主要有NVIDIA和ATI。

Others are asking
微调所需要的算力计算公式
微调所需算力的计算较为复杂,会受到多种因素的影响。以下是一些相关的要点: 在一些教程中,如“大圣:全网最适合小白的 Llama3 部署和微调教程”,提到微调可能需要购买算力,预充值 50 元。 对于大型语言模型(LLM)的微调,由于模型规模大,更新每个权重可能需要很长时间的训练工作,还需考虑计算成本和服务麻烦。 调整用于微调的超参数通常可以产生产生更高质量输出的模型。例如,在某些情况中,可能需要配置以下内容: 模型:可选择“ada”、“babbage”、“curie”或“davinci”之一。 n_epochs:默认为 4,指训练模型的时期数。 batch_size:默认为训练集中示例数量的 0.2%,上限为 256。 learning_rate_multiplier:默认为 0.05、0.1 或 0.2,具体取决于 final batch_size。 compute_classification_metrics:默认为假,若为 True,在分类任务微调时在每个 epoch 结束时在验证集上计算特定分类指标。配置这些超参数可通过 OpenAI CLI 上的命令行标志传递。
2025-01-06
微调所需要的算力计算公式
微调所需算力的计算较为复杂,会受到多种因素的影响。以下为您提供一些相关信息: 在“大圣:全网最适合小白的 Llama3 部署和微调教程”中提到,微调可能需要预充值 50 元购买算力。 “9.生成式 AI Studio 简介”课程中指出,微调大型语言模型(LLM)时,由于模型规模大,更新每个权重可能需要很长时间的训练工作以及巨大的计算成本。 “微调(Finetuning)”部分提到,调整用于微调的超参数通常可以产生产生更高质量输出的模型。需要配置的超参数包括: model:要微调的基本模型的名称,可选择“ada”、“babbage”、“curie”或“davinci”之一。 n_epochs:默认为 4,指训练模型的时期数。 batch_size:默认为训练集中示例数量的 0.2%,上限为 256。 learning_rate_multiplier:默认为 0.05、0.1 或 0.2,具体取决于 final batch_size。 compute_classification_metrics:默认为假,若为 True,在分类任务微调时会在每个 epoch 结束时在验证集上计算特定指标。 需要注意的是,不同的模型和任务,其算力需求的计算方式可能会有所不同。
2025-01-06
微调所需要的算力计算公式
微调所需算力的计算涉及多个因素,目前没有一个固定的通用公式。但以下是一些相关的要点和参考: 在一些教程中,如“大圣:全网最适合小白的 Llama3 部署和微调教程”,提到微调可能需要预充值购买算力,费用约 50 元。 对于大型语言模型(LLM)的微调,由于模型规模大,更新每个权重可能需要很长时间的训练工作,计算成本较高。 在微调过程中,超参数的配置也会影响算力需求。例如,选择不同的基本模型(如“ada”、“babbage”、“curie”或“davinci”)、设置训练的时期数(n_epochs)、批量大小(batch_size)、学习率乘数(learning_rate_multiplier)等。批量大小通常为训练集中示例数量的 0.2%,上限为 256;学习率乘数默认为 0.05、0.1 或 0.2,具体取决于最终的批量大小。 需要注意的是,不同的模型和具体的微调任务,其算力需求会有所不同。
2025-01-06
现在智算非常火热,大家都在建立智算中心,提供大量的算力,请问一下,这些算力,都是哪些行业,哪些企业在消耗这些算力?
目前消耗大量算力的行业和企业主要包括以下方面: 1. 科技巨头:如 Google 拥有大量的 GPU 和 TPU 算力,用于复杂的推理任务和模型训练。 2. 云计算公司:例如 Amazon 和 Microsoft,其 AI 云计算收入主要来自模型托管。 3. 从事 AI 研发的公司:像 xAI 计划用十万块 H100 连成巨大集群,OpenAI 拉上微软打造算力中心 StarGate。 4. 特定领域的企业:如 Apple 利用自身优势发展边缘和远端混合的组合模型。 对于小公司而言,直接参与基础设施建设机会较小,但为当地企业提供 AI 训练的算力支持,并配备服务团队帮助整理知识、寻找业务场景、做垂直训练和微调等,可能存在一定机会。
2025-01-02
国内有哪些gpu算力平台,支持快速搭建AI大模型预训练环境 和 微调环境
国内的 GPU 算力平台中,支持快速搭建 AI 大模型预训练环境和微调环境的有: 1. 阿里云:提供云计算资源,用户可根据需求租用算力服务。 2. 腾讯云:具备相应的算力支持,为用户提供灵活的选择。 3. 亚马逊 AWS:基础设施提供商建立的“算力集市”,可满足用户的算力需求。 在搭建环境时,通常需要考虑以下步骤: 1. 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,例如可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,英伟达还发布了统一的超算平台 DGX B200,用于 AI 模型训练、微调和推理。它包括 8 个 Blackwell GPU 和 2 个第五代 Intel Xeon 处理器,包含 FP4 精度功能,提供高达 144 petaflops 的 AI 性能、1.4TB 的 GPU 内存和 64TB/s 的内存带宽。但模型训练能耗也是一个关键问题,例如由 8 张 A100 GPU 组成的 DGX 服务器,最大功率达到 6.5 千瓦,运行一小时就会消耗 6.5 度电,若有 1000 台这样的服务器同时运行,每天的电费将达到惊人的 20 万元。
2024-12-14
gpu算力平台
以下是关于 GPU 算力平台的相关信息: NVIDIA 推出全新 GPU 平台 Blackwell,涵盖与 Hopper 兼容的普通系统和与 Grace CPU 连接的专用系统,提供前所未有的算力,有望突破物理极限,为互联网产业注入新动力。配备第五代 NV Link 的全新 Transformer 引擎速度惊人,新型超算的高速运转离不开早期问题检测和替换机制,数据加密也至关重要。全新的 FP8 格式大幅提升计算速度,NVLink 交换芯片实现所有 GPU 同时全速通信,直接驱动铜技术的突破让系统更加经济实惠。训练一个 1.8 万亿参数的 GPT 模型,Blackwell 相比传统方法优势明显,AWS、GCP、Oracle、微软纷纷为 Blackwell 做好准备。Blackwell 惊人的推理能力是 Hopper 的 30 倍,有望成为未来生成式 AI 的核心引擎。 能耗是模型训练的关键问题,一台由 8 张 A100 GPU 组成的 DGX 服务器性能强劲但能耗惊人,运行一小时消耗约 6.5 度电,包括散热每小时约消耗 13 度电。若有 1000 台这样的服务器同时运行,每天电费达 20 万元。对于大多数 AI 创业公司,大规模购买和部署 GPU 充满风险和挑战,但云服务平台为 AI 公司提供了灵活选择。 英伟达发布统一的超算平台 DGX B200,用于 AI 模型训练、微调和推理。它包括 8 个 Blackwell GPU 和 2 个第五代 Intel Xeon 处理器,包含 FP4 精度功能,提供高达 144 petaflops 的 AI 性能、1.4TB 的 GPU 内存和 64TB/s 的内存带宽,使得万亿参数模型的实时推理速度比上一代产品提高 15 倍。目前,亚马逊、谷歌、微软已成为最新芯片超算的首批用户,亚马逊网络服务将建立一个拥有 20,000 GB200 芯片的服务器集群。
2024-12-14
机器学习的子领域包括: 监督学习,常用算法如线性回归、决策树、支持向量机(SVM)。 无监督学习,如聚类、降维等算法。 强化学习,那深度学习是哪一种啊
深度学习是机器学习的一个子领域。 在机器学习中,深度学习是一种利用深度神经网络来学习数据特征和模式的方法。 深度学习的特点包括: 1. 具有复杂的网络结构,如前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)等。 2. 能够自动从大量数据中提取高级特征。 深度学习在图像识别、语音识别、自然语言处理等领域取得了显著的成果。
2025-01-21
不同厂家的AI产品是底层算法不一样吗?比如ChatGPT和豆包
不同厂家的 AI 产品底层算法通常是不一样的。 以常见的 ChatGPT 和豆包为例,ChatGPT 是由 OpenAI 开发的,其底层算法具有独特的特点和优势。而豆包是由字节跳动开发的,也有其自身的算法设计和优化。 在当前的 AI 领域,大多数 AI 应用程序都由大型语言模型(LLMs)驱动,其中只有几个基础模型,由少数几个组织创建。例如 OpenAI 制作了 GPT3.5 和 GPT4,Google 有 Bard 等。 从相关的访问量数据来看,不同的 AI 产品在市场上的表现也有所不同。比如在某些月份,ChatGPT 的访问量较高,而豆包的访问量也在不断变化。但这并不能直接反映其底层算法的差异,只是从侧面反映了它们在用户中的受欢迎程度和使用情况。
2025-01-17
我想知道目前最新、效果最好、代码和模型开源的动作捕捉算法,也叫做人体姿态估计,是哪篇文章
目前最新、效果较好且代码和模型开源的人体姿态估计(动作捕捉算法)相关的研究有以下两篇: 1. 【SD】最强手部识别,controlnet 新预处理器 dw openpose 作者:白马少年|公众号:【白马与少年】 发布时间:20230813 20:00 原文网址:https://mp.weixin.qq.com/s/_RiKxWy9MXt4DUJIKH5w 介绍:在 controlnet 中,手部识别一直使用的是 openpose 预处理器,但复杂手势有时无法识别。新的 dw openpose 预处理器能完美解决手部识别问题,将其放入特定目录即可使用。但需说明的是,目前这个 DW Pose 只是更精确的 openpose 预处理器,未对 ControlNet 的 openpose 模型做改动。 2. YOLONAS Pose:一个开源的实时人体姿态估计模型 应用场景:基于骨骼标记为基础,适用于智慧体育等场景,可对训练过程的姿态、数据、状态等进行统计和管理。 技术类型:视频、AI 学习模型 简介:主要功能是识别图片和视频中人的姿势,能快速处理图像并实时返回姿态数据,适应不同场景和设备。 主要特点: 实时性能:旨在提供实时的姿态估计,适用于需要即时反馈的应用。 高精度:利用神经网络架构搜索(NAS)提高姿态估计的准确性。 优化的网络结构:NAS 自动测试不同网络结构,找到最优模型。
2024-12-31
模态分解算法的详细代码
很抱歉,目前知识库中没有模态分解算法的详细代码。但您可以通过以下途径获取相关代码: 1. 学术研究网站,如 arXiv 等,许多学者会在上面分享他们的研究成果及代码。 2. 相关的开源代码库,如 GitHub 等,您可以通过搜索关键词找到相关项目。 3. 专业的技术论坛,在那里与其他开发者交流,可能会获得有用的信息和代码示例。
2024-12-30
监控视频算法
很抱歉,目前知识库中没有关于监控视频算法的相关内容。但一般来说,监控视频算法涵盖了目标检测、跟踪、行为分析等多个方面。常见的算法包括基于深度学习的目标检测算法,如 YOLO 和 SSD 等,用于识别视频中的人物、车辆等目标;还有基于光流的目标跟踪算法,用于持续跟踪目标的运动轨迹;在行为分析方面,会运用模式识别和机器学习算法来判断异常行为等。如果您能提供更具体的需求,我可以为您提供更有针对性的信息。
2024-12-21
ai算法种类
以下是一些常见的 AI 算法种类: 分类算法:如 Categorization Algorithms、Classification Model 等。 聚类方法:如 Cluster Resolution Feature Selection、ClusterBased Splitting、Clustering Methods 等。 动态规划:如 Dynamic Programming 。 超参数相关:如 Hyperparameter Opimization、Hyperparameters 。 图像相关:如 Image And Speech Recognition、Image Classification、Image Classifier、Image Recognition 。 其他:如 Combined Gradient、Dual Algorithm、Dual Problem 等。
2024-12-19
我是一个AI小白,我使用AI的主要目的是使用这些工具,简化我工作中费时费力的事情,比如:表格的制作,筛选数据;图片的抠图,渲染,产品的口播介绍;日常工厂管理文件的编写及执行步骤;工作手册及岗位绩效的编写;作业指导书的编写
以下是为您整合的相关内容: 对于 AI 小白来说,使用 AI 工具简化工作中的费时费力之事是可行的。 在接触 AI 工具时,对于超出自己理解范围的事情,最简单有效的方法就是尝试。学习新事物,实践比听闻更重要。 比如在 AI 视频制作方面,人物设定与剧本是关键部分,包括主体、动作、场景等要素;分镜处理也较为重要,要考虑用几个镜头表述内容;生成环节如同抽卡,可多尝试,最后进行粗检和后期处理,如 AI 配音剪辑、加过渡滤镜等。小白制作 AI 视频要做好脚本即提示词,有耐心抽卡,并不断提升撰写提示词的能力。撰写提示词时要了解主体、动作、场景,避免使用专有名词和网络名词,给 AI 清晰描述。工具选用方面,没有绝对好的工具,只有适合的,如小白可使用剪映,主力机是 MacBook Pro 可使用 final cut。还可向 ChatGPT 询问获取灵感。 另外,在“AI 布道”活动中发现,AI 工具虽强大能做很多事,但也在其与普通人之间形成了一道墙。AI 是未来必然的方向,其科普还有很长的路要走,但尽可能简单地试用它,能让普通人更快受益。无论是什么身份、什么年龄段的人,都可以尝试使用 AI 工具。 如果您想要跟相关作者交朋友、一起在 AI 路上探寻,欢迎戳这里:
2025-01-30
我想通过dify调整一个客服系统,但是总是不能很好的把知识库里的数据回复完整?
使用 Dify 构建知识库的具体步骤如下: 1. 准备数据: 收集需要纳入知识库的文本数据,包括文档、表格等格式。 对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集: 在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集。 为数据集编写良好的描述,描述清楚数据集包含的内容和特点。 3. 配置索引方式: Dify 提供了三种索引方式供选择:高质量模式、经济模式和 Q&A 分段模式。 根据实际需求选择合适的索引方式,如需要更高准确度可选高质量模式。 4. 集成至应用: 将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用。 在应用设置中,可以配置数据集的使用方式,如是否允许跨数据集搜索等。 5. 持续优化: 收集用户反馈,对知识库内容和索引方式进行持续优化和迭代。 定期更新知识库,增加新的内容以保持知识库的时效性。 总的来说,Dify 提供了一个可视化的知识库管理工具,使得构建和维护知识库变得相对简单。关键步骤包括数据准备、数据集创建、索引配置,以及将知识库集成到应用中并持续优化。需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-01-29
用 ai 来分析数据,附件大小有限制吗
使用 AI 来分析数据时,附件大小通常是有限制的。 对于代码解释器(一种 GPT4 模式),您可以将文件上传到 AI,它可用于执行程序、运行数据分析等,但使用时需要充分了解统计数据和数据以检查其工作。 在 ChatGPT 助力的数据分析中,文中所提到的个性化分析示例使用的均是假数据。在实际业务中处理大量数据时,除了长类型字段有限制外,还需指定允许查询或解析的字段告诉 ChatGPT,结果数据要进一步校验是否符合要求,超长数据可以截取关键字段的内容丢给 GPT 总结分析。 需要注意的是,不同的 AI 工具和应用场景可能会有不同的附件大小限制和数据处理要求。
2025-01-28
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27
AI数据透视工具推荐
以下为您推荐一些可用于数据透视的 AI 工具: 1. Lucidchart:流行的在线绘图工具,支持多种视图创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许创建各种类型图表,包括软件架构图,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。 以下是一些设计工具的排行及相关数据: |排行|产品名|分类|6 月访问量(万 Visit)|相对 5 月变化| |||||| |1|Canva Al|设计工具|55900|0.123| |2|Adobe Firefly|设计工具|928|0.047| |3|CF Spark|设计工具|885|0.023| |4|Microsoft Designer|设计工具|885|0.321| |5|What font is|设计工具|362|0.045| |6|稿定设计|设计工具|247|0.068| |7|墨刀 AI|设计工具|202|0.148| |8|Hotpot.ai|设计工具|198|0.244| |9|vectorizer.ai|设计工具|183|0.042| |10|Wepik by freepik|设计工具|164|0.304| |排行|产品名|分类|4 月访问量(万 Visit)|相对 3 月变化| |||||| |1|Canva Al|设计工具|58640|0.033| |2|CF Spark|设计工具|940|0.118| |3|Adobe Firefly|设计工具|835|0.051| |4|Microsoft Designer|设计工具|612|0.179| |5|What font is|设计工具|348|0.006| |6|Wepik by freepik|设计工具|284|0.295| |7|Hotpot.ai|设计工具|283|0.024| |8|稿定设计|设计工具|264|0.078| |9|Designs AI|设计工具|185|0.167| |10|墨刀 AI|设计工具|179|0.016|
2025-01-26
如何用最简单的方法,训练一个自有数据的大模型
训练自有数据的大模型可以通过以下步骤实现: 1. 了解大模型的概念:大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用上学参加工作来类比大模型的训练、使用过程,包括找学校(需要大量 GPU 等计算资源)、确定教材(需要大量数据)、找老师(选择合适算法)、就业指导(进行微调)、搬砖(推导)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会对输入进行分词并形成词汇表。 2. 基础训练步骤: 进入厚德云模型训练数据集,如 https://portal.houdeyun.cn/sd/dataset 。 创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。可以上传包含图片+标签的 zip 文件,也可单独上传照片,但建议提前打包。Zip 文件里图片名称与标签文件应当匹配,上传后等待一段时间确认创建,返回上一个页面等待上传成功并可点击详情检查,能预览数据集的图片及对应的标签。 Lora 训练:点击 Flux,基础模型会默认是 FLUX 1.0D 版本。选择数据集,触发词可有可无,模型效果预览提示词随机抽取数据集里的标签填入。训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数,可默认 20 重复次数和 10 轮训练轮数,按需求选择是否加速,点击开始训练,会显示所需消耗的算力,等待训练完成,会显示每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有生图,点击可自动跳转到使用此 lora 生图的界面,点击下方下载按钮可自动下载到本地。 3. 部署和训练自己的 AI 开源模型的主要步骤: 选择合适的部署方式,如本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署,根据自身资源、安全和性能需求选择。 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 选择合适的预训练模型作为基础,如开源的预训练模型 BERT、GPT 等,也可自行训练基础模型。 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 总的来说,训练自有数据的大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-01-24