直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

本地安装大模型的硬件配置是什么

回答

本地安装大模型的硬件配置如下:

  • 生成文字大模型:
    • 最低配置:8G RAM + 4G VRAM
    • 建议配置:16G RAM + 8G VRAM
    • 理想配置:32G RAM + 24G VRAM(如果要跑 GPT-3.5 差不多性能的大模型)
  • 生成图片大模型(比如跑 SD):
    • 最低配置:16G RAM + 4G VRAM
    • 建议配置:32G RAM + 12G VRAM
  • 生成音频大模型:
    • 最低配置:8G VRAM
    • 建议配置:24G VRAM

例如,Fooocus 本地部署需要不低于 8GB 的内存和 4GB 的英伟达显卡。但需注意,最低配置可能运行非常慢。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

手把手教你本地部署大模型以及搭建个人知识库

所有人都会手把手教你部署XX大模型,听起来很诱人,因为不需要科学上网,不需要高昂的ChatGPT会员费用。但是在开启下面的教程之前,我希望你能有个概念:运行大模型需要很高的机器配置,个人玩家的大多数都负担不起所以:虽然你的本地可能可以搭建出一个知识库,但是它不一定能跑的起来下面我通过一组数据来让大家有个感性的认知。以下文字来源于视频号博主:黄益贺,非作者实操生成文字大模型最低配置:8G RAM + 4G VRAM建议配置:16G RAM + 8G VRAM理想配置:32G RAM + 24G VRAM(如果要跑GPT-3.5差不多性能的大模型)生成图片大模型(比如跑SD)最低配置:16G RAM + 4G VRAM建议配置:32G RAM + 12G VRAM生成音频大模型最低配置:8G VRAM +建议配置:24G VRAM而最低配置我就不建议了,真的非常慢,这个我已经用我自己8G的Mac电脑替你们试过了。讲这个不是泼大家冷水,而是因为我的文章目标是要做到通俗易懂,不希望通过夸大的方式来吸引你的眼球。这是这篇文章的第二次修改,我专门加的这段。原因就是因为好多小伙伴看了文章之后兴致冲冲的去实验,结果发现电脑根本带不动。但是这并不妨碍我们去手把手实操一遍,因为实操可以加深我们对大模型构建的知识库底层原理的了解。如果你想要私滑的体验知识库,可以参考我的另一篇文章:[胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)好了,废话不多说,下面教程还是值得亲自上手搞一遍的,相信走完一遍流程后,你会对知识库有更深的理解。

【SD】SD的大哥Fooocus重磅问世,三步成图傻瓜式操作

Fooocus使用的是最新推出的SDXL 1.0模型,对stable diffusion和Midjourney做了结合升级:1、保留了SD的开源属性,可以部署到本地免费使用;2、在操作界面吸取了midjourney简洁,省去了WebUI中复杂的参数调节,让用户可以专注于提示和图像。下图就是Fooocus的操作界面。翻译一下:只有图像展示窗口、正向提示词和生成按钮3项。勾选“Advanced”会弹出高级设置的窗口,可以调整画面宽高比、风格、图像数量、种子值、反向提示词、模型、lora权重比值、图像锐利程度等。风格选项这一块是整合了各种常见的画面风格供选择,包含了100多种不同的预设风格,涉及写实、胶片、电影质感、动漫、水彩、黏土、3D、等距、像素、霓虹、赛博朋克、波普、纸艺等各个方面:高级选项这部分是用于设置模型,lora,清晰度等。非常简单且容易上手,很值得试一试。二、Fooocus安装:配置要求:本地部署,需要不低于8GB的内存和4GB的英伟达显卡。Fooocus介绍/安装包下载:https://github.com/lllyasviel/Fooocus(文末领取软件+模型整合包:16G)使用指南:https://github.com/lllyasviel/Fooocus/discussions/117大模型(base和Refiner)默认放在这里:\Fooocus_win64_1-1-10\Fooocus\models\checkpoints

【SD】向未来而生,关于SDXL你要知道事儿

SDXL的大模型分为两个部分:第一部分,base+refiner是必须下载的,base是基础模型,我们使用它进行文生图的操作;refiner是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。第二部分,是SDXL还有一个配套的VAE模型,用于调节图片的画面效果和色彩。这三个模型,我已经放入了云盘链接中,大家可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。想要在webUI中使用SDXL的大模型,首先我们要在秋叶启动器中将webUI的版本升级到1.5以上。接下来,将模型放入对应的文件夹中,base和refiner放在“……\sd-webui-aki-v4.2\models\Stable-diffusion”路径下;vae放在“……\sd-webui-aki-v4.2\models\VAE”路径下。完成之后,我们启动webUI,就可以在模型中看到SDXL的模型了。我们正常的使用方法是这样的:先在文生图中使用base模型,填写提示词和常规参数,尺寸可以设置为1024*1024,进行生成。我这边使用了一个最简单的提示词“1girl”,来看看效果。生成的图片大家可以看一下,我觉得是相当不错的。我知道大家心里可能会想——“就这,还好吧,也没有那么惊艳吧?”,那么,我用同样的参数再给你画一幅sd1.5版本的图像,你就能看出进步有多大了。是不是没有对比就没有伤害?SDXL,真香!还没完,我们到现在还只使用了一个base模型,接下来,将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。

其他人在问
AI硬件
以下是关于 AI 硬件的相关信息: AI Native 产品: AI Pin:由 Humane 公司开发的可穿戴设备,通过激光投影技术在手掌显示信息,由高通 Snapdragon 芯片驱动,运行 OpenAI 的 GPT4 语言模型,集成麦克风、摄像头和传感器,能语音通话、上网和回答问题,注重隐私保护,价格高昂,市场接受度可能受影响。 TAB AI:挂在脖子上的小冰盘,本质是麦克风和电池,使用蓝牙传输音频到手机和云端,ChatGPT 转录对话,各种人工智能模型提取见解,被称为“人工智能伴侣”或“clarity machine”。 OpenAI 和 Lovefrom 在软银 10 亿美元融资开发的“人工智能 iPhone”。 主流 AI 笔记本电脑: 截止 2024 年 5 月,主流的 AI 笔记本电脑是为人工智能和深度学习设计的高性能移动工作站,通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存和高速固态硬盘。 知名品牌包括:微软(Microsoft)第 11 代 Surface Pro、微星(MSI)Creator/Workstation 系列、技嘉(GIGABYTE)Aero/Aorus 系列、戴尔(Dell)Precision 移动工作站、惠普(HP)ZBook 移动工作站、联想(Lenovo)ThinkPad P 系列。 一般采用英特尔酷睿或 AMD Ryzen 的高端移动 CPU,配备 NVIDIA RTX 30/40 系列或 AMD Radeon Pro 专业级 GPU,提供大容量内存和高速 NVMe SSD 存储选配,预装 NVIDIA CUDA、cuDNN 等深度学习框架和 AI 开发工具。 价格相对较高,通常在 2000 美元以上,用户需根据自身需求和预算选择,同时关注散热、续航等实际使用体验。 GenAI 硬件 TikTok 热度总榜: RayBan Meta Smart Glasses:眼镜,Meta 和 RayBan 出品,180000 个 TT 作品,价格 299 美元。 Vision Pro:眼镜,苹果出品,38600 个 TT 作品,价格 3999 美元。 cozmo:玩具机器人,Digital Dream Labs 出品,10500 个 TT 作品,价格 399 美元。 Lovot:玩具机器人,GROOVE X 出品,5931 个 TT 作品,价格 9000 美元。 Optimus:大型机器人,特斯拉出品,2641 个 TT 作品。 AI pin:吊坠,Humane 出品,1200 个 TT 作品,价格 699 美元。 PLAUD:录音机,Smart connection 出品,1072 个 TT 作品,价格 159 美元。 RabbitR1:吊坠,Rabbit Inc 出品,1048 个 TT 作品,价格 199 美元。 Loona:玩具机器人,KEYi Tech 出品,753 个 TT 作品,价格 449 美元。 Timekettle WT2:耳机,Timekettle 出品,751 个 TT 作品,价格 299 美元。 OrCam MYEYE:眼镜,OrCam 出品,532 个 TT 作品,价格 4250 美元。 Jibo:玩具机器人,Ling Technology 出品,492 个 TT 作品,价格 749 美元。 LOOI:玩具机器人,TangibleFuture 出品,400 个 TT 作品,价格 129 美元。 Pixel Buds Pro:耳机,谷歌出品,393 个 TT 作品,价格 199 美元。
2024-11-12
AI硬件
以下是关于 AI 硬件的相关信息: AI Native 产品: AI Pin:由 Humane 公司开发的可穿戴设备,通过激光投影技术在用户手掌上显示信息,由高通 Snapdragon 芯片驱动,运行 OpenAI 的 GPT4 语言模型,集成了麦克风、摄像头和传感器,能进行语音通话、上网和回答问题,注重隐私保护,配备“信任灯”功能,价格高昂,市场竞争可能影响其接受度。计划通过扩展功能和开放平台成为日常生活的智能伴侣,网址:https://hu.ma.ne/ TAB AI:挂在脖子上的小冰盘,本质上是麦克风和电池,使用蓝牙将音频传输到手机并传输到云端,ChatGPT 在云端转录对话,各种人工智能模型提取见解,是一个人工智能伴侣或“clarity machine”,网址:https://twitter.com/AviSchiffmann/status/1708439854005321954 主流 AI 笔记本电脑: 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是为人工智能和深度学习设计的高性能移动工作站。通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存和高速固态硬盘。知名品牌包括: 1. 微软(Microsoft)第 11 代 Surface Pro 2. 微星(MSI)Creator/Workstation 系列 3. 技嘉(GIGABYTE)Aero/Aorus 系列 4. 戴尔(Dell)Precision 移动工作站 5. 惠普(HP)ZBook 移动工作站 6. 联想(Lenovo)ThinkPad P 系列 这些笔记本一般采用英特尔酷睿或 AMD Ryzen 的高端移动 CPU,配备 NVIDIA RTX 30/40 系列或 AMD Radeon Pro 专业级 GPU,提供大容量内存和高速 NVMe SSD 存储选配,预装 NVIDIA CUDA、cuDNN 等深度学习框架和各种 AI 开发工具。价格相对较高,通常在 2000 美元以上。用户应根据自身需求和预算选择,同时关注散热、续航等实际使用体验。 GenAI 硬件 TikTok 热度总榜: |No.|Name|Classification|Company|Number of TT works|Price| ||||||| |1|RayBan Meta Smart Glasses|Glasses|Meta and RayBan|180000|299| |2|Vision Pro|Glasses|apple|38600|3999| |3|cozmo|Toy robot|Digital Dream Labs|10500|399| |4|Lovot|Toy robot|GROOVE X|5931|9000| |5|Optimus|Bodysize robot|Tesla|2641| | |6|AI pin|Pendant|Humane|1200|699| |7|PLAUD|Recorder|Smart connection|1072|159| |8|RabbitR1|Pendant|Rabbit Inc|1048|199| |9|Loona|Toy robot|KEYi Tech|753|449| |10|Timekettle WT2|Headphones|Timekettle|751|299| |11|OrCam MYEYE|Glasses|OrCam|532|4250| |12|Jibo|Toy robot|Ling Technology|492|749| |13|LOOI|Toy robot|TangibleFuture|400|129| |14|Pixel Buds Pro|Headphones|GOOGLE|393|199|
2024-11-07
AI硬件
以下是关于 AI 硬件的相关信息: AI Native 产品:有基础模型可学习用户在特定应用中的意图和行为,模仿并执行操作,如使用图片编辑软件去除水印。 AI Pin:由 Humane 公司开发的可穿戴设备,通过激光投影技术在用户手掌上显示信息,由高通 Snapdragon 芯片驱动,运行 OpenAI 的 GPT4 语言模型,集成了麦克风、摄像头和传感器,能进行语音通话、上网和回答问题,注重隐私保护,配备“信任灯”功能,但价格高昂且面临市场竞争。 诗相机:所需硬件包括 2 个不同颜色的按钮、2 根快速连接线,还需要杂项设备如剪线钳、剥线钳和跨接电缆。 大模型与现有终端融合形态探讨:软件产品经理和硬件产品经理属于不同领域,硬件需要前期大量投入,如工业化设计、3D 冲压模型、招聘硬件团队进行 SDK 调用等,在高并发或长时间使用时构建复杂。AI 硬件是复杂的系统性工程,涉及从设计 PCB 线路板等电子设计流程到供应链中上下游工厂的配合等开发流程。
2024-08-22
我现在想让ai给出计算机硬件配置,然后从京东商城上检索,得到价格,然后给出一个配置单。我想问问大家这个怎么解决?
目前要实现您描述的这个需求具有一定的复杂性。首先,让 AI 直接给出准确的计算机硬件配置并从京东商城上检索价格存在一些技术挑战。因为这需要 AI 具备对计算机硬件的深入了解、与京东商城数据接口的对接以及价格实时更新的处理能力。 从技术实现的角度来看,可能需要以下步骤: 1. 训练一个专门针对计算机硬件配置的 AI 模型,使其能够根据用户的需求和预算生成合理的硬件配置清单。 2. 开发与京东商城的接口程序,以获取实时的商品价格信息。 3. 将生成的配置清单与获取的价格信息进行整合,生成最终的配置单。 但需要注意的是,京东商城的数据接口可能不对外开放,获取价格信息可能存在法律和合规方面的限制。同时,这样的系统开发需要较高的技术水平和资源投入。
2024-08-20
本地安装 comfyui 电脑的硬件配置推荐
以下是关于本地安装 ComfyUI 电脑的硬件配置推荐: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 此外,对于 ComfyUI 安装,建议使用不少于 16GB 内存,并有 60GB 以上的硬盘空间。需要用到 CUDA 架构,推荐使用 N 卡。过度使用显卡会有损坏的风险。进行 512x 图片生成时主流显卡速度也存在差异。
2024-08-13
AI语音翻译硬件
根据搜索结果,以下是一些推荐的语音翻译硬件设备: 1. 科大讯飞翻译机 4.0: 科大讯飞作为AI翻译产品的开创者,拥有23年的技术积累。 支持83种语言在线即时翻译,包括中文、英语、日语、韩语、俄语、法语等。 具备手动和自动两种翻译模式,适用于不同场景。 设备搭载8核高速处理器和4麦克风阵列,集成讯飞降噪算法,翻译速度快且准确。 支持面对面翻译和拍照翻译功能,满足多样化的翻译需求。 设备外观设计简约大气,便于携带。 2. Telelingo 实时电话翻译 : Telelingo使用先进的AI技术实时翻译对话,提供无缝的实时翻译体验。 支持80多种语言的翻译,包括常见语言和独特方言。 采用完全按需付费模式,无隐藏费用,用户只需支付所使用的分钟数。 3. POCKETALK 实时翻译器 : POCKETALK是一款价格合理的实时翻译器,带有小型触摸屏,方便用户浏览和操作。 该设备也支持多种语言的即时翻译,适合出国旅游或国际交流使用。 这些设备通过集成先进的语音识别和机器翻译技术,可以帮助用户在不同语言环境下实现有效沟通。在选择时,用户应考虑支持的语种数量、翻译准确性、设备便携性、价格以及是否支持离线翻译等因素。
2024-06-11
大模型排名以及排名的评测标准维度是什么
以下是一些常见的大模型排名及评测标准维度: FlagEval(天秤)大模型评测体系及开放平台: 地址: 简介:旨在建立科学、公正、开放的评测基准、方法、工具集,协助研究人员全方位评估基础模型及训练算法的性能,同时探索利用 AI 方法实现对主观评测的辅助,大幅提升评测的效率和客观性。创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval: 地址: 简介:构造了一个覆盖人文,社科,理工,其他专业四个大方向,52 个学科(微积分,线代…),从中学到大学研究生以及职业考试,一共 13948 道题目的中文知识和推理型测试集。此外还给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb: 地址: 简介:中文通用大模型匿名对战评价基准,这是一个中文通用大模型对战评价基准,它以众包的方式提供匿名、随机的对战。他们发布了初步的结果和基于 Elo 评级系统的排行榜。 斯坦福发布的大模型排行榜 AlpacaEval: 项目链接:https://github.com/tatsulab/alpaca_eval 排行榜链接:https://tatsulab.github.io/alpaca_eval/ 该研究团队选择了目前在开源社区很火的开源模型,还有 GPT4、PaLM 2 等众多「闭源」模型,甚至还开设了一个「准中文」排行榜。 AlpacaEval 分为以 GPT4 和 Claude 为元标注器的两个子榜单。 在斯坦福的这个 GPT4 评估榜单中: GPT4 稳居第一,胜率超过了 95%;胜率都在 80%以上的 Claude 和 ChatGPT 分别排名第二和第三,其中 Claude 以不到 3%的优势超越 ChatGPT。 值得关注的是,获得第四名的是一位排位赛新人——微软华人团队发布的 WizardLM。在所有开源模型中,WizardLM 以仅 130 亿的参数版本排名第一,击败了 650 亿参数量的 Guanaco。 而在开源模型中的佼佼者 Vicuna 发挥依然稳定,凭借着超过 70%的胜率排在第六,胜率紧追 Guanaco 65B。 最近大火的 Falcon Instruct 40B 表现不佳,仅位居 12 名,略高于 Alpaca Farm 7B。 AlpacaEval 的技术细节: 人类一致性:标注者与交叉标注集中人类多数票之间的一致性。 价格:每 1000 个标注的平均价格。 时间:计算 1000 个标注所需的平均时间。相对于人工标注,全自动化的 AlpacaEval 仅需花费约 1/22 的经济成本和 1/25 的时间成本。 AlpacaEval 评估模型的方式: alpaca_eval:直接根据目标模型输出的响应来评估模型。 alpaca_eval evaluate_from_model:根据 HuggingFace 已注册模型或这 API 提供商来端到端评测模型。 评测过程分为以下 3 步: 1. 选择一个评估集,并计算指定为 model_outputs 的输出。默认情况下,使用来自 AlpacaEval 的 805 个示例。 2. 计算 golden 输出 reference_outputs。默认情况下,在 AlpacaEval 上使用 textdavinci003 的输出。 3. 通过 annotators_config 选择指定的自动标注器,它将根据 model_outputs 和 reference_outputs 计算胜率。这里建议使用 alpaca_eval_gpt4 或 claude。根据不同的标注器,使用者还需要在环境配置中设定 API_KEY。
2024-11-12
从0到1学习大模型知识
以下是从 0 到 1 学习大模型知识的相关内容: 什么是大模型: 通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会对输入进行数字化形成词汇表。 大模型如何运作: 打个比方,“我今天吃了狮子头和蔬菜”这句话,在 transformer 中,会由 attention 层对其加入更多信息补充,如“狮子头是一道菜”“今天是星期六”等,这些补充信息会作为输入给到下一个 attention 层,最终哪些信息补充、保留、传递由模型自主学习。层与层之间就像人阅读文章时的连贯性注意力过程,大模型以词向量和 transformer 模型学习海量知识,把知识作为向量空间中的关系网存储,接受输入时通过向量空间中的匹配进行输出。这个过程像人脑阅读学习,记忆的不是逐字逐句,而是按相关性、重要程度结合历史经验,比如看到红色会觉得代表温暖、强烈。 大模型的整体架构: 从整体分层角度,大模型架构可分为以下几层: 1. 基础层:为大模型提供硬件支撑、数据支持,如 A100、数据服务器等。 2. 数据层:分为静态的知识库和动态的三方数据集,不是用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据。 3. 模型层:包括 LLm(largelanguagemodel,如 GPT,一般使用 transformer 算法实现)或多模态模型(如文生图、图生图等,训练数据与 llm 不同,用图文或声音等多模态数据集)。 4. 平台层:如大模型的评测体系或 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:即应用层,是用户实际看到的地方。
2024-11-12
在comyui中,使用flux1-dev模型24g显存够吗
在 ComfyUI 中使用 Flux1dev 模型,24G 显存是可以的,但建议内存尽量高于 32G 以避免意外情况的发生。如果您的显卡是 24G 或更高,右键 24G 那个 train_flux_24GLora 的文件。修改脚本路径和参数时,要注意底模路径、VAE 路径、数据集路径,还有下面的 clip 路径和 T5xxl 路径的正确填写。ae.safetensors 和 flux1dev.safetensors 的下载地址为:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b ,百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。最后下载 dev 的工作流: ,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,打开 ComfyUI 把工作流或图片拖拽到其中即可。
2024-11-12
在comyui中,使用flux1-dev模型需要多少显存
在 ComfyUI 中使用 flux1dev 模型所需的显存情况如下: 相关模型的下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 对于 GPU 性能不足、显存不够的情况,底模可以使用 fp8 的量化版模型,下载地址为:https://huggingface.co/Kijai/fluxfp8/tree/main 。 低显存方案(8G 以下):flux1devbnbnf4.safetensors ,放入 ComfyUI\\models\\checkpoints 文件夹内,下载链接为 https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors 。 此外,还提供了以下相关资源链接: BitsandBytes Guidelines and Flux :https://github.com/lllyasviel/stablediffusionwebuiforge/discussions/981 ComfyUI_bitsandbytes_NF4 节点:https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4
2024-11-12
怎么训练自己的小说大纲模型
训练自己的小说大纲模型可以参考以下步骤: 步骤一:创建数据集 1. 进入厚德云模型训练数据集,网址为:https://portal.houdeyun.cn/sd/dataset 。 2. 在数据集一栏中,点击右上角创建数据集。 3. 输入数据集名称。 4. 可以上传包含图片+标签的 zip 文件,也可以只有图片没有打标文件(之后可在 c 站使用自动打标功能)。 5. 也可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 6. Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 7. 上传 zip 以后等待一段时间。 8. 确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 步骤二:Lora 训练 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。 4. 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 5. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 6. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 7. 然后等待训练,会显示预览时间和进度条。训练完成的会显示出每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 步骤三:Lora 生图 1. 点击预览模型中间的生图会自动跳转到这个页面。 2. 模型上的数字代表模型强度,可以调节大小,正常默认为 0.8,建议在 0.6 1.0 之间调节。 3. 也可以自己添加 lora 文件,点击后会显示训练过的所有 lora 的所有轮次。 4. VAE 不需要替换。 5. 正向提示词输入写的提示词,可以选择基于这个提示词一次性生成几张图。 6. 选择生成图片的尺寸,横板、竖版、正方形。 7. 采样器和调度器新手小白可以默认不换。 8. 迭代步数可以按照需求在 20 30 之间调整。 9. CFG 可以按照需求在 3.5 7.5 之间调整。 10. 随机种子 1 代表随机生成图。 11. 所有设置都好了以后,点击开始生态,生成的图会显示在右侧。 12. 如果有哪次生成结果觉得很不错,想要微调或者高分辨率修复,可以点开那张图,往下滑,划到随机种子,复制下来,粘贴到随机种子这里,这样下次生成的图就会和这次的结果近似。 13. 如果确认了一张很合适的种子和参数,想要高清放大,则点开高清修复,可以选择想放大的倍数。新手小白可以就默认这个算法,迭代步数也是建议在 20 30 之间,重回幅度根据需求调整,正常来说在 0.3 0.7 之间调整。 今日作业 按照比赛要求,收集六个主题中一个主题的素材并且训练出 lora 模型后提交 lora 模型与案例图像。提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd 。 另外,直接在 Comfy UI 中训练 LoRA 模型的步骤如下: 1. 确保后面有一个空格。然后将 requirements_win.txt 文件拖到命令提示符中(如果在 Windows 上;否则,选择另一个文件 requirements.txt)。拖动文件将在命令提示符中复制其路径。 2. 按 Enter 键,这将安装所有所需的依赖项,使其与 ComfyUI 兼容。请注意,如果为 Comfy 使用了虚拟环境,必须首先激活它。 3. 教程: 图像必须放在一个以命名的文件夹中。那个数字很重要:LoRA 脚本使用它来创建一些步骤(称为优化步骤…但别问我是什么^^’)。它应该很小,比如 5。然后,下划线是必须的。 对于 data_path,必须写入包含数据库文件夹的文件夹路径。例如:C:\\database\\5_myimages ,必须写 C:\\database 。 对于参数,在第一行,可以从 checkpoint 文件夹中选择任何模型。据说必须选择一个基本模型进行 LoRA 训练。但也可以尝试使用微调。
2024-11-12
怎么训练自己的模型
训练自己的模型可以参考以下内容: 基于百川大模型: 选择 Baichuan27BChat 模型作为底模,配置模型本地路径和提示模板。 在 Train 页面里,选择 sft 训练方式,加载定义好的数据集(如 wechat 和 self_cognition)。 注意学习率和训练轮次的设置,要根据数据集大小和收敛情况来调整。 使用 FlashAttention2 可减少显存需求,加速训练速度。 显存小的情况下,可以减少 batch size 并开启量化训练,内置的 QLora 训练方式好用。 需要用到 xformers 的依赖。 显存占用约 20G 左右,训练时间根据聊天记录规模大小而定,少则几小时,多则几天。 训练自己的 AI 绘画模型(Stable Diffusion): 样本采样器(sample_sampler):可选择,默认是“ddim”。 保存模型格式(save_model_as):可选择,SD WebUI 兼容"ckpt"和"safetensors"格式模型。 训练流程主要包括: 训练集制作:数据质量评估、标签梳理、数据清洗、标注、标签清洗、增强等。 训练文件配置:预训练模型选择、训练环境配置、训练步数及其他超参数设置等。 模型训练:运行训练脚本,使用 TensorBoard 监控。 模型测试:用于效果评估与消融实验。 训练资源: Rocky 整理优化过的 SD 完整训练资源 SDTrain 项目,可通过关注公众号 WeThinkIn,后台回复“SDTrain”获取。
2024-11-12
SD安装包
以下是关于 SD 安装包的详细步骤: 1. SD 云端部署 部署流程 安装和配置基础环境 在浏览器上按照腾讯云>控制台>云服务器的路径找到购买的实例,点击启动,会新开一个远程访问的窗口,输入购买时设置的密码进入,这样就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量。 安装显卡驱动:用内置的 IE 或下载 Chrome,打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动并安装。 配置环境变量:驱动安装完成后,先找到驱动所在的目录(一般是在「C:\\Program Files\\NCIDIA Corporation」),复制这个路径。找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量。找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,粘贴刚才复制的 nvidia 驱动安装地址,保存即可。 下载安装 SD 整合包 整合包也就是打包了 SD 和 Web UI 方便大家更好的使用的集合,以秋叶的 SD 整合包举例讲解。 下载 SD 整合包:秋叶 SD 整合包下载地址:https://pan.baidu.com/s/1uavAJJdYYWhpnfjwQQDviQ?pwd=a123 ,提取码:a123 。建议在服务器上装个百度网盘或者其他能够提高下载速度的工具,有百度会员则无所谓。 安装 SD 整合包:安装之后,打开安装包一级目录,双击启动器运行依赖(安装一些 SD 运行所必要的基础环境,比如 Microsoft Desktop Runtime 等),安装完成后就可以启动 SD 了。 2. 补充说明 如果在以上使用过程中发生错误,那么可能需要部署一下使用环境,再次开启最傻瓜安装教学模式。 安装 cuda_11.8.0_522.06_windows.exe。 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。(如果安装过 roop 的可以跳过) 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 重启,装好了,重启电脑,即可运行。 请注意,如果想要获取插件安装包,可以添加公众号【白马与少年】,回复【SD】即可。
2024-11-11
python安装后文本文档改为".py"后跳转不到IDLE
很抱歉,目前知识库中没有关于“python 安装后文本文档改为‘.py’后跳转不到 IDLE”这一问题的相关内容。但通常情况下,出现这种情况可能是以下原因导致的: 1. 文件关联设置问题:您的系统可能没有正确将.py 文件与 IDLE 关联,您可以检查系统的文件关联设置。 2. IDLE 配置问题:IDLE 的配置可能存在异常,您可以尝试重新安装或配置 IDLE。 3. 环境变量问题:Python 的环境变量设置不正确也可能导致此问题,您需要确认环境变量是否正确配置。 建议您逐一排查以上可能的原因,以解决该问题。
2024-11-10
如何安装SD
安装 SD 的步骤如下: 1. 系统要求:系统需为 Win10 或 Win11。 2. Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查自己的电脑配置能否带动 SD的显卡;显卡内存 4GB 以上。 打开任务管理器:同时按下 ctrl+shift+esc。 查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标跳转至对应安装教程页: 4. 配置不够可选择云端部署(Mac 也推荐云端部署): 5. 备选:SD 好难,先试试简单的无界 AI: 此外,还有以下相关插件的安装: 1. 【SD】无需 Lora,一键换脸插件 Roop: 安装时间比较长,要耐心等待。 安装好之后,打开 SD 文件目录下的这个文件夹。 在地址栏输入“cmd”,然后回车。 在打开的 dos 界面里面,将“python m pip install insightface==0.7.3 user”粘贴进来,就会自动开始安装 insightface。 如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新到云盘,后台回复【SD】即可下载。 安装完成后,重新打开启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。 完成这些后,Roop 插件就可以正常使用。 2. 【SD】商业换装如此简单,Segment Anything 保姆级教学: 补充说明:如果在使用过程中发生错误,可能需要部署使用环境。 安装 cuda_11.8.0_522.06_windows.exe。 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装(安装过 Roop 的可跳过)。 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 最后:重启电脑,即可运行。 特别提醒:相关插件使用需谨慎,切勿触犯法律。获取插件安装包,可添加公众号【白马与少年】,回复【SD】。
2024-11-10
本地安装大模型使用4060显卡和4060TI显卡有什么区别
在本地安装大模型时,4060 显卡和 4060TI 显卡主要有以下区别: 显存方面:显存是选择显卡的重要因素。4060 显卡的显存通常小于 4060TI 显卡。对于一些对显存要求较高的任务,如生成更大分辨率的超清图片、使用更高的参数进行 Dream booth 微调等,4060TI 显卡的大显存更具优势。 生成速度方面:4060TI 显卡的速度比 4060 显卡快。但在某些情况下,如果显存不足导致无法执行任务,速度稍慢就显得不那么重要了。 总体而言,在预算允许的情况下,16GB 的 4060TI 显卡由于其较大的显存,可以执行更多样的 AI 生成任务。但如果预算有限,4060 显卡也是一个可行的选择。
2024-11-06
如何安装AUTOGLM
AutoGLM 目前处于内测阶段,安装步骤如下: 1. 申请入口在智谱清言 APP 中,直接跟 AutoGLM 内测申请小助手对话提交申请即可。智谱将传统表单的提交通过 Tools 的方式做到了对话中,体验提升很多。 2. 目前只能在安卓设备上使用,iOS 很长时间内都不会支持。 3. 因为数据的获取和操作是通过安卓的无障碍权限来控制的,所以在登录 AutoGLM 后的第一件事情就是引导您去开启无障碍权限和悬浮球权限,不然无法继续体验。无障碍服务(AccessibilityService)是一套可以模拟操作的系统级别的 API。用户同意应用获取无障碍服务的权限之后就可以模拟操作,来控制用户的手机。但开启无障碍服务可能会引起手机卡顿和存在隐私问题。在权限授权正常之后,您就会进入到首页。
2024-11-04
如何安装MIDJOURNEY
安装 Midjourney 可以参考以下步骤: 1. 接入模式选择: 有两种接入模式,分别是:https://github.com/mouxangithub/midjourneyproxyonwechat ;https://github.com/zhayujie/chatgptonwechat/tree/master/plugins/linkai 。选用第二种相对简单且便宜。 2. 实操准备: 在此之前需要安装 chatgptonwechat 和 sum4all 的插件。接入 Midjourney 也是将插件安装在 chatgptonwechat 的 plugins 库中,通过填写模型、key 来实现调用,此次还多了一个 code,操作可能较麻烦,但请相信不难。 3. 注册 Linkai: 打开 https://linkai.tech/home?share=iaPC2x ,在应用接入中创建您的 API Key 。 打开应用市场选择 Midjourney 右上角分享中有 code 地址。 4. 修改相关配置文件: 修改/root/chatgptonwechat/plugins/linkai 中的 config.j 。 修改/root/chatgptonwechat/plugins 中的 config.json 。 修改/root/chatgptonwechat 中的 config.json 。 调试好以上步骤后,即可进入微信对话页面开启插件。
2024-11-03
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04
帮我找一下comfyui的配置方法
以下是关于 ComfyUI 的配置方法: 硬件配置: 相比 WebUI,ComfyUI 配置更低,系统资源占用更少,出图速度更快。最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD(固态硬盘)上。如果电脑能顺畅清晰地玩 3A 游戏,那玩 webui 和 ComfyUI 也没问题。配置上不封顶,根据自己的需求和预算来即可。 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 环境安装: 依次下载并安装 Python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装的时候选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。
2024-11-01
我想在云服务器部署使用 dify 和 comfyui ,云服务器机器配置需要什么要求呢
在云服务器部署使用 Diffy 和 ComfyUI ,云服务器机器配置要求如下: 1. 系统:Windows 7 以上。 2. 显卡要求:NVIDIA 独立显卡且显存至少 4G 起步。但 SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。 3. 硬盘:留有足够的空间,最低 100G 起步(包括模型)。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD(固态硬盘)上。 4. 内存:最低 32GB,越高越好,最低配会经常爆显存。 需要注意的是,ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。如果您的电脑能顺畅清晰地玩 3A 游戏,那玩 WebUI 和 ComfyUI 通常也没问题。配置上不封顶,根据自己的需求和预算来选择即可。
2024-10-19
我需要什么配置的电脑才能比较顺畅地使用目前AI领域的大部分工具
要比较顺畅地使用目前 AI 领域的大部分工具,以下是一些电脑配置方面的建议: 笔记本电脑方面: 主流的 AI 笔记本电脑通常是专门为人工智能和深度学习设计的高性能移动工作站。 这类笔记本一般配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘。 知名品牌包括微软(Microsoft)第 11 代 Surface Pro、微星(MSI)Creator/Workstation 系列、技嘉(GIGABYTE)Aero/Aorus 系列、戴尔(Dell)Precision 移动工作站、惠普(HP)ZBook 移动工作站、联想(Lenovo)ThinkPad P 系列。 通常采用英特尔酷睿或 AMD Ryzen 的高端移动 CPU,配备 NVIDIA RTX 30/40 系列或 AMD Radeon Pro 专业级 GPU。 同时也预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。 但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身的 AI 应用需求和预算情况选择合适的型号,同时关注笔记本的散热、续航等实际使用体验。 另外,在硬件组装方面,如果是组装具身对话机器人,需要准备的工具包括: 一台电脑和一台 iPhone(安卓目前不支持)。 剪刀、钳子、小十字螺丝刀。 单面胶、双面胶。 优先推荐双头 TYPEC 数据线连接电脑和 arduino,其次是 USB TYPEC 数据线,多备几条,注意充电线不一定是数据线,要确保可传输数据。
2024-10-12
如何在coze中调用bot商店中未公开配置的bot?
在 Coze 中调用 bot 商店中未公开配置的 bot,您可以参考以下步骤: 1. 访问。 2. 在页面的搜索框中,输入您想要的 bot 名称,然后单击展示的相应 bot。 3. 您会被引导至该 bot 的编排页面,编排页面分为以下 4 个区域: 顶部区域:显示 bot 所用的大型语言模型。 人设与回复逻辑区域:设置 bot 的人物设定与回复逻辑。 技能区域:展示 bot 配置的功能,例如插件、工作流、开场白等。 预览与调试区域:展示与 bot 交互的运行结果。 4. 在预览与调试区域中发送一条消息,查看 bot 的回复效果。 此外,如果您想复制一个预置的 bot 在此基础上进行修改来创建自己的 bot,可以按照以下步骤操作: 1. 访问,单击目标 bot。 2. 在 bot 的编排页面右上角,单击创建副本。 3. 在弹出的对话框中,设置 bot 名称、选择 bot 的所属团队,然后单击确定。 4. 您可以在新打开的配置页面修改复制的 bot 配置。 在人设与回复逻辑区域,调整 bot 的角色特征和技能。您可以单击优化使用 AI 帮您优化 bot 的提示词,以便大模型更好的理解。 在技能区域,为 bot 配置插件、工作流、知识库等信息。 5. 在预览与调试区域,给 bot 发送消息,测试 bot 效果。 6. 当您完成调试后,可单击发布将 bot 发布到社交应用中,在应用中使用 bot。 另外,关于 API 授权,然后再点击右上角发布,这里会发现多了一个 Bot as API,意思就是自己定义的 API 发布取到了。勾选 Bot as API 并确定应用已经成功授权 Bot as API 。创建了一个机器人、这个机器人是画小二的(令牌),画小二下面有很多个应用,您想调用的是“画小二智能小助手(Bot ID)”。
2024-09-26
AI视频需要什么 电脑配置
制作 AI 视频通常需要以下方面的准备和配置: 1. 内容准备: 准备一段视频中播放的文字内容,例如产品介绍、课程讲解、游戏攻略等。可以自行创作,也可以利用 AI 生成。 2. 视频制作工具: 可以使用剪映 App 对视频进行简单处理,电脑端打开剪映 App 点击“开始创作”,选择顶部工具栏中的“文本”,并点击默认文本右下角的“+”号为视频添加文字内容轨道。 3. AI 换脸方面: 有多个 AI 产品可实现换脸效果,如开源免费的 facefusion。 本机解决方案需要 Python 环境、安装视频解码器等多个依赖软件,对 GPU 依赖较大,本地计算机若无 GPU 或 GPU 显存较小,执行速度缓慢,不推荐本地化安装。 云服务解决方案可利用云厂商如阿里云的 PAI 和 AutoDL 提供的大模型运行环境和计算能力,但会产生一定费用。例如选择 AutoDL,在算力市场中选取能接受价格且 GPU 配置更高的算力设备,并通过模型镜像启动 GPU 服务器。
2024-09-24