直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何让COMFYUI使用我的INTEL A770显卡?

回答

要让 ComfyUI 使用您的 INTEL A770 显卡,以下是一些相关的步骤和信息供您参考:

首先,ComfyUI 本地安装的方法主要有以下几种:

  1. 命令行安装:
    • 如果您已经安装过 SD WebUI,可以跳到第二步。首先需要打开系统 Terminal,不同系统的 Terminal 可能有所不同。
    • Windows 用户:建议在有 NVIDIA 显卡的电脑上使用。需要下载 Miniconda3,输入相关命令进行安装,然后安装 pytorch 的 nightly 版本。
    • Mac 用户:安装需要根据电脑芯片不同输入不同代码。下载 Miniconda3 并输入相关命令进行安装,最后安装 pytorch。
  2. 安装包安装:仅支持 Windows 系统且显卡必须是 Nivida。下载地址是这里,下载最新版本解压即可使用。

关于 ComfyUI 的硬件配置: ComfyUI 相比 WebUI 配置更低、系统资源占用更少、出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SD-webui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡,内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。

需要注意的是,目前 ComfyUI 对于 INTEL A770 显卡的支持情况可能不太明确,您可能需要根据实际情况进行尝试和调整。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

问:如何在本地安装 ComfyUI

如果你已经安装过SD WebUI,那你可以跳到第二步。首先你需要打开系统Terminal,一般可以通过系统搜索即可找到。Mac和Windows上是长这样的。Windows上因为版本不同,有可能跟我的截图不一样,只要名字对就可以了:然后打开Terminal,不管是什么系统,你应该都会看到类似的界面,可能UI颜色不一样,但一定是一串字符后有一个闪烁的光标:此时不同的系统需要输入不同的命令。[heading4]Windows用户[content]Windows用户我建议你在有NVIDIA显卡的电脑上使用。[heading5]下载Miniconda3[content]第一步输入以下命令:[heading5]安装Miniconda3[content]下载完后,继续输入以下代码,安装Miniconda3:[heading5]安装pytorch[content]安装pytorch的nightly版本即可。输入以下命令:[heading4]Mac用户[content]Mac的安装需要根据你电脑的芯片不同,输入不同的代码。[heading5]下载Miniconda3[content]第一步输入以下命令:[heading5]安装Miniconda3[content]下载完后,继续输入以下代码,安装Miniconda3:在安装Miniconda 3的时候,你会看到「Please,press ENTER to continue」,此时你需要按下回车键。然后会进入阅读协议环节,此时你需要一直按回车,直到显示「Do you accept the license terms?」,然后输入yes,并按下回车。最后会让你确认安装的目录,基本可以不用改,按下回车即可。如果显示「Thank you for installing Miniconda3!」就意味着你完成了安装。[heading5]安装pytorch[content]最后不管是M芯片还是x86都复制以下代码到Terminal:这一步因为需要下载安装一些东西,所以可能会比较久,请耐心等待。当显示「Successfully installed XXXXX」,或者一连串的「Requirement already satisfied」就意味着你完成了所有的安装。

阿澄:小白comfyui学习日记-01解决篇线上部署,和线下部署配置需求

[title]阿澄:小白comfyui学习日记-01解决篇线上部署,和线下部署配置需求[heading2]2现在我们来打个小怪:[heading3]2.2 comfyui本地部署的硬件配置comfyui相比webui:comfyui配置更低;系统资源占用更少;出图速度更快;最低可在小于3G的GPU上运行。甚至没有GPU,光用CPU也可以运行,缺点是速度极慢。SDXL出来后提高了运行配置:最低需要8GB显存+32GB运行内存,12GB流畅运行,推荐16GB以上。运行内存最低32GB,越高越好,最低配会经常爆显存。玩SD-webui和comfyui建议使用6GB以上的显存的NVIDIA显卡,也就是N卡,内存在16G以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在SSD(固态硬盘)上,这样速度更快。我之前的电脑2060N系8G显存,16g内存。把webui和模型装在2t固态硬盘上,打开速度极快,出图速度也还可以,4张512x768的图不到一分钟就可出来。如果你的电脑能顺畅清晰地玩3A游戏,那玩webui和comfyui也没问题。配置上不封顶,根据自己的需求和预算来即可。以我为例,新需求:做AIGC视频+建模渲染+炼丹(lora)预算2W。起先用2060生图,后发现做AIGC视频比较费时间,且还有做建模渲染的需求。后来向朋友请教,搞了一套次顶配的组装机,加上一个护眼的4K显示器共2W出头。

问:如何在本地安装 ComfyUI

本地安装有两种方法。第一种方法是普适性最强的方法——命令行安装,且安装后二次遇到问题的概率相对较低。但是对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。另外,ComfyUI的源码地址在[这里](https://github.com/comfyanonymous/ComfyUI),安装方法写在了Readme中。你也可以按照Readme文档进行操作,并不一定要参照我的教程。[heading3]安装包安装[content]第二种方法是安装包安装。这种方法安装比较简单,下载就能用。ComfyUI的官方安装包:需要注意,目前仅支持Windows系统,且显卡必须是Nivida。下载地址是[这里](https://github.com/comfyanonymous/ComfyUI/releases),你只想需要下载最新的版本,解压就能使用。

其他人在问
a800 ,H100,a10,H800这4个显卡能力有啥差异
以下是 A800、H100、A10、H800 这 4 个显卡在能力上的一些差异: 在训练与推理方面: 对于大型模型的训练,许多模型在 NVIDIA H100 上最具成本效益,但获取在 NVIDIA H100 上运行的模型较难,且通常需要长期合作承诺。如今更多的选择是在 NVIDIA A100 上运行大多数模型训练,但对于大型集群仍需要长期承诺。 大型语言模型(LLM)的参数数量众多,通常需要分布到多个卡中,即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(例如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10 等显卡。 在内存要求方面: 大型 LLM 的参数数量太多,任何单卡都无法容纳,需要类似于训练的多卡设置。 对于一些较小的模型,A10 等显卡可能就能够满足其内存需求。 需要注意的是,决定选择哪种 GPU 主要是一个技术决策,需要根据具体应用来确定最具成本效益的选择。
2024-10-16
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
部署私有大模型需要什么显卡
部署私有大模型对显卡的要求如下: 显存是显卡选择的第一要素,生成速度优先级相对较低。 SD1.5 版本的底模 6G 显存能勉强跑,8G 显存可较流畅生成图片和炼制 lora,12G 能流畅使用 Dreambooth 微调大模型。 即将到来的 SDXL 对显卡性能要求更高,8G 显存起步,建议 16G 显存,微调大模型可能需要 20G 以上的显存,只有 4090 和 3090 能较好应对。 预算不足时,可选择 30 系显卡或二手显卡。但不建议选择 P40 之类超大显存但速度超级慢的卡。 常见显卡中,4090 生成 512 的图可跑进 1 秒内。 对于一些垂直场景的专有技能模型,极端情况下单机单卡,如消费级显卡 3090、3080、RTX 显卡也可以使用。 综合多方评测结论,4090 是用于 SD 图像生成综合性价比最高的显卡。如果有打算进行 Dream booth 微调大模型,硬盘空间要准备充足,一次训练可能会产生几十 G 的文件。同时,其他电脑配件只要不太差即可,内存建议 32GB 以上。硬盘方面,不建议考虑机械盘,可选择国产固态。
2024-09-08
显卡对于AI的作用
显卡在 AI 领域具有重要作用: 1. 提供计算能力:算力可以直接转化为 GPU,电脑里的显卡就是 GPU。购买云服务时,也是服务商购买显卡“租”给用户使用,算力约等于显卡。 2. 图像和图形运算:GPU(图形处理器)是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器。 3. 数据处理和存储:显存用于存储显卡芯片处理过或者即将提取的渲染数据,如同计算机的内存一样,是存储要处理的图形信息的部件。 4. 执行特定任务优势:在模型启动过程中,数据从硬盘加载到显卡中。显卡在处理某些任务上优于 CPU,主要是因为它专注于执行浮点运算,而 CPU 负责执行更广泛的计算任务。 5. 满足多样生成任务需求:如在 Stable Diffusion 中,16GB 的 4060ti 虽速度比 12GB 的 4070ti 慢,但大显存可执行更多样的 AI 生成任务,如生成更大分辨率的超清图片,使用更高的参数进行 Dream booth 微调等。
2024-08-27
4060显卡用Stable Diffusion怎么样
4060 显卡用于 Stable Diffusion 的情况如下: 在 30 系列显卡中,3060ti 12GB 显卡、3090 和 3090ti 比较适合 Stable Diffusion 生成图片,其他显存不够的显卡意义不大。2080ti 22GB 魔改版本显卡比较考验运气,不建议普通玩家选购。A5000 等专业卡不能玩游戏,生成速度不如同价位游戏卡,半精度训练模型运算速度可能会快一点,也不建议普通玩家选购。 如果使用 40 系显卡,16GB 的 4060ti 虽然速度比 12GB 的 4070ti 慢一点,但大显存可以执行更多样的 AI 生成任务,比如生成更大分辨率的超清图片,使用更高的参数进行 Dream booth 微调等。 需要注意的是,如果在 Stable Diffusion 模型加载时遇到 CUDA 显存不足的错误,简单来说就是显卡不行,没有足够的显存空间分配给该模型。解决方法有:换个好一些的显卡,至少英伟达 2060 以上;或者开启低显存模式。 开启低显存模式的方法如下:在 stablediffusionwebui 文件夹下找到 webuiuser.bat,用文本或代码编辑器打开该文件夹。如果显卡显存不足 3G,可以在 set COMMANDLINE_ARGS=的后面添加参数–lowvram –alwaysbatchconduncond 之后保存。如果显卡只有 4G 显存,可以在 set COMMANDLINE_ARGS=的后面添加参数–precision full –nohalf –lowvram –alwaysbatchconduncond 之后保存。
2024-08-13
Stable Diffusion需要什么显卡
Stable Diffusion 对显卡的要求如下: 1. 显存是显卡选择的第一要素,生成速度优先级相对较低。SD1.5 版本的底模 6G 显存能勉强跑,8G 显存可较流畅生成图片和炼制 lora,12G 能流畅使用 Dreambooth 微调大模型。即将到来的 SDXL 对显卡性能要求更高,8G 显存起步,建议 16G 显存,微调大模型可能需要 20G 以上显存,只有 4090 和 3090 能较好应对。 2. 预算不足时可选择 30 系显卡或二手显卡,但不建议普通用户选择 P40 之类超大显存但速度超级慢的卡。 3. 常见显卡跑图性能、性价比表可作为参考之一,但数据并非 100%准确。例如 4090 生成 512 的图可跑进 1 秒内,M1 Max 则可能需要 10 秒左右。 4. 必须确认是 NVIDIA(英伟达)的显卡(俗称 N 卡)才可进行下一步。如果是 AMD 或者 Intel 显卡,电脑可能不太支持 SD,安装教程也较麻烦,可考虑使用云平台。 5. 专用 GPU 内存 4GB 时,电脑勉强可跑动 SD,出图时间较长;6GB 时,出一张图时间为 20 50 秒,SD 大部分功能可用;8GB 时,5 20 秒可出一张图,SD 所有功能基本开放。 6. 安装前需注意:电脑系统为 Win10 或 Win11,避免使用更低版本系统以避免兼容性问题。检查电脑配置能否带动 SD 需满足 3 个要求,即电脑运行内存 8GB 以上、是英伟达显卡、显卡内存 4GB 以上。检查方法为鼠标右击桌面底部任务栏,点击“任务管理器”,在“性能”里查看内存和 GPU。
2024-08-13
OpenArt的ComfyUI怎么打开
要打开 OpenArt 的 ComfyUI,您可以按照以下步骤进行操作: 1. 准备相关模型和工作流: t5xxl_fp16.safetensors 和 clip_l.safetensors 下载地址:https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main 。t5xxl 分为 fp16 和 fp8,如果内存超过 32GB,用 fp16 的,没超过则用 fp8 的。 ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备好 dev 的工作流:file:dev 的官方原版 workflow.json ,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,将图片导入 ComfyUI 就是工作流。 对于 GPU 性能不足、显存不够的情况,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 相关模型的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b ;百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 2. 打开 ComfyUI,把准备好的工作流或图片拖拽到 ComfyUI 里。 3. 在处理模型连接时,如果将 refiner 的模型连上提示词导致第一个 base 模型的链接断开,可以通过以下方式解决:加入一个新节点,右键点击 【新建节点】【实用工具】【Primitive 元节点】。这个节点连接谁,就会变成谁的属性。在文本节点上单击右键,选择【转换文本为输入】,此时文本节点上会多一个文本的连接点。将元节点与文本节点相连接,元节点就变成了正向提示词的输入框。同理,负向提示词框也可用元节点代替。再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。最后,能输出两个图像节点,第一个链接 base 模型的 vae,设置为预览图像;第二个链接一个 VAE 加载器的节点,加载 sdxl 自带的 vae,设置为保存图像,即最终输出的图像。设置好两个模型和提示词,点击生成。
2024-10-16
comfyui 教程
以下是一些关于 ComfyUI 的学习教程资源: 1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验的用户。网址:https://www.comfyuidoc.com/zh/ 2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容。网址:https://www.uisdc.com/comfyui3 3. 知乎:有用户分享了部署教程和使用说明,适合有一定基础并希望进一步了解的用户。网址:https://zhuanlan.zhihu.com/p/662041596 4. Bilibili:提供了从新手入门到精通各个阶段的系列视频教程。网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 此外,还有以下教程: 1. 一个全面的 ComfyUI 教程:https://www.comflowy.com/zhCN 2. 超有意思的 ComfyUI 教程:https://comfyanonymous.github.io/ComfyUI_tutorial_vn/ ComfyUI 的基础界面和操作方面: 1. 熟悉 ComfyUI 的基本界面和操作。 2. Comfyui 工作区介绍。 3. 基础节点介绍。 4. KSampler: seed:随机种子,用于控制潜空间的初始噪声,若要重复生成相同图片,需种子和 Prompt 相同。 control_after_generate:设置每次生成完图片后 seed 数字的变化规则,有 randomize(随机)、increment(递增 1)、decrement(递减 1)、fixed(固定)。 step:采样的步数,一般步数越大效果越好,但与使用的模型和采样器有关。 cfg:一般设置为 6 8 之间较好。 sampler_name:可设置采样器算法。 scheduler:控制每个步骤中去噪的过程,可选择不同调度算法。 denoise:表示要增加的初始噪声,文生图一般默认设置成 1。 内容由 AI 大模型生成,请仔细甄别。
2024-10-15
相同的参数下,用SD comfyui出图可以和SD webui出图保持图片效果一模一样么?
理论上,在应用完全相同参数(如 Step、CFG、Seed、prompts)的情况下,SD ComfyUI 出图和 SD WebUI 出图应当能保持图片效果一模一样。但在实际操作中可能会存在一些差异,比如: 提示词的多个条件下,SD 生成的图像可能无法全部满足,这与提示词引导系数有关,该系数关系到出图与文字的相关程度。 不同的模型和配置也可能影响出图效果,例如 SDXL 的大模型分为 base、refiner 以及配套的 VAE 模型,用于调节图片的画面效果和色彩。 需要注意的是,相同参数下要达到完全一致的出图效果并非绝对,还会受到多种因素的综合影响。
2024-10-14
comfyui使用教程
以下是 ComfyUI 的使用教程: 1. 学习资料获取: ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验用户,网址:https://www.comfyuidoc.com/zh/ 。 优设网:有详细的入门教程,适合初学者,介绍了特点、安装方法及生成图像等内容,网址:https://www.uisdc.com/comfyui3 。 知乎:有用户分享部署教程和使用说明,适合有一定基础并希望进一步了解的用户,网址:https://zhuanlan.zhihu.com/p/662041596 。 Bilibili:提供了从新手入门到精通的系列视频教程,网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。 2. 安装部署: 电脑硬件要求: 系统:Windows7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够空间,最低 100G 起步(包括模型)。 注:mac 系统、AMD 显卡、低显卡的情况也可安装使用,但功能不全,出错率偏高,建议升级设备或采用云服务器。 下载并更新 Nvidia 显卡驱动,下载地址:https://www.nvidia.cn/ geforce/drivers/ 。 下载并安装所需环境: 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。 安装 Python:https://www.python.org/downloads/release/python3119/ ,安装时选中“将 Python 添加到系统变量”。 安装 VSCode:https://code.visualstudio.com/Download 。 安装 Git:https://gitscm.com/download/win 。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。 3. 直接在 Comfy UI 中训练 LoRA 模型: 按 Enter 键安装所有所需依赖项,使其与 ComfyUI 兼容。若使用虚拟环境,需先激活。 注意事项: 图像必须放在以“”命名的文件夹中,数字应较小,如 5,且下划线必须有,其余部分不重要。 对于 data_path,必须写入包含数据库文件夹的文件夹路径。 参数: 第一行可从 checkpoint 文件夹中选择任何模型,但据说进行 LoRA 训练需选择一个基本模型。 选择一个名字为您的 LoRA,可更改默认值(epochs 数应接近 40),然后启动工作流程。 点击 Queue Prompt 后,所有事情会在命令提示符中发生,可查看训练进度。
2024-10-13
comfyui推荐一门课程
以下是一些关于 ComfyUI 的课程推荐: 在飞书学习群的“ComfyUI 共学快闪”中,有众多相关课程,例如王蓉的 Wang Easy 基础搭建和转绘、唯有葵花向日晴的基础教程、工作流开发和实际应用场景,以及热辣 Huolarr 的 AI 系统课私聊图生视频、咖菲猫咪的基础教程/工作流搭建思路/各版本模型使用的优缺点等众多课程。 “ComfyUI 共学WaytoAGI 共学计划”中也有相关资料,方便大家自学。例如知识库跳转 。
2024-10-12
comfyui的文档链接
以下是关于 ComfyUI 的相关信息: 简介:ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可以想象成集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优劣势: 优势:对显存要求相对较低,启动速度快,出图速度快;具有更高的生成自由度;可以和 webui 共享环境和模型;可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在;生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势:操作门槛高,需要有清晰的逻辑;生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 学习资料: ComfyUI 官方文档:提供了 ComfyUI 的使用手册和安装指南,适合初学者和有经验的用户。您可以在找到相关信息。 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是。 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可以在找到相关教程。 Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可以在找到视频教程。 ComfyUI 共学 WaytoAGI 共学计划日程安排: 开场:,8/13 20:00 22:00,讲师佑萌。 第一课:,8/14 20:00 22:00,讲师郭佑萌。 第二课:,8/15 20:00 22:00,讲师郭佑萌。 第三课:,8/16 20:00 22:00,讲师郭佑萌。 第四课:,8/20 20:00 22:00。 第二期,时间待定。 内容由 AI 大模型生成,请仔细甄别。
2024-10-08
AI 制作 business intelligence reporting 培训 PPT
以下是使用 AI 制作 business intelligence reporting 培训 PPT 的主要思路: 1. AI 生成 PPT 大纲。 2. 手动优化大纲。 3. 导入工具生成 PPT。 4. 优化整体结构。 本次将以高效利用 AI 生成 PPT 的实际培训场景作为案例,并结合上述思路来完成此次 PPT 的制作。 如果您是第一次使用 AI,对原理比较好奇,或者对提示词不是很熟悉,推荐阅读以下两篇文章:
2024-10-07
给我找一些apple intelligence 的详细解读文章
以下是为您找到的关于 Apple Intelligence 的详细解读文章: 1. )。上周推出的 Apple 最新开发者测试版中包含了一些在 WWDC 上宣布的生成式 AI 功能,这些功能将在未来几个月内登陆您的 iPhone、iPad 和 Mac。在 Apple 的计算机上,可以阅读支持这些 Apple Intelligence 功能的模型中的指示,这些指示会作为默认情况下在您对聊天机器人说任何话之前的提示出现。 2. ,苹果发布了一篇 47 页的论文,详细介绍了他们 AI 系统的全部架构。Apple 为其智能功能开发了两个基础语言模型 AFMondevice(约 30 亿参数)和 AFMserver(更大的服务器模型),详细描述了模型架构、训练数据、训练过程、推理优化和评估结果。 3. 媒体报道: 赛博禅心:《》 《》 四木相对论:《》 甲子光年:《》 新硅:《》 卡兹克:《》
2024-08-12