Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想利用现有的20万条政务相关数据,基于qwen2.5 70B大模型构建自己的政务服务大模型,该如何做,请给出具体实现流程,谢谢!

Answer

以下是基于 qwen2.5 70B 大模型利用 20 万条政务相关数据构建政务服务大模型的大致流程:

  1. 数据准备:对 20 万条政务相关数据进行清洗、预处理和标注,使其适合模型学习。

  2. 模型选择与下载:选择 qwen2.5 70B 大模型,并按照相关说明进行下载。

  3. 本地部署:

    • 启动 OpenAI 兼容的 API 服务,根据硬件配置设置相关参数,如 --tensor-parallel-size(设置使用的 GPU 数量)、--max-model-len(定义最大输入序列长度)、--max-num-batched-tokens(设置 Chunked Prefill 的块大小)、--max-num-seqs(限制并发处理的序列数量)。
    • 遇到问题可参考Troubleshooting相关内容。
  4. 与模型交互:可以使用 Curl 或 Python 等方法与部署的模型进行交互,对于更高级的使用方式,可以探索如Qwen-Agent之类的框架。

  5. 模型训练:模型训练是一个复杂且计算量极大的过程,需要大量的计算资源和时间。

需要注意的是,构建大模型是一个复杂的任务,需要具备一定的技术知识和经验。在实际操作中,可能会遇到各种问题,需要不断调试和优化。

Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

Gemma:Gemma是由Google推出的轻量级模型,Google表示,“Gemma 2B和7B与其他开放式模型相比,在其规模上实现了同类最佳的性能。”本次开发,下载的是7B模型。Mistral:Mistral是由欧洲法国Mistral AI团队推出的大模型,该模型采用了分组查询注意力(GQA)以实现更快的推断速度。本次开发,下载的是7B模型。Mixtral:Mixtral也是由Mistral AI团队推出的大模型,但Mixtral是一个8*7B的MoE模型,在大多数基准测试中都优于Llama 2 70B和GPT-3.5。Qwen:Qwen(通义千问)是由阿里巴巴推出的大模型,本次开发,下载的是7B模型。万物皆可RSS巧妇难为无米之炊。不管是获取日常新闻,还是获取A股行情,都需要有稳定靠谱的数据源。大家可能第一时间会想到爬虫,但自己去搭建和维护这样一个爬虫系统还是比较麻烦的。有没有其他更好的方式呢?这就需要用到「上古神器」RSS了!大家可能会觉得RSS已经过时了。现如今,打开手机,今日头条、微博、微信等APP时不时就会给你推送最新的资讯,日常生活工作好像没有用到RSS的场景。确实,大部分情况下,我们想要获取资讯,手机APP基本够用了。但是,如果你想针对一些特定的需求,需要从某些网站上获取最新通知或相关信息呢?比如,获取https://openai.com/blog的最新更新获取https://www.producthunt.com每天的热门产品获取https://github.com/trending每天的热门开源项目

通义千问发布一个模型开源两个模型-一个AI视觉智能体能力大幅增强,一个百万Tokens处理速度提升近7倍

使用以下命令启动服务,根据你的硬件配置进行设置:参数说明:--tensor-parallel-size设置为您使用的GPU数量。7B模型最多支持4个GPU,14B模型最多支持8个GPU。--max-model-len定义最大输入序列长度。如果遇到内存不足问题,请减少此值。--max-num-batched-tokens设置Chunked Prefill的块大小。较小的值可以减少激活内存使用,但可能会减慢推理速度。推荐值为131072,以获得最佳性能。--max-num-seqs限制并发处理的序列数量。如果遇到问题,请参考[Troubleshooting](https://huggingface.co/Qwen/Qwen2.5-7B-Instruct-1M#troubleshooting)相关内容。[heading3]4.与模型交互[content]你可以使用以下方法与部署的模型进行交互:选项1.使用Curl选项2.使用Python其他选项对于更高级的使用方式,可以探索如[Qwen-Agent](https://github.com/QwenLM/Qwen-Agent/tree/main)之类的框架。Qwen-Agent使模型能够读取PDF文件或获得更多功能。

文章:Andrej Karpathy 亲授:大语言模型入门

因此,您只需要这两个文件和一台MacBook,就可以构成一个完全独立的系统,无需连接互联网或其他设施。您可以编译C代码,得到一个可以指向参数文件的二进制文件,然后与语言模型进行交互。例如,您可以请求模型创作一首关于Scale.ai公司的诗,模型将根据指令生成文本。我之所以选择Scale.ai作为例子(您会在整个讲座中看到),是因为我最初的讲座是在Scale.ai主办的活动中进行的,因此我在整个讲座中都使用了它们的例子。在视频中,我展示的是一个运行70亿参数模型的例子,而不是700亿参数的模型,因为后者的运行速度会慢大约10倍。我的目的是让您了解文本生成的过程和外观。LLM训练当我们谈论获取这些参数时,我们面临的是一个计算复杂性问题。那么,我们是如何获得这些参数的呢?尽管run.c文件中的内容、神经网络架构以及前向传播等都可以通过算法理解和开放,但真正的魔法在于参数的获取。模型训练比模型推理要复杂得多。模型推理可以简单地在MacBook上运行,而模型训练则是一个计算量极大的过程。我们所做的可以被理解为对互联网的一大块内容进行压缩。Llama2 70B作为一个开源模型,我们对其训练方式有很多了解,因为Meta在论文中发布了相关信息。训练过程涉及大约10TB的文本,通常来源于互联网的抓取。您需要大量的互联网资源和一个GPU集群,这些专业计算机用于执行如神经网络训练这样的繁重计算任务。您需要大约6000个GPU,运行约12天,费用大约200万美元,以将这一大块文本压缩成类似于zip文件的形式。这些参数文件大约140GB,压缩比大约是100倍。但这不是无损压缩,而是有损压缩,我们得到的是训练文本的一种格式塔,而不是原始文本的完整副本。

Others are asking
有哪些开源或免费的AI模型管理平台,可以配置模型,管理Agent的
以下是一些开源或免费的 AI 模型管理平台及相关模型: 1. 智谱·AI: Chat 模型: ChatGLM6Bint4:ChatGLM6B 的 Int4 版本,最低只需 6GB 显存即可部署,最低只需 7GB 显存即可启动微调(、魔搭社区、始智社区、启智社区获取。 ChatGLM6Bint8:ChatGLM6B 的 Int8 版本,上下文 token 数为 2K。可在、魔搭社区、始智社区、启智社区获取。 AgentLM7B:提出了一种 AgentTuning 的方法,开源了包含 1866 个高质量交互、6 个多样化的真实场景任务的 Agent 数据集 AgentInstruct,基于上述方法和数据集,利用 Llama2 微调而成,上下文 token 数为 4K。代码链接为。 AgentLM13B:上下文 token 数为 4K,模型权重下载链接为。 AgentLM70B:上下文 token 数为 8K,模型权重下载链接为。 下载模型:智谱 AI 提供的所有开源模型均可以在以下平台进行下载:。 2. 通义千问: 本地部署 Qwen2.51M 模型:使用以下命令启动服务,根据硬件配置进行设置。参数说明: tensorparallelsize:设置为使用的 GPU 数量。7B 模型最多支持 4 个 GPU,14B 模型最多支持 8 个 GPU。 maxmodellen:定义最大输入序列长度。如果遇到内存不足问题,请减少此值。 maxnumbatchedtokens:设置 Chunked Prefill 的块大小。较小的值可以减少激活内存使用,但可能会减慢推理速度。推荐值为 131072,以获得最佳性能。 maxnumseqs:限制并发处理的序列数量。如果遇到问题,请参考相关内容。 与模型交互:可以使用以下方法与部署的模型进行交互:选项 1.使用 Curl;选项 2.使用 Python。对于更高级的使用方式,可以探索如之类的框架。QwenAgent 使模型能够读取 PDF 文件或获得更多功能。
2025-02-06
视频理解大模型技术
以下是关于视频理解大模型技术的相关知识: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元的方法(因层数多称为深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制(SelfAttention)处理序列数据,无需依赖循环神经网络(RNN)或卷积神经网络(CNN),Transformer 比 RNN 更适合处理文本的长距离依赖性。
2025-02-06
大语言模型
大语言模型相关知识如下: Encoder:在大型语言模型中,Encoder 是模型的编码器部分,负责对输入的文本序列进行编码,获取其对应的语义表示。具有词嵌入、位置编码、注意力机制、层叠编码、上下文建模等关键作用。其输出是输入序列对应的上下文化语义表示,会被模型的 Decoder 部分利用。 介绍:大型语言模型是深度学习的一个子集,可以预训练并进行特定目的的微调。能解决诸如文本分类、问题回答、文档摘要、跨行业的文本生成等常见语言问题,还可利用相对较小的领域数据集进行定制以解决不同领域的特定问题。其三个主要特征是大型(训练数据集规模和参数数量大)、通用性(能解决常见问题)、预训练微调(用大型数据集预训练,用较小数据集微调)。使用大型语言模型有多种好处,视频中还提到了自然语言处理中的提示设计和提示工程,以及三种类型的大型语言模型。 性能对比:对比不同大型语言模型的性能需考虑多个维度,如理解能力、生成质量、知识广度和深度、泛化能力、鲁棒性、偏见和伦理、交互性和适应性、计算效率和资源消耗、易用性和集成性等。可采用标准基准测试、自定义任务、人类评估、A/B 测试、性能指标等方法进行有效的比较。
2025-02-06
推荐可以生成3D模型的ai软件
以下是一些可以生成 3D 模型的 AI 软件: 1. CADtools 12:这是 Adobe Illustrator 的插件,为其添加了 92 个绘图和编辑工具,包括图形绘制、编辑、标注、尺寸标注、转换、创建和实用工具。 2. Autodesk Fusion 360:Autodesk 开发的云端 3D CAD/CAM 软件,集成了 AI 功能,能创建复杂几何形状和优化设计。 3. nTopology:基于 AI 的设计软件,可创建复杂 CAD 模型,包括拓扑优化、几何复杂度和轻量化设计等。 4. ParaMatters CogniCAD:基于 AI 的 CAD 软件,能根据用户输入的设计目标和约束条件自动生成 3D 模型,适用于拓扑优化、结构设计和材料分布等领域。 5. 主流 CAD 软件中的生成设计工具:如 Autodesk 系列、SolidWorks 等,提供基于 AI 的生成设计工具,可根据输入的设计目标和约束条件自动产生多种设计方案。 对于图片生成 3D 建模的工具: 1. Tripo AI:VAST 发布的在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型。 2. Meshy:功能全面,支持文本生成 3D、图片生成 3D 以及 AI 材质生成。 3. CSM AI:支持从视频和图像创建 3D 模型,适用于游戏领域的模型生成。 4. Sudo AI:支持通过文本和图像生成 3D 模型,特别适用于游戏领域。 5. VoxCraft:免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型,并提供多种功能。 此外,还有一些从文本生成 3D 的工具: 1. CSM_ai:能将文本、图像或草图转换为 3D 素材,可直接应用于游戏中,无需后期处理。体验地址:https://cube.csm.ai 2. Move AI 推出的 Move API:从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。网址:https://move.ai/api 3. ComfyUI 3D Pack:快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。网址:https://github.com/MrForExample/ComfyUI3DPack/tree/main 4. Medivis 的 SurgicalAR 手术应用:将 2D 医疗图像转化为 3D 互动视觉,提高手术精度,支持 3D 模型的放大、缩小、旋转,精确手术计划。网址:https://t.co/3tUvxB0L4I
2025-02-06
模型测评
以下是关于模型测评的相关内容: Llama2 模型评测:为了解其中文问答能力,筛选了具有代表性的中文问题进行提问,测试了 Meta 公开的 Llama27BChat 和 Llama213BChat 两个版本,未做任何微调和训练。测试问题涵盖通用知识、语言理解等八个类别,使用特定 Prompt 进行测试,测试结果见相应文档。发现该模型对于中文问答的对齐效果一般,基于中文数据的训练和微调十分必要。 小七姐:文心一言 4.0、智谱清言、KimiChat 小样本测评:测评机制包括以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,能力考量涵盖复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力,测评轮次包括复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力,每轮次均有不同的任务和模型测试次数。 斯坦福发布大模型排行榜 AlpacaEval:相对于人工标注,全自动化的 AlpacaEval 经济成本和时间成本低。从统计角度探讨了区分模型的评估数据,AlpacaEval 支持两种模式的模型评估方式,评测过程分为选择评估集并计算输出、计算 golden 输出、选择自动标注器并计算胜率三步。
2025-02-06
请用思维导图描述AI智能体大语言模型平台汇总图(带图标LOGO)
以下是为您生成的关于 AI 智能体大语言模型平台的汇总思维导图: 1. 基础层 为大模型提供硬件支撑,数据支持等,例如 A100、数据服务器等等。 2. 数据层 静态的知识库 动态的三方数据集 3. 模型层 LLm(largelanguagemodel,大语言模型),例如 GPT,一般使用 transformer 算法来实现。 多模态模型,即市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集。 4. 平台层 模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层(应用层) 用户实际看到的地方。 此外,在翻译场景中: 语言翻译技术经历了从传统规则翻译到深度学习翻译的逐步发展,每一次革新都显著提高了翻译的准确性和自然度。 传统机器翻译存在局限性,基于规则和统计模型,常常出现死板和字面化的结果,尤其在遇到多义词、习语或文化差异时,翻译往往不自然,且容易误导。 深度学习翻译技术通过大规模语料库学习,能够更好地理解上下文和语境,提供更加流畅、准确的翻译。 大模型翻译技术引入后,通过海量数据学习,能够精准捕捉语言的深层语义和文化背景,提供更符合语境的翻译,显著提升了翻译的准确性与流畅度。 在学术场景中: 大模型技术能够快速总结论文内容、进行精准翻译,节省研究者阅读和整理文献的时间。 文献预处理时,需将海量文献的格式转换为可供模型解析的文本格式,可借助平台工具完成文件内容的提取。 可将文件内容自动化提取并结合大语言模型进行批量分析或任务处理,适用于文档总结、信息提取等场景。
2025-02-06
从事20年的健康管理教练如何从0到1学习AI
以下是为从事 20 年健康管理教练的您提供的从 0 到 1 学习 AI 的建议: 1. 像优秀的医生和药物开发者那样学习:成为顶尖人才通常从多年的密集信息输入开始,通过正规学校教育和学徒实践,面对面地向最出色的实践者学习。 2. 构建模型生态系统:通过使用彼此堆叠的模型来训练 AI,而不是仅依赖大量数据和生成模型解决所有问题。例如,先训练生物学模型,再训练化学模型,然后添加特定于医疗保健或药物设计的数据点。 3. 参考他人的学习经验: 可以参考《雪梅 May 的 AI 学习日记》,其学习模式是输入→模仿→自发创造。您可以去 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新内容。 二师兄的经历也有一定参考价值,比如从获取安装包和教学视频迈出第一步,参与社群学习等。 4. 注重基础:预医学生从化学和生物学基础课程开始,设计新疗法的科学家也需经历多年相关学习。对于学习 AI 同样,要打好基础。 5. 保持良好的学习状态:有意愿和动力,能清醒地学进去东西。不必给自己太大压力,能学多少算多少。 6. 利用免费开源资源:很多学习资源是免费开源的,充分利用这些资源进行学习。
2025-01-30
2024 AI工具排行榜
以下是 2024 年部分 AI 工具的相关信息: 开发者工具: 23 年 12 月至 24 年 3 月的访问量排行榜中,非大厂的 Top1 公司是 Langchain,其 3 月 PV 为 356 万,单 PV 价值为 56.18 美元。 赛道方面,天花板潜力 TAM 为 120 亿美元,总体趋势平稳增长,月平均增速为 82 万 PV/月,原生产品占比高。 竞争方面,Top1 占 19%,Top3 占 54%,马太效应弱,网络效应强,大厂已入局,技术门槛中。 教育工具: 23 年 12 月至 24 年 3 月的访问量排行榜中,非大厂的 Top1 公司是 Quizlet,其 3 月 PV 为 1.3 亿。 赛道方面,天花板潜力 TAM 约为 30 亿,总体趋势快速增长,月平均增速为 1793 万 PV/月,原生产品占比低。 竞争方面,Top1 占 45%,Top3 占 76%,马太效应弱,网络效应弱,大厂未入局,技术门槛中。 此外,在展望 2025 时,AI 行业的创新机会方面,2024 年 9 月 OpenAI 发布了新一代语言模型 o1,业界推测其采用了全新的训练与推理方案,结合强化学习技术,显著增强了推理能力,可能借鉴了下围棋的 AlphaGo Zero 的技术思路。
2025-01-26
2030年前全国中小学普及人工智能是哪发布 的
目前没有明确的权威信息表明“2030 年前全国中小学普及人工智能”这一具体说法的发布来源。但以下信息可能对您有所帮助: 美国第 116 届国会第二次会议提到,国家科学基金会主任应授予 K12 等教育阶段的教育项目资助,以支持人工智能系统相关的多样化劳动力培养、提高对其伦理、社会、安全等影响的认识,并促进对人工智能原理和方法的广泛理解。 北京市大中小学推广了 AI 学伴和 AI 导学应用。
2025-01-24
2024年视频换脸技术
2024 年视频换脸技术面临一些挑战和发展趋势: 挑战方面: 可控性和一致性存在挑战,如人脸转动中保持观感不变形、多个生成片段保持人物一致性、遵循生成指令等,目前视频生成的体感仍需改进,需要底层模型的进步。 成本较高,生成一段 5 秒视频的成本最低约为 1 元人民币,限制了 C 端玩法和大规模应用。 发展趋势: 原生多模态成为 AI 架构的主流选择,从 OpenAI 的 GPT4V 到 Anthropic 的 Claude3V 和 xAI 的 Grok1.5V 等,行业正从简单的模态叠加向真正的多模态融合迈进。原生多模态模型采用统一的编码器解码器架构,在预训练阶段完成多模态信息的深度融合,提升了模型的理解能力,实现了模态间的无缝转换和互补增强,能够处理更复杂的任务。 自 2023 年末开始,Runway、Pika、Meta、Google 等不断推出视频生成/编辑工具,2024 年是 AI 视频技术逐渐成熟并开始商用的一年,下半年或 2025 年可能会看到 AI3D 技术的突破。抖音的成功证明音频、视频加入泛社交/娱乐产品会带来质的飞跃,AI 陪聊赛道中视频、音频技术的加入也将带来内容生产和社交方式的质变。
2025-01-24
2025年AI新年春晚在哪儿直播?几点直播?从哪个平台上可以看得到?微信视频号?抖音?B站还是什么渠道可以看得到?
2025 年 AI 春晚的相关信息如下: 直播视频名称:共创贺新春,AI 中国年,第二届 AI 春晚! 60 字内容简介:30 多个共创 AI 节目,来自 1000 多位共创者 3 个月的辛勤筹备。2025 年 1 月 29 日(大年初一)晚上 6:00 准点开播。 正式开放配置时间:1 月 29 日晚上 5:45 正式直播时间:1 月 29 日晚上 6:00 关于转播: 有转播经验的:能直接接受 https,rtmp 信号源的可以直接用拉流地址。 第一次转播的小伙伴:如果直播平台不能直接接入信号源,请先下载一个 OBS:https://obsproject.com/zhcn/download 。配置教程已置顶主流直播平台推流地址获取方式可以参考这篇文章后半段:https://zhuanlan.zhihu.com/p/653204958?utm_id=0 。 直播技术问题咨询: AI 春晚是由 WaytoAGI 社区组织的一场由 AI 技术驱动的晚会,首届 AI 春晚的完整视频可在 B 站上观看。首届 AI 春晚于 24 年大年初一当晚直播,18 万人在线观看,后续视频播放量超过 200 万,媒体曝光量超过 500 万,被誉为 AI 视频寺庙时代的一部现象级作品。 更多详细信息可参考 WaytoAGI 的官方网站。 完整版:https://www.bilibili.com/video/BV15v421k7PY/?spm_id_from=333.999.0.0 。 相关进度:
2025-01-24
2025年AI新年春晚在哪儿直播?几点直播?
2025 年 AI 新年春晚的相关信息如下: 直播视频名称:共创贺新春,AI 中国年,第二届 AI 春晚! 60 字内容简介:30 多个共创 AI 节目,来自 1000 多位共创者 3 个月的辛勤筹备。2025 年 1 月 29 日(大年初一)晚上 6:00 准点开播。 直播时间:1 月 29 日晚上 6:00 OBS 配置相关: 测试答疑时间:1 月 27 日下午 2 点。 正式开放配置时间:1 月 29 日晚上 5:45 拉流地址 RTMP:待完善 有转播经验的:能直接接受 https,rtmp 信号源的可以直接用拉流地址 第一次转播的小伙伴:如果直播平台不能直接接入信号源,请先下载一个 OBS:https://obsproject.com/zhcn/download 。配置教程已置顶主流直播平台推流地址获取方式可以参考这篇文章后半段:https://zhuanlan.zhihu.com/p/653204958?utm_id=0 直播技术问题咨询:可咨询相关人员。
2025-01-24
对于70后,学ai,怎么学
对于 70 后学习 AI,以下是一些建议: 1. 明确学习目标:确定自己学习 AI 的具体方向和应用场景,例如是对 AI 绘画感兴趣,还是希望将 AI 应用于工作中的数据分析等。 2. 基础知识学习:可以通过在线课程、书籍等途径,学习数学(如线性代数、概率论)、编程(如 Python)等基础知识。 3. 选择适合的学习路径:可以参考成功的案例,如 AI 教父辛顿的经历。辛顿在多次尝试和坚持后,最终在神经网络领域取得成就。 4. 关注行业动态:了解 AI 在教育等领域的最新应用和发展趋势,例如未来教育中 AI 与人类教师的协作方式,以及个性化学习的普及。 5. 实践与应用:通过实际项目或案例进行练习,将理论知识应用到实际中。 需要注意的是,学习 AI 是一个长期的过程,需要保持耐心和坚持不懈的精神。
2024-12-11
NVIDIA Graphics Device with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90 compute_37. If you want to use th
您好,出现“NVIDIA Graphics Device with CUDA capability sm_120 is not compatible with the current PyTorch installation. The current PyTorch install supports CUDA capabilities sm_37 sm_50 sm_60 sm_61 sm_70 sm_75 sm_80 sm_86 sm_90 compute_37.”这种情况,意味着您所使用的 NVIDIA 显卡的 CUDA 计算能力(sm_120)与当前安装的 PyTorch 版本不兼容。当前安装的 PyTorch 支持的 CUDA 计算能力为 sm_37 至 sm_90 以及 compute_37 。您可能需要重新安装与您显卡 CUDA 计算能力相匹配的 PyTorch 版本,或者升级您的显卡驱动程序来解决此兼容性问题。
2024-11-30
如何让COMFYUI使用我的INTEL A770显卡?
要让 ComfyUI 使用您的 INTEL A770 显卡,以下是一些相关的步骤和信息供您参考: 首先,ComfyUI 本地安装的方法主要有以下几种: 1. 命令行安装: 如果您已经安装过 SD WebUI,可以跳到第二步。首先需要打开系统 Terminal,不同系统的 Terminal 可能有所不同。 Windows 用户:建议在有 NVIDIA 显卡的电脑上使用。需要下载 Miniconda3,输入相关命令进行安装,然后安装 pytorch 的 nightly 版本。 Mac 用户:安装需要根据电脑芯片不同输入不同代码。下载 Miniconda3 并输入相关命令进行安装,最后安装 pytorch。 2. 安装包安装:仅支持 Windows 系统且显卡必须是 Nivida。下载地址是,下载最新版本解压即可使用。 关于 ComfyUI 的硬件配置: ComfyUI 相比 WebUI 配置更低、系统资源占用更少、出图速度更快,最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。运行内存最低 32GB,越高越好,最低配会经常爆显存。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡,内存在 16G 以上。硬盘会影响加载模型的速度,最好把软件和模型部署在 SSD 上。 需要注意的是,目前 ComfyUI 对于 INTEL A770 显卡的支持情况可能不太明确,您可能需要根据实际情况进行尝试和调整。
2024-10-10