Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

模型下载

Answer

以下是关于模型下载的相关信息:

ComfyUI BrushNet 模型下载

  • 原项目:https://tencentarc.github.io/BrushNet/
  • 插件地址:https://github.com/kijai/ComfyUI-BrushNet-Wrapper
  • 模型下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main
    • 第一次运行会自动下载需要的模型,如果使用 ComfyUI-BrushNet-Wrapper 节点,模型将自动从此处下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main 到 ComfyUI/models/brushnet。
    • 因环境问题,也可手动下载后放在这个文件夹里面。另外,BrushNet 提供了三个模型,个人测试下来,random 这个效果比较好。

SD 模型下载: 常用的模型网站有:

下载模型后需要将之放置在指定的目录下,不同类型的模型放置目录不同:

  • 大模型(Ckpt):放入 models\Stable-diffusion
  • VAE 模型:一些大模型需要配合 vae 使用,对应的 vae 同样放置在 models\Stable-diffusion 或 models\VAE 目录,然后在 webui 的设置栏目选择。
  • Lora/LoHA/LoCon 模型:放入 extensions\sd-webui-additional-networks\models\lora,也可以在 models/Lora 目录
  • Embedding 模型:放入 embeddings 目录
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI BrushNet

原项目https://tencentarc.github.io/BrushNet/插件地址https://github.com/kijai/ComfyUI-BrushNet-Wrapper模型下载https://huggingface.co/Kijai/BrushNet-fp16/tree/main第一次运行会自动下载需要的模型,如果是用的ComfyUI-BrushNet-Wrapper节点模型将自动从此处下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main到ComfyUI/models/brushnet,因为环境问题,也可以手动去下载好了放在这个文件夹里面.另外,BrushNet提供了三个模型,个人测试下来,random这个效果比较好[heading1]工作流[content]配合mj出底图,在底图不变的基础上,添加文字或者图片内容另外可以使用G-DinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改[54海报.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/QqKVb2g4OouvZMxkBBbceUrgnsa?allow_redirect=1)

SD新手:入门图文教程

模型能够有效地控制生成的画风和内容。常用的模型网站有:[Civitai|Stable Diffusion models,embeddings,hypernetworks and more](https://link.zhihu.com/?target=https%3A//civitai.com/)>[Models-Hugging Face](https://link.zhihu.com/?target=https%3A//huggingface.co/models)>[SD-WebUI资源站](https://link.zhihu.com/?target=https%3A//www.123114514.xyz/models/ckpt)>[元素法典AI模型收集站-AI绘图指南wiki(aiguidebook.top)](https://link.zhihu.com/?target=https%3A//aiguidebook.top/index.php/model/)>[AI绘画模型博物馆(subrecovery.top)](https://link.zhihu.com/?target=https%3A//aimodel.subrecovery.top/)[heading3]模型安装[content]下载模型后需要将之放置在指定的目录下,请注意,不同类型的模型应该拖放到不同的目录下。模型的类型可以通过[Stable Diffusion法术解析](https://link.zhihu.com/?target=https%3A//spell.novelai.dev/)检测。大模型(Ckpt):放入models\Stable-diffusionVAE模型:一些大模型需要配合vae使用,对应的vae同样放置在models\Stable-diffusion或models\VAE目录,然后在webui的设置栏目选择。Lora/LoHA/LoCon模型:放入extensions\sd-webui-additional-networks\models\lora,也可以在models/Lora目录Embedding模型:放入embeddings目录

ComfyUI BrushNet

原项目https://tencentarc.github.io/BrushNet/插件地址https://github.com/kijai/ComfyUI-BrushNet-Wrapper模型下载https://huggingface.co/Kijai/BrushNet-fp16/tree/main第一次运行会自动下载需要的模型,如果是用的ComfyUI-BrushNet-Wrapper节点模型将自动从此处下载:https://huggingface.co/Kijai/BrushNet-fp16/tree/main到ComfyUI/models/brushnet,因为环境问题,也可以手动去下载好了放在这个文件夹里面.另外,BrushNet提供了三个模型,个人测试下来,random这个效果比较好[heading1]工作流[content]配合mj出底图,在底图不变的基础上,添加文字或者图片内容另外可以使用G-DinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改[54海报.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Psz9bPPLBoIYwZxoO9Ncghb8n7g?allow_redirect=1)

Others are asking
Pix Verse 在哪下载
PixVerse 可以在以下网址下载:https://pixverse.ai/ 。 它具有以下特点: 人少不怎么排队,还有换脸功能。 支持文生视频、图生视频,人物一致性角色创建。 提示词使用中文、英文都可以。 文生视频支持正向、反向提示词、选风格、种子值,支持多种尺寸。 图生视频支持正向提示词、运动强度、种子值。 一致性人物角色支持正向、反向提示词、选人物、种子值,支持多种尺寸。 暂时不支持镜头控制,默认生成 4s 视频。 相关教程:
2025-01-14
如何将ollama下载到其他盘中
要将 ollama 下载到其他盘,您可以按照以下步骤进行操作: 1. 新建环境变量:ollama 默认的模型保存路径为 Windows:C:\\Users\\%username%\\.ollama\\models 。添加环境变量添加 OLLAMA_MODELS 环境变量。 2. 进入 ollama 官网下载:地址为 https://ollama.com/ 。 3. 下载语言模型:模型地址为 https://ollama.com/library 。 选择 llama 模型下载至本地。 选择本地文件夹,在 CMD 后粘贴刚才复制的命令。 开始下载,下载完成并测试。 4. 下载图像模型:模型地址为 https://ollama.com/library 。 选择 llava 模型下载至本地。 选择本地文件夹,在 CMD 后粘贴刚才复制的命令。 开始下载,下载成功。 5. 在 Comfy 中使用: 下载并安装 ollama 节点,下载地址: ,下载完成后安装到节点目录。 在 Comfy 中调用。 此外,还有以下相关信息供您参考: 为了应对没下载大模型带来的报错,需要下载大模型。首先,下载 ollama,网站: 网站中,复制代码。然后,像建议一样打开 ComfyUi 根目录下的 custom_nodes\\ComfyUiOllamaYN 的文件路径,在上方的路径下输入 cmd,进入到下方的命令行,右键即可粘贴刚才的代码,等待下载即可。 部署大语言模型: 下载并安装 Ollama:点击进入,根据您的电脑系统,下载 Ollama:https://ollama.com/download 。下载完成后,双击打开,点击“Install”。安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 windows 电脑,点击 win+R ,输入 cmd,点击回车。如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制以下命令行,粘贴进入,点击回车。回车后,会开始自动下载,等待完成。(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。
2025-01-13
2024年人工智能指数报告 下载
以下是为您提供的 2024 年人工智能指数报告的相关下载信息: 1. 《》由微软和领英联合发布,揭示了人工智能(AI)在工作场所的快速增长和深远影响。 2. 可在知识星球下载的报告: 《》深入分析了 AI Agent 的市场定义、发展阶段、核心组件及其在企业用户场景中的应用。 《》企业实施 AI Agent 的主要目标是降低运营成本,尤其是在知识库管理、数据分析、营销与客户服务等领域。 3. 《》数据处理应从模型为中心转向数据为中心,并强调向量数据库在提升模型服务能力中的核心作用。 4. 斯坦福大学发布的基础模型透明度指数相关报告:在上一届 SOAI 发布后不久,斯坦福大学发布了其首个基础模型透明度指数,模型开发者的平均得分为 37 分。在团队的中期更新中,这一分数攀升至 58 分。2024 年 5 月,该指数的最新一期基于 100 项指标,评估了 14 家领先的基础模型开发者的透明度,这些指标涵盖“上游”因素数据、劳动力、计算、围绕能力和风险的“模型级”因素、围绕分布的“下游”标准以及社会影响。计算和使用政策的评分出现了最强劲的改善,而“上游”评分仍然疲弱。 5. 《2024 年人工智能现状:辉煌、戏谑和“牛市”》报告链接:
2025-01-11
ChatGPT 4.0 下载
ChatGPT 4.0 无法直接下载。ChatGPT 是通过网络提供服务的。 ChatGPT 的基本概念是从网络、书籍等来源获取大量人类创作的文本样本,然后训练神经网络生成类似的文本。其神经网络由简单元素组成,操作也较为简单,但能生成成功类似于网络、书籍等内容的文本。 关于 ChatGPT 4.0 的相关动态: 1. ChatGPT 命令工具上线,提供搜索、图像、O1 推理三种命令,使普通模型具备高级推理能力,所有模型均支持命令调用,显著提升了整体能力。 2. ChatGPT 4.0 Canvas 功能助力写作,提供思路、润色语言、内容扩展,支持快速修改与撤回版本,极大提升写作效率,未来或将支持多人协作、数据图表生成、甚至直接生成 PPT。
2025-01-07
ChatGPT国内怎么下载并使用
以下是在国内下载并使用 ChatGPT 的方法: 苹果系统: 1. 在 AppleStore 下载 chatgpt:中国区正常下载不了,需要切换到美区。美区 AppleID 注册教程参考知乎链接: 。最终在 AppleStore 搜到 chatgpt 结果后下载安装,注意别下错。 2. 支付宝 购买苹果礼品卡 充值 订阅付费 App:打开支付,地区切换到【美区任意区】,往下滑,找到【品牌精选 折扣礼品卡】,点击进去,可以看到【大牌礼品卡】,往下滑找到【App Store&iTunes US】礼品卡,按需要的金额购买即可,建议先买 20 刀。 支付宝购买礼品卡。 在 apple store 中兑换礼品卡。 在 chatgpt 中购买订阅 gpt plus,如果中途不想继续订阅了,可到订阅列表中取消订阅。 安卓系统: 1. 安装 google play: 到小米自带的应用商店搜索 google play 进行安装。 安装好后,打开 GooglePlay,按照提示一步步操作,登录 GooglePlay。 2. 下载安装 chatgpt: 到谷歌商店搜索“ChatGPT”进行下载安装,开发者是 OpenAI,别下错。可能遇到“google play 未在您所在的地区提供此应用”的问题,解决方法如下:在 google play 点按右上角的个人资料图标。依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料。在这里看到账号没有地区,可以“添加信用卡或借记卡”,国内的双币信用卡就行,填写信息时地区记得选美。如果回到 google play 首页还搜不到 chatgpt,可以卸载重装 google play,操作过程保持梯子的 IP 一直是美,多试几次。 3. 体验 ChatGPT:如果只想体验 ChatGPT 3.5 版本,不升级 GPT4,直接登录第二部注册好的 ChatGPT 账号即可。 4. 订阅 GPT4 Plus 版本:先在 Googleplay 中的【支付和订阅】【支付方式】中绑定好银行卡,然后在区 chatgpt 里订阅 Plus。 完成上述步骤后,即可开始使用 ChatGPT 4o: 1. 开启对话:打开 ChatGPT 应用或网页,点击开始对话。会员不管是在苹果还是安卓手机上购买的,电脑上都能登录。 2. 体验最新语音对话功能:版本切到 ChatGPT 4o,点击右下角“耳机🎧”图标,选择一个声音,就可以体验流畅的语音对话。
2025-01-06
我想要做一个ai工具,针对电子元器件行业,我来提供专业术语翻译的知识库和固定描述语句翻译方法,希望上传中文PDF后,可以下载一个翻译好的PDF,0编程基础应该怎么做呢
对于您这种没有编程基础但想要制作针对电子元器件行业的 AI 工具来实现中文 PDF 上传并下载翻译好的 PDF 的需求,以下是一些建议: 首先,您需要学习一些基本的 AI 概念和技术知识,了解自然语言处理(NLP)的基本原理。 其次,可以考虑使用现有的无代码或低代码 AI 开发平台。这些平台通常具有可视化的界面和易于操作的工具,能够帮助您在不编写代码的情况下构建简单的 AI 应用。 然后,针对您的专业术语翻译需求,需要对电子元器件行业的术语进行系统整理和分类,建立一个清晰的术语库。 同时,确定固定描述语句的翻译规则和方法,并将其转化为可在 AI 工具中应用的逻辑。 在实施过程中,要不断测试和优化您的工具,以确保翻译的准确性和质量。 总之,虽然没有编程基础会增加一定的难度,但通过合理利用现有资源和持续学习,您是有可能实现这个目标的。
2025-01-04
Cursor什么添加模型
在 Cursor 中添加模型的方法如下: 1. 使用光标聊天、Ctrl/⌘K 和终端 Ctrl/⌘K,您可以轻松地在您选择的不同模型之间切换。 2. 在 AI 输入框下方,您将看到一个下拉列表,允许您选择要使用的模型。默认情况下,Cursor 已准备好使用以下模型: cursorsmall:cursorsmall 是 Cursor 的自定义模型,它不如 GPT4 智能,但速度更快,用户可以无限制地访问它。 3. 您可以在 Cursor Settings>Models>Model Names 下添加其他模型。 此外,有人通过接入更多模型如 Qwen2.5Coder、Llama3.3、deepseek v3、gemini2.0flash 等对 Cursor 进行配置,但接入再多的模型也无法完全填平 Cursor 免费版和 Cursor Pro 的差距。
2025-01-14
大模型排名怎么查看
要查看大模型排名,您可以通过以下几种方式: 1. 查阅相关的科技新闻网站、学术论坛或关注人工智能领域的社交媒体平台,这些渠道通常会及时发布最新的排名和评价。 2. 在通往 AGI 之路的知识库里,在会定期更新相关的排名报告,可以供您查阅。 3. 例如,您可以访问聊天机器人竞技场网站,输入一些问题,根据两个模型的响应选择获胜者,通过这种方式根据胜率计算 ELO 分数来确定排名。越高越好。目前表现最好的模型多为专有模型,如 OpenAI 的 GPT 系列,以及 Anthropic 的 Claude 系列等。 4. 斯坦福发布的大模型排行榜 AlpacaEval 也可作为参考,其支持两种模式的模型评估方式: alpaca_eval:直接根据目标模型输出的响应来评估模型。 alpaca_eval evaluate_from_model:根据 HuggingFace 已注册模型或这 API 提供商来端到端评测模型。评测过程分为以下 3 步: 选择一个评估集,并计算指定为 model_outputs 的输出。默认情况下,使用来自 AlpacaEval 的 805 个示例。 计算 golden 输出 reference_outputs。默认情况下,在 AlpacaEval 上使用 textdavinci003 的输出。 通过 annotators_config 选择指定的自动标注器,它将根据 model_outputs 和 reference_outputs 计算胜率。这里建议使用 alpaca_eval_gpt4 或 claude。根据不同的标注器,使用者还需要在环境配置中设定 API_KEY。 需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-01-14
大模型评测
以下是关于大模型评测的相关信息: 招聘信息:有大模型算法工程师/产品经理(实习)岗位在北京,工作包括大模型效果评测,要求研究生及以上学历,相关专业优先,有相关实习经验、代码能力强等。 开源评测体系及平台: FlagEval(天秤):旨在建立科学、公正、开放的评测基准、方法、工具集,创新构建了“能力任务指标”三维评测框架。 CEval:构造了覆盖多学科的中文知识和推理型测试集,并给出主流中文 LLM 的评测结果。 SuperCLUElyb:中文通用大模型匿名对战评价基准,发布了初步结果和基于 Elo 评级系统的排行榜。 测评示例:小七姐对文心一言 4.0、智谱清言、KimiChat 进行小样本测评,包括测评机制、目标、能力考量和多轮测评任务,如复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等,每轮测评都有不同的任务和模型参与。
2025-01-14
目前来看 AI生图模型 哪个最好用
目前比较好用的 AI 生图模型有以下几种: 1. Artguru AI Art Generator:是一个在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计,能将上传的照片转换为芭比风格,效果很好。 此外,Leonardo 也是一款不错的 AI 生图模型: 支持用户上传自己 DIY 的模型,尤其是 Lora 模型,增强了应用的灵活性和个性化。 提供丰富的模型选择,包括官方精心微调过的模型和社区贡献的 Lora 模型。 能够生成高质量的图片,在细节精致程度和整体艺术效果上表现出色。 价格已变得更加合理,但存在访问限制的问题。 在选择平台时,目前市面上有线上和线下本地部署两种: 线上平台出图速度快,不依赖本地显卡配置,无需下载大型模型,能看其他创作者的作品,但出图分辨率有限,制作横板、高清图片会受限。 线下部署可自己添加插件,出图质量高,但使用时电脑基本宕机,配置不高可能出现爆显存导致出图失败。 可以充分发挥线上和线下平台的优势,线上用于找参考、测试模型,线下作为主要出图工具。先在线上绘图网站的绘图广场发现想要的画风,点击创作会自动匹配模型和标签,截取游戏人物底图将线上算力集中在人物身上,多尝试不同画风得出合适模型和组合,最后在 C 站下载对应模型到本地加载部署后正式生图。但这些模型仍存在一些局限,如偶尔性能不稳定、生成内容不当等问题。
2025-01-14
智能体(AI Agent)对比大模型在应用中的优势是什么
智能体(AI Agent)对比大模型在应用中的优势主要包括以下方面: 1. 能够回答私有领域问题,例如公司制度、人员信息等,而大模型存在无法回答此类问题的局限性。 2. 可以及时获取最新信息,如实时天气、比赛结果等,大模型在这方面有所不足。 3. 能准确回答专业问题,如复杂数学计算、图像生成等,大模型在这些方面表现欠佳。 4. 适用于多种客户场景,如有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务的场景,以及缺少技术人员开发大模型问答应用的情况。 5. 基于大模型,通过集成特定的外部能力,弥补大模型的不足。例如集成实时信息获取、回答私有领域问题等外部能力。 6. 典型场景丰富,包括私有领域知识问答、个性化聊天机器人、智能助手等。如私有领域知识问答,只需准备好相关知识库文件,就可在百炼控制台快速创建应用;个性化聊天机器人可通过长期记忆保存关键历史对话信息,并集成夸克搜索和图像生成等插件扩展功能;智能助手可引入 RAG 能力、长期记忆和自定义插件等功能提升工作效率。 在基准测评方面,AI Agent 智能体正在最大程度释放 LLM 潜能,逐渐成为通向 AGI 的技术共识。现有关于 Agent 能力的测评,主要在英文场景或任务,目前还没有一个在中文任务和场景上针对中文大模型的全面测评。通过测评结果发现,在 Agent 核心基础能力上,国内模型已经较为接近或部分超过 GPT3.5 水平。 从原理上看,智能体中间的“智能体”就是 LLM 或大模型,通过为其增加工具、记忆、行动、规划四个能力来实现。行业里主要用到的是 langchain 框架,它把 LLM 之间以及 LLM 和工具之间通过代码或 prompt 的形式进行串接,在 prompt 层和工具层完成主要的设计逻辑。
2025-01-13
什么是多模态模型?
多模态模型是指能够处理和融合多种不同模态信息(如视觉、语言、音频等)的模型。 以下为一些常见的多模态模型示例: 智谱·AI 推出的具有视觉和语言双模态的模型: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,在 CogVLM 功能的基础上,具备 GUI 图像的 Agent 能力。代码链接:。 CogVLM17B:强大的开源视觉语言模型(VLM),基于对视觉和语言信息之间融合的理解,在多模态权威学术榜单上综合成绩优异。代码链接:。 Visualglm6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。代码链接:。 RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。代码链接:。 Google 的人工智能多模态大模型叫 Gemini,它是 Google DeepMind 团队开发的,不仅支持文本、图片等提示,还支持视频、音频和代码提示。能够理解和处理几乎任何输入,结合不同类型的信息,并生成几乎任何输出。被称为 Google 迄今为止最强大、最全面的模型,被描述为一种“原生多模态大模型”,从设计之初就支持多模态,能够处理语言、视觉、听觉等不同形式的数据。但请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-01-13