直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

ollama windows 安装

回答

以下是 Ollama 在 Windows 上的安装步骤:

  1. 前往 Ollama 官网下载并安装 Ollama。
  2. 安装完成后,打开 Powershell 运行相关命令。
  3. 编辑 Win 版的 run_win.ps1 文件,将目录中的图片路径和触发词填写,运行即可。
  4. 还可以参考以下教程:
    • 张梦飞的【全网最细】从 LLM 大语言模型、知识库到微信机器人的全本地部署教程:
      • 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 。
      • 下载完成后,双击打开,点击“Install” 。
      • 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。
    • 4-SeasonYou 工作流副本:
      • 首先,下载 ollama,网站:Download Ollama on Windows
      • 其次,在llama3:8b-instruct-q4_K_M(ollama.com)网站中,复制代码。
      • 然后,像建议一样打开 ComfyUi 根目录下的 custom_nodes\ComfyUi-Ollama-YN 的文件路径,在上方的路径下输入 cmd ,进入到下方的命令行,右键即可粘贴刚才的代码,等待下载即可。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

打标工具安装

先去[Ollama官网](https://www.ollama.com/)下载并安装Ollama,然后打开Powershell运行以下命令[heading4]Win安装教程[heading4]Mac安装教程[heading4]使用[content]Win编辑run_win.ps1文件,Mac编辑run_mac.sh文件,将目录中的图片路径和触发词填写,运行即可[heading3]GPT 4V打标工具[content]该工具需要使用GPT 4.0的API,3.5不可用,详情见兔狲大佬视频教程Windows版安装教程[heading3]WD1.4[content]打开WebUI,找到Tagger选项卡,如果没有的话说明没有安装插件,参考[插件安装](https://yyn6skjv3j.feishu.cn/wiki/GICawhF95inhcbkdl72c3vf6nMe)教程安装插件[heading3]BooruDatasetTagManager标签处理工具[content]前往https://github.com/starik222/BooruDatasetTagManager/releases下载软件包,解压缩后双击运行即可

张梦飞:【全网最细】从LLM大语言模型、知识库到微信机器人的全本地部署教程

我们需要进行部署的有三大部分1、本地部署大语言模型2、本地部署FastGPT+OneAPI3、本地部署HOOK项目或COW[heading1]一、部署大语言模型[content]一、下载并安装Ollama1、点击进入,根据你的电脑系统,下载Ollama:https://ollama.com/download2、下载完成后,双击打开,点击“Install”3、安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成http://127.0.0.1:11434/二、下载qwen2:0.5b模型(0.5b是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)1、如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+ Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、复制以下命令行,粘贴进入,点击回车:3、回车后,会开始自动下载,等待完成(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)4、下载完成后你会发现,大模型已经在本地运行了。输入文本即可进行对话。

4-SeasonYou 工作流 副本

(MaxRetryError('HTTPSConnectionPool(host=\'huggingface.co\',port=443):Max retries exceeded with url:/QuanSun/EVA-CLIP/resolve/main/EVA02_CLIP_L_336_psz14_s6B.pt(Caused by SSLError(CertificateError("hostname \'huggingface.co\' doesn\'t match either of \'*.extern.facebook.com\',\'extern.facebook.com\'")))'),'(Request ID:05b932bd-e982-434e-8dc7-e41cca2e949f)')⑧Ollama大模型部分,为了应对没下载大模型带来的报错,因此需要下载大模型首先,下载ollama,网站:[Download Ollama on Windows](https://ollama.com/download)其次,在[llama3:8b-instruct-q4_K_M(](https://ollama.com/library/llama3:8b-instruct-q4_K_M)[ollama.com](https://ollama.com/library/llama3:8b-instruct-q4_K_M)[)](https://ollama.com/library/llama3:8b-instruct-q4_K_M)网站中,复制代码如红框:然后,像我建议一样打开ComfyUi根目录下的custom_nodes\ComfyUi-Ollama-YN的文件路径,在上方的路径下输入cmd:进入到下方的命令行,右键即可粘贴刚才的代码,等待下载即可:⑨instanid部分:

其他人在问
ollama嵌入向量在模型后有什么用
嵌入向量在模型后的作用主要体现在以下方面: 1. 用于文档内容的表示和检索:将文档分成块,计算嵌入向量并存储在向量存储中,在测试时通过查询向量存储获取可能与任务相关的块,填充到提示中进行生成。 2. 提升模型的检索能力:在大语言模型应用程序中,向量存储成为检索相关上下文的主要方式,嵌入向量有助于更高效地获取相关信息。 3. 支持多语言和不同粒度的检索任务:例如像 bgem3 这样的向量模型,支持超过 100 种语言的语义表示及检索任务,能实现句子、段落、篇章、文档等不同粒度的检索。 在实际应用中,如在 LangChain 中,本地向量存储使用量较大,而在计算文本片段的嵌入时,OpenAI 占据主导地位,开源提供商如 Hugging Face 等也被较多使用。
2024-11-12
ollama下载链接
Ollama 的下载链接为:https://ollama.com/download 。 Ollama 具有以下特点: 1. 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 3. 提供模型库,用户可通过 https://ollama.com/library 查找并下载不同的模型,这些模型有不同参数和大小以满足不同需求和硬件条件。 4. 支持用户自定义模型,可通过简单步骤修改模型的温度参数等。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 安装完之后,确保 ollama 后台服务已启动(在 macOS 上启动 ollama 应用程序即可,在 Linux 上可以通过 ollama serve 启动)。可以通过 ollama list 进行确认。还可通过 ollama 命令下载模型。
2024-11-07
如何通过ollama 搭建本地知识库
以下是通过 Ollama 搭建本地知识库的步骤: 1. 了解背景:本文思路来源于视频号博主黄益贺,旨在分享如何部署本地大模型及搭建个人知识库,让您了解相关核心技术及流程。 2. Ollama 简介:Ollama 是一个开源框架,用于简化本地运行大型语言模型的过程,是轻量级、可扩展的,提供简单 API 和预构建模型库,适合初学者和非技术人员,能推动大型语言模型的发展和应用。 3. 安装 Ollama:官方下载地址为 https://ollama.com/download ,安装完成后可通过访问特定链接判断是否安装成功。 4. 运行本地大模型:安装完成后,在命令行中运行相应命令,模型名称可通过查看,如选择 llama2 大模型,可根据机器配置选择合适参数的模型,运行时 Ollama 会自动下载大模型到本地。 此外,还有关于本地部署资讯问答机器人:Langchain + Ollama + RSSHub 实现 RAG 的相关内容,包括加载所需库和模块、从订阅源获取内容、为文档内容生成向量等步骤。
2024-10-12
Ollama是什么?
Ollama 是一个开源框架,具有以下特点和功能: 1. 专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计,简化了部署过程,方便非专业用户管理和运行复杂模型。 2. 是一个轻量级、可扩展的框架,提供简单的 API 来创建、运行和管理模型,还有预构建模型库,降低了使用门槛,适合自然语言处理研究、产品开发以及初学者或非技术人员使用。 3. 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 4. 提供模型库,用户可从中下载不同的模型,这些模型有不同的参数和大小,以满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 5. 支持用户自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 6. 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 7. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 官方下载地址:https://ollama.com/download 。安装完成后,可通过 ollama list 确认,未下载模型时通常显示为空。可通过 ollama 命令下载模型。
2024-10-09
dify的部署和ollama联动
以下是关于 Dify 与 Ollama 联动部署的相关信息: Ollama 的特点和功能: 1. 支持多种大型语言模型,如通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 2. 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 CPU 和 GPU。 3. 提供模型库,用户可从中下载不同参数和大小的模型,通过 https://ollama.com/library 查找。 4. 支持自定义模型,可修改温度参数调整创造性和连贯性,或设置特定系统消息。 5. 提供 REST API 用于运行和管理模型,以及与其他应用程序的集成选项。 6. 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 Ollama 的安装和使用: 1. 访问 https://ollama.com/download/ 下载安装。 2. 安装完后,确保 Ollama 后台服务已启动。在 Mac 上启动 Ollama 应用程序,在 Linux 上通过 ollama serve 启动。可通过 ollama list 确认。 3. 通过 ollama 命令下载模型。 Google Gemma 的本地部署: 1. 进入 ollama.com 下载程序并安装(支持 Windows、Linux 和 macOS)。 2. 在命令提示符中输入 ollama v 检查版本,安装完成后版本应为 0.1.26。 3. 输入 cls 清空屏幕,然后输入 ollama run gemma 运行模型(默认是 2b),首次需要下载。若想用 7b,运行 ollama run gemma:7b 。 4. 完成后可直接对话。2b 反应速度快但互动话题有限,7b 输出内容质量相对高但可能卡顿,对非英文语种反馈不稳定。 5. 常用内部指令:/set 显示设置界面可调整的设置项;/show 显示模型信息;/load <model> 加载已有模型;/bye 退出。 整体框架设计思路: 可先采取 Langchain + Ollama 的技术栈作为 demo 实现,后续也可考虑使用 dify、fastgpt 等更直观易用的 AI 开发平台。本次开发的运行环境是 Intel Mac,其他操作系统也可行。下载模型等可能需要梯子。 Langchain 简介: Langchain 是当前大模型应用开发的主流框架之一,提供一系列工具和接口,使与 LLM 交互变简单。其核心在于“链”概念,是模块化组件系统,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,可灵活组合支持复杂应用逻辑。其生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具,帮助开发者高效管理从原型到生产的各个阶段以优化 LLM 应用。
2024-10-08
如在腾讯云上部署ollama
以下是在腾讯云上部署 Ollama 的详细步骤: 一、下载并安装 Ollama 1. 根据您的电脑系统,点击进入 https://ollama.com/download 下载 Ollama。 2. 下载完成后,双击打开,点击“Install”。 3. 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 二、下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型) 1. 如果您是 Windows 电脑,点击 win+R,输入 cmd,点击回车。如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 2. 复制以下命令行,粘贴进入,点击回车。 3. 回车后,会开始自动下载,等待完成。(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了) 4. 下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。 三、下载 Open WebUI 1. 回到桌面,再打开一个新的终端窗口(可以放心多个窗口,不会互相影响)。如果您是 Windows 电脑,点击 win+R,输入 cmd,点击回车。如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 2. 将以下命令输入,等待下载。 3. 出现相关图示,即是下载完成。 4. 点击或复制下方地址进入浏览器:http://localhost:3000/auth/ 5. 点击进行注册即可,注册输入昵称、邮箱、密码。注册完即可登录进入。 6. 登入后,看到如下页面,点击顶部的 Model,选择“llama3:8b”。 7. 完成。您已经拥有了一个属于自己的本地大语言模型。可以开始与他对话啦! 四、部署 Google Gemma 1. 首先进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 2. 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应该显示 0.1.26。 3. 输入 cls 清空屏幕,接下来直接输入 ollama run gemma 运行模型(默认是 2b),首次需要下载,需要等待一段时间,如果想用 7b,运行 ollama run gemma:7b 。 4. 完成以后就可以直接对话了,2 个模型都安装以后,可以重复上面的指令切换。
2024-09-27
windows电脑和安卓手机可以怎么注册并使用chatgpt? 请详细说明如何访问国外网络和注册及使用、
以下是 Windows 电脑和安卓手机注册并使用 ChatGPT 的详细步骤: 安卓手机: 1. 对于自带谷歌框架的机型(如红米 K60): 打开系统设置。 拉到最底下,点击更多设置。 点击账号与同步。 点击谷歌基础服务。 打开基础服务按钮。 2. 安装 Google Play: 到小米自带的应用商店搜索 Google Play 进行安装。 安装好后打开谷歌商店,点击右上角登录谷歌账号。 3. 安装 ChatGPT: 到谷歌商店搜索 ChatGPT 进行下载安装,建议把谷歌邮箱也安装上,方便接收验证码。 如果您只想体验 ChatGPT 3.5 版本,不升级 GPT4,可跳转到第 4 步第 6 小步进行登录使用,如果想直接订阅 GPT4 Plus 版本,请接着往下看。 Windows 电脑:未提供相关内容。 需要注意的是,在中国访问国外网络需要合法合规的途径。同时,ChatGPT 的使用也需要遵守其相关规定和服务条款。
2024-11-14
未来,想要用AI更多,买苹果电脑还是windows电脑
在未来如果想要更多地使用 AI ,选择苹果电脑还是 Windows 电脑取决于您的具体需求和使用场景。 苹果电脑通常具有出色的稳定性和优化的操作系统,其硬件和软件的整合度较高,对于一些特定的 AI 应用,如基于苹果生态的开发和设计工作,可能会有较好的体验。 Windows 电脑则具有更广泛的硬件选择和软件兼容性。在 AI 领域,许多专业的软件和工具在 Windows 平台上也有良好的支持。 如果您更注重系统的稳定性和一体化体验,且对苹果的生态系统有偏好,那么苹果电脑可能是不错的选择。但如果您需要更多的硬件配置选择和更广泛的软件支持,Windows 电脑可能更适合您。 最终的决策还需综合考虑您的预算、具体的 AI 应用需求以及个人使用习惯等因素。
2024-11-01
怎么在 windows 部署 微信机器人
以下是在 Windows 部署微信机器人的详细步骤: 一、安装环境 1. 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。 2. 在命令窗口中,粘贴入以下代码,确认是否有 python。 3. 粘贴入以下代码,确认是否有 pip。 4. 两步命令输入完,核对一下。如果有的话,会分别显示出版本号,可以跳过“安装环境这一步,直接到“二、部署项目”。如果没有,需要按照以下步骤安装: 先进行 python 的安装,安装包已准备好,直接点击下载。 关闭窗口,再次运行那两行命令会发现已经有了。 二、部署项目 1. 下载 COW 机器人项目,解压缩。 2. 解压后,打开 COW 文件夹。 3. 在空白处,shift+鼠标右键,点击“在此处打开 Powershell 窗口”。 4. 在 Powershell 窗口中,粘贴进入:pip install r requirements.txt ,等待执行完成后,继续粘贴:pip install r requirementsoptional.txt 。 5. 上边的都执行完成后,关闭窗口。在当前目录下,找到 configtemplate.json 文件。 6. 新生成的便是配置文件,右键使用记事本打开这个文件,修改相应内容。 删除新文件里的所有代码。 复制提供的代码,粘贴到文件里,并找到第 4 行,把一开始注册并保存好的千问 API key 粘贴到双引号里。 7. 保存上述文件,然后在当前文件下,找到 plugins/godcmd 文件夹,复制 config.json.template 重命名为 config.json 。 8. 双击 config.json,进入后,设置下 password 和 admin_users ,可以设置为和示例一样,后边再改,点击保存后关闭。 注意:本教程完成后,程序将在您的电脑本地运行,假如您关掉了窗口,那么进程也就结束。所以,如果您想让 AI 持续使用,就必须保持窗口打开和运行,也就是电脑不能关。Mac 系统步骤也是一样,只是打开命令符的命令些许不同,遇到问题问大模型就好了。 此外,还有基于 Hook 机制的微信 AI 机器人部署步骤: 1. 接下来,需要使用一个特定版本的微信,已为您准备好,点击下载,下载后直接替换安装。(安装后,有可能您在的群却显示退出,其实没事,发个消息就好了,并不是真的退出) 2. 下载 NGCbot 机器人项目,解压缩。 3. 解压后,打开 NGCbot 文件夹。 4. 在空白处,shift+鼠标右键,点击“在此处打开 Powershell 窗口”。 5. 打开 shell 窗口后,粘贴进入相关代码,并点击回车。 6. 粘贴进入相关代码,并点击回车,等待安装,安装完成后,关闭窗口即可。 7. 然后在当前的 NGCbot 文件夹下,找到 Config 文件,找到 config.yaml,右键选择打开方式,选择用记事本方式打开。 8. 打开后看到相应页面,把 Administrators 先改成特定内容。如果您已经有了 FastGPT 或者 OpenAI 的 key,可以把这里的 Ai_Lock,修改成“1”。然后拉到最下边,在 OpenAI 那里,去添加您的 AI 模型 key。填写格式,参照原有的格式即可。
2024-09-09
windows 微信机器人
以下是关于 Windows 微信机器人的相关内容: 基于 Hook 机制的微信 AI 机器人具有相对更高的稳定性和安全性,更简单易上手,其劣势是目前插件相对较少,且仅支持 Windows 系统。此项目在 Windows 系统上运行,无需服务器,对小白更加友好。 项目以 Windows 10 系统为例,安装步骤如下: 1. 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。 2. 在命令窗口中,粘贴入相关代码,确认是否有 python 和 pip。 若有,会分别显示出版本号,可跳过“安装环境”这一步,直接到“部署项目”。 若无,则需按照以下步骤安装: 先进行 python 的安装。 3. 部署项目: 下载 COW 机器人项目,解压缩。 解压后,打开 COW 文件夹。 此机器人具有以下功能: 基于知识库的 AI 回复 支持积分系统 支持自动拉人 检测广告 自动群发 还有一些有趣的小功能,如安全新闻定时推送、Kfc 文案、星座查询、天气查询等。 此项目还能结合 FastGPT 进行使用,在@zyh 的帮助下,对群发功能进行了进一步的优化和二开,目前在内测中,完善后会开放。
2024-08-29
ComfyUI 安装教程
以下是 ComfyUI 的安装教程: 1. 电脑硬件要求: 系统:Windows 7 以上。 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。 硬盘留有足够的空间,最低 100G 起步(包括模型)。 注:mac 系统、AMD 显卡、低显卡的情况也可以安装使用,但功能不全,出错率偏高,严重影响使用体验,个人建议升级设备或者采用云服务器玩耍。 下载并更新 Nvidia 显卡驱动下载地址:https://www.nvidia.cn/geforce/drivers/ 2. 下载并安装所需要环境(安装过 WebUI 的同学请忽略本步骤): 依次下载并安装 python、VSCode、Git,安装过程中一直点击勾选对应选项,一直下一步。 Python 版本 3.10 以上,下载地址: VSCode 下载地址: Git 下载地址: 安装 Python 时选中“将 Python 添加到系统变量”。 安装 CUDA:https://developer.nvidia.com/cuda1220downloadarchive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network ,下载文件:cuda_12.2.0_536.25_windows.exe 3. 安装 ComfyUI: 地址:https://github.com/comfyanonymous/ComfyUI 可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git 或者下载安装包 下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 4. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 5. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 6. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到你已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 7. 快捷键(未提及具体快捷键内容)
2024-11-17
sd安装
以下是关于 SD 安装的详细步骤: 1. 系统要求:系统需为 Win10 或 Win11。 2. Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查自己的电脑配置能否带动 SD的显卡,显卡内存 4GB 以上。 打开任务管理器:同时按下 ctrl+shift+esc。 查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标跳转至对应安装教程页:。 4. 配置不够可选择云端部署(Mac 也推荐云端部署):。 5. 备选:SD 好难,先试试简单的无界 AI:。 补充说明: 如果在以上使用过程中发生错误,那么你可能需要部署一下使用环境,我们再次开启最傻瓜安装教学模式。 1. 安装 cuda_11.8.0_522.06_windows.exe。 2. 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。以上步骤,我们在安装 roop 的时候也做过,如果安装过 roop 的可以跳过。 3. 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 4. 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 5. 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 6. 重启,装好了,重启电脑,即可运行。 关于【SD】无需 Lora,一键换脸插件 Roop 的安装: 安装时间比较长,要耐心等待。安装好之后,打开 SD 文件目录下的这个文件夹。在地址栏输入“cmd”,然后回车。在打开的 dos 界面里面,将“python m pip install insightface==0.7.3 user”粘贴进来,就会自动开始安装 insightface。如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包我已经更新到了云盘里,后台回复【SD】就可以下载。安装完成后,重新打开我们的启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。完成这些后,Roop 插件就可以正常使用了。这个插件主要适用于真实的人脸替换,所以对二次元之类的人物作用不大。我们选用一个真实系模型“realisticVisionV20”,关键词描述的是一个老人举着气球。得到了一张如下的照片。接下来启用 ROOP 插件,选择你想要替换的人物照片,面部修复选择“GFPGAN”。右边的参数数值越低,人物会越像,但是图像会很模糊;数值越高人物越不像,但是图像会很清晰。这个就取决于你的需求了,我使用 0.5 测试一下。最下面还有一个放大算法,可以使用一个模型放大你的图像,基本就相当于高清修复。设置好后,点击生成。可以看到,人脸部分的像素是偏低的,有点模糊。但是没有关系,我们可以将这张图发送到“图生图”,开一个比较小的重绘幅度。然后使用 controlnet 中的 tile 模型进行重绘。换脸完成。如果想要这个插件的话,可以添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,另外,科学上网很重要。特别提醒,此插件谨慎使用,切勿触犯法律。
2024-11-16
SD安装包
以下是关于 SD 安装包的详细步骤: 1. SD 云端部署 部署流程 安装和配置基础环境 在浏览器上按照腾讯云>控制台>云服务器的路径找到购买的实例,点击启动,会新开一个远程访问的窗口,输入购买时设置的密码进入,这样就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量。 安装显卡驱动:用内置的 IE 或下载 Chrome,打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动并安装。 配置环境变量:驱动安装完成后,先找到驱动所在的目录(一般是在「C:\\Program Files\\NCIDIA Corporation」),复制这个路径。找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量。找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,粘贴刚才复制的 nvidia 驱动安装地址,保存即可。 下载安装 SD 整合包 整合包也就是打包了 SD 和 Web UI 方便大家更好的使用的集合,以秋叶的 SD 整合包举例讲解。 下载 SD 整合包:秋叶 SD 整合包下载地址:https://pan.baidu.com/s/1uavAJJdYYWhpnfjwQQDviQ?pwd=a123 ,提取码:a123 。建议在服务器上装个百度网盘或者其他能够提高下载速度的工具,有百度会员则无所谓。 安装 SD 整合包:安装之后,打开安装包一级目录,双击启动器运行依赖(安装一些 SD 运行所必要的基础环境,比如 Microsoft Desktop Runtime 等),安装完成后就可以启动 SD 了。 2. 补充说明 如果在以上使用过程中发生错误,那么可能需要部署一下使用环境,再次开启最傻瓜安装教学模式。 安装 cuda_11.8.0_522.06_windows.exe。 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装。(如果安装过 roop 的可以跳过) 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 重启,装好了,重启电脑,即可运行。 请注意,如果想要获取插件安装包,可以添加公众号【白马与少年】,回复【SD】即可。
2024-11-11
python安装后文本文档改为".py"后跳转不到IDLE
很抱歉,目前知识库中没有关于“python 安装后文本文档改为‘.py’后跳转不到 IDLE”这一问题的相关内容。但通常情况下,出现这种情况可能是以下原因导致的: 1. 文件关联设置问题:您的系统可能没有正确将.py 文件与 IDLE 关联,您可以检查系统的文件关联设置。 2. IDLE 配置问题:IDLE 的配置可能存在异常,您可以尝试重新安装或配置 IDLE。 3. 环境变量问题:Python 的环境变量设置不正确也可能导致此问题,您需要确认环境变量是否正确配置。 建议您逐一排查以上可能的原因,以解决该问题。
2024-11-10
如何安装SD
安装 SD 的步骤如下: 1. 系统要求:系统需为 Win10 或 Win11。 2. Win 系统查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:检查自己的电脑配置能否带动 SD的显卡;显卡内存 4GB 以上。 打开任务管理器:同时按下 ctrl+shift+esc。 查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存。 查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 3. 配置达标跳转至对应安装教程页: 4. 配置不够可选择云端部署(Mac 也推荐云端部署): 5. 备选:SD 好难,先试试简单的无界 AI: 此外,还有以下相关插件的安装: 1. 【SD】无需 Lora,一键换脸插件 Roop: 安装时间比较长,要耐心等待。 安装好之后,打开 SD 文件目录下的这个文件夹。 在地址栏输入“cmd”,然后回车。 在打开的 dos 界面里面,将“python m pip install insightface==0.7.3 user”粘贴进来,就会自动开始安装 insightface。 如果这个阶段出现错误,建议去下载使用最新的秋叶 4.2 整合包(6 月 23 号更新),下载包已更新到云盘,后台回复【SD】即可下载。 安装完成后,重新打开启动器,后台会继续下载一些模型,此时一定要保证全程科学上网。 完成这些后,Roop 插件就可以正常使用。 2. 【SD】商业换装如此简单,Segment Anything 保姆级教学: 补充说明:如果在使用过程中发生错误,可能需要部署使用环境。 安装 cuda_11.8.0_522.06_windows.exe。 安装 VisualStudioSetup.exe,选择 C++的桌面开发安装(安装过 Roop 的可跳过)。 拷贝 ninja,打开 ninja 文件包,把里面的内容拷贝到秋叶包根目录。 拷贝 python,打开 python 文件包,把里面的内容拷贝到秋叶包根目录替换。 拷贝模型,SAM 和 GroundingDINO 的模型都在这了,放到对应的文件夹即可。 最后:重启电脑,即可运行。 特别提醒:相关插件使用需谨慎,切勿触犯法律。获取插件安装包,可添加公众号【白马与少年】,回复【SD】。
2024-11-10
本地安装大模型使用4060显卡和4060TI显卡有什么区别
在本地安装大模型时,4060 显卡和 4060TI 显卡主要有以下区别: 显存方面:显存是选择显卡的重要因素。4060 显卡的显存通常小于 4060TI 显卡。对于一些对显存要求较高的任务,如生成更大分辨率的超清图片、使用更高的参数进行 Dream booth 微调等,4060TI 显卡的大显存更具优势。 生成速度方面:4060TI 显卡的速度比 4060 显卡快。但在某些情况下,如果显存不足导致无法执行任务,速度稍慢就显得不那么重要了。 总体而言,在预算允许的情况下,16GB 的 4060TI 显卡由于其较大的显存,可以执行更多样的 AI 生成任务。但如果预算有限,4060 显卡也是一个可行的选择。
2024-11-06