直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

怎么在 windows 部署 微信机器人

回答

以下是在 Windows 部署微信机器人的详细步骤:

一、安装环境

  1. 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。
  2. 在命令窗口中,粘贴入以下代码,确认是否有 python。
  3. 粘贴入以下代码,确认是否有 pip。
  4. 两步命令输入完,核对一下。如果有的话,会分别显示出版本号,可以跳过“安装环境这一步,直接到“二、部署项目”。如果没有,需要按照以下步骤安装:
    • 先进行 python 的安装,安装包已准备好,直接点击下载。
    • 关闭窗口,再次运行那两行命令会发现已经有了。

二、部署项目

  1. 下载 COW 机器人项目,解压缩。
  2. 解压后,打开 COW 文件夹。
  3. 在空白处,shift+鼠标右键,点击“在此处打开 Powershell 窗口”。
  4. 在 Powershell 窗口中,粘贴进入:pip install -r requirements.txt ,等待执行完成后,继续粘贴:pip install -r requirements-optional.txt 。
  5. 上边的都执行完成后,关闭窗口。在当前目录下,找到 config-template.json 文件。
  6. 新生成的便是配置文件,右键使用记事本打开这个文件,修改相应内容。
    • 删除新文件里的所有代码。
    • 复制提供的代码,粘贴到文件里,并找到第 4 行,把一开始注册并保存好的千问 API key 粘贴到双引号里。
  7. 保存上述文件,然后在当前文件下,找到 plugins/godcmd 文件夹,复制 config.json.template 重命名为 config.json 。
  8. 双击 config.json,进入后,设置下 password 和 admin_users ,可以设置为和示例一样,后边再改,点击保存后关闭。

注意:本教程完成后,程序将在您的电脑本地运行,假如您关掉了窗口,那么进程也就结束。所以,如果您想让 AI 持续使用,就必须保持窗口打开和运行,也就是电脑不能关。Mac 系统步骤也是一样,只是打开命令符的命令些许不同,遇到问题问大模型就好了。

此外,还有基于 Hook 机制的微信 AI 机器人部署步骤:

  1. 接下来,需要使用一个特定版本的微信,已为您准备好,点击下载,下载后直接替换安装。(安装后,有可能您在的群却显示退出,其实没事,发个消息就好了,并不是真的退出)
  2. 下载 NGCbot 机器人项目,解压缩。
  3. 解压后,打开 NGCbot 文件夹。
  4. 在空白处,shift+鼠标右键,点击“在此处打开 Powershell 窗口”。
  5. 打开 shell 窗口后,粘贴进入相关代码,并点击回车。
  6. 粘贴进入相关代码,并点击回车,等待安装,安装完成后,关闭窗口即可。
  7. 然后在当前的 NGCbot 文件夹下,找到 Config 文件,找到 config.yaml,右键选择打开方式,选择用记事本方式打开。
  8. 打开后看到相应页面,把 Administrators 先改成特定内容。如果您已经有了 FastGPT 或者 OpenAI 的 key,可以把这里的 Ai_Lock,修改成“1”。然后拉到最下边,在 OpenAI 那里,去添加您的 AI 模型 key。填写格式,参照原有的格式即可。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

张梦飞:【全网最细】从LLM大语言模型、知识库到微信机器人的全本地部署教程

以下二选一,建议先选择COW注意:本教程完成后,程序将在你的电脑本地运行,假如你关掉了窗口,那么进程也就结束。所以,如果你想让AI持续使用,就必须保持窗口打开和运行,也就是电脑不能关。以下教程以windows10系统为例/mac系统步骤也是一样,只是打开命令符的命令些许不同,遇到问题问大模型就好了二、安装环境1、点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口2、在命令窗口中,粘贴入以下代码,确认是否有python3、粘贴入以下代码,确认是否有pip4、两步命令输入完,核对一下如果有的话,会如上图一样,分别显示出版本号。那么可以跳过“安装环境这一步,直接到“二、部署项目””如果没有的话,会如下图所示,那么需要安装下边的步骤,一步一步安装。5、先进行python的安装,我帮你把python的安装包已经下载好了,直接点击下载:5.1 python安装步骤:5.2关闭窗口,再次运行那两行命令会发现已经有了。三、部署项目6、下载COW机器人项目,也给你准备好了,直接下载,然后解压缩。7、解压后,打开COW文件夹,

张梦飞:【保姆级】基于Hook机制的微信AI机器人,无需服务器,运行更稳定,风险更小

6、接下来,我们需要使用一个特定版本的微信。给你准备好了,点击下载,下载后直接替换安装。(安装后,有可能你在的群却显示退出,其实没事,发个消息就好了,并不是真的退出)7、下载NGCbot机器人项目,也给你准备好了,直接下载,然后解压缩。(以后版本有更新,可以自己去下载新版本:https://github.com/ngc660sec/NGCBot.git)8、解压后,打开NGCbot文件夹,9、在空白处,shift+鼠标右键,点击“在此处打开Powershell窗口”10、打开shell窗口后。粘贴进入以下代码,并点击回车:11、粘贴进入以下代码,并点击回车:等待安装,安装完成后,关闭窗口即可。12、然后在当前的NGCbot文件夹下,找到Config文件,找到config.yaml,右键选择打开方式,选择用记事本方式打开。13、打开后看到下图页面,13.1把Administrators,先改成下图这个“wxid_dna83ykqawl222”(/狗头)13.2如果你已经有了FastGPT或者OpenAI的key,---那么你可以把这里的Ai_Lock,修改成“1”。然后拉到最下边,在OpenAI那里,去添加你的AI模型key。填写格式,参照原有的格式即可。

梦飞:在自己的电脑上部署COW微信机器人项目

6、下载COW机器人项目,也给你准备好了,直接下载,然后解压缩。7、解压后,打开COW文件夹,8、在空白处,shift+鼠标右键,点击“在此处打开Powershell窗口”9、在Powershell窗口中,粘贴进入:pip install -r requirements.txt10、等待执行完成后,继续粘贴:pip install -r requirements-optional.txt12、上边的都执行完成后,关闭窗口。在当前目录下,找到config-template.json文件。如下图:13、新生成的便是配置文件,右键--使用记事本打开这个文件,我画红框的地方是需要修改的地方。*因为这个地方对格式和符合要求比较严格,如果是小白,建议你直接复制我下方的配置。14、删除新文件里的所有代码。复制下边的代码,粘贴到文件里。找到第4行,把一开始就让你注册并保存好的千问API key,粘贴到双引号里。这也是你唯一需要修改的地方。修改完之后,点击保存,关闭文件。15、保存上述文件,然后在当前文件下,找到plugins/godcmd文件夹,复制config.json.template重命名为config.json16、双击config.json,进入后,设置下你的password和admin_users可以设置为和我一样的,后边再改,点击保存后关闭。

其他人在问
windows 微信机器人
以下是关于 Windows 微信机器人的相关内容: 基于 Hook 机制的微信 AI 机器人具有相对更高的稳定性和安全性,更简单易上手,其劣势是目前插件相对较少,且仅支持 Windows 系统。此项目在 Windows 系统上运行,无需服务器,对小白更加友好。 项目以 Windows 10 系统为例,安装步骤如下: 1. 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。 2. 在命令窗口中,粘贴入相关代码,确认是否有 python 和 pip。 若有,会分别显示出版本号,可跳过“安装环境”这一步,直接到“部署项目”。 若无,则需按照以下步骤安装: 先进行 python 的安装。 3. 部署项目: 下载 COW 机器人项目,解压缩。 解压后,打开 COW 文件夹。 此机器人具有以下功能: 基于知识库的 AI 回复 支持积分系统 支持自动拉人 检测广告 自动群发 还有一些有趣的小功能,如安全新闻定时推送、Kfc 文案、星座查询、天气查询等。 此项目还能结合 FastGPT 进行使用,在@zyh 的帮助下,对群发功能进行了进一步的优化和二开,目前在内测中,完善后会开放。
2024-08-29
如何搭建一个微信对话AI
以下是搭建微信对话 AI 的步骤: 1. 配置极简未来(Link.AI)平台 按照官方教程操作:https://docs.linkai.tech/platform/createapp ,学习补充:https://docs.linkai.tech/platform/quickstart 。 注意以下几点: 教程中的应用是创建具体的 AI 问答机器人应用。 教程中的知识库是给绑定到指定问答机器人的资料数据集,让机器人基于这些内容回答问题。 知识库应用中的应用设定是给 AI 机器人的提示词内容或者人设,具体可看教程:https://waytoagi.feishu.cn/wiki/OqJQwzq2wi9EIOkFtFkclM24nSe 。 创建成功的 AI 应用,记住应用 ID,用于后续对接微信聊天机器人。 2. 配置腾讯云轻量应用服务器 配置部署 COW 组件,例如配置 GROUP_NAME_WHITE_LIST 参数来设定哪些群组的消息需要自动回复。 基于创建的模板切换到容器编排界面进行 COW 服务部署,等待部署成功。 3. 登录微信绑定 COW 组件 若扫描二维码等出现意外情况,可退回到容器配置处重启容器服务,重新扫码登录。 后续若想修改 COW 组件的配置,如修改机器人回复的前缀或开启语音识别等,进入编排模板的配置界面修改参数,保存后回到容器编排界面重新部署新的容器编排。 至此,完成 COW 组件的部署和微信号的绑定,即可开始与机器人微信号进行对话。
2024-09-10
可否将 coze 平台上的 bot 部署到微信小程序上?应该怎么做?
将 Coze 平台上的 Bot 部署到微信小程序上可以参考以下步骤: 1. 通过 Coze 建立定时任务,执行工作流二,并添加如分析文章和搜索文章等能力,使其成为一个消息情报官的 Agent。 2. 发布到想要的平台,如微信小程序等。 3. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 Docker 容器,启动 COW 项目与微信取得关联。 在宝塔面板中操作,包括添加 Docker 中的“项目模板”等。 将编译好的内容复制进来,创建容器,选择容器编排,填入模板和名称。 查看运行情况,手动刷新日志,若看到“WeChat login success”,则成功将 Bot 接入微信。 4. 记下要对接的 Coze AI Bot 的 Bot ID,在其设计界面所在的链接中获取,然后将 Bot 发布到 Bot as API 上。
2024-09-09
你用扣子将智能体发布到微信小程序中吗?应该如何做
要将智能体发布到微信小程序中,可以参考以下步骤: 1. 在扣子平台创建智能体。 确保在 Bot 商店中能够搜到,例如可以搜索到画小二智能小助手,没有通过发布的无法获取 API。 注意添加知识库后要点击右上角的发布按钮。 2. 扣子是新一代一站式 AI Bot 开发平台(官网地址:https://www.coze.cn)。无论是否有编程基础,都可以在扣子平台上快速搭建基于 AI 模型的各类问答 Bot,并且可以将搭建的 Bot 发布到各类社交平台和通讯软件上。
2024-09-09
可以用 coze 将智能体发布到微信小程序中吗,应该怎么做
在 Coze 中可以将智能体发布到微信小程序,具体步骤如下: 1. 点击发布,确保在 Bot 商店中能够搜到,例如能搜索到画小二智能小助手,因为没有通过发布的无法获取到 API。 2. 然后点击右上角发布,机器人就可以工作了。 3. 设置完成相关内容之后,点击右上角的发布。
2024-09-09
bot接入微信机器人,能用语音聊天吗
Bot 接入微信机器人可以实现语音聊天。具体步骤如下: 1. 登录宝塔面板,在宝塔面板中可视化控制云服务器,部署 docker 容器,启动 COW 项目与微信取得关联。 2. 点击“Docker”中的“项目模板”中的“添加”按钮。 3. 项目模板代码示例如下:将编译好的内容复制进来。 4. 在容器中创建容器,选择容器编排,填入模板和名称,确定。 5. 现实运行成功后,点击容器,可以看到运行的是两个服务。 6. 点击“wcandyaibot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。此界面不会实时更新显示,需要手动刷新一下。点击“刷新日志”,如果看到“WeChat login success”,就成功将 Bot 接入微信中了。 7. 如果扫描二维码出现预料之外的情况,可以退回到容器配置处,重启容器服务,然后重新扫码登录。 8. 若想修改 COW 组件的配置,比如修改机器人回复的前缀或开启语音识别等,进入对应的编排模板的配置界面,点击模板编辑,修改对应的配置参数,点击保存,然后回到容器编排界面重新部署新的容器编排即可。 至此,完成 COW 组件的部署和微信号的绑定,就可以开始与机器人微信号进行语音聊天了。
2024-09-09
不,我不是要搭建微信企业客服,我是想在群里设置群AI管理员,搭建ai群管理
以下是搭建微信群 AI 管理员的详细步骤: 1. 如果暂时没有 FastGPT 或者 OpenAI 的 key,可以先不修改,保持 Ai_Lock 是 0。 2. 修改后,点击保存。 3. 返回 NGCbot 文件夹下,找到 main.py 文件,双击开始运行。 4. 双击后,会看到页面,然后会弹出微信登录框。正常登录微信即可(如果显示版本过低,登录失败,跳转到最下边看解决方法)。 5. 进入微信之后,系统会自动初始化必备文件,等待初始化完成。 6. 在运行成功后,需要用“大号”给机器人发一条消息。红框处是您的 wxid。拿到您的 wxid 返回到第 13.1 步,config 让您替换的地方,替换掉。(因为您刚才填的是我的 wxid / 狗头 7. 添加完之后,建议使用小号进行登录,然后您就可以使用大号作为管理员,对小号发号施令了! 8. 试着使用小号登录后,用大号对小号说:美女图片、美女视频、备案查询、归属查询、whois 查询、摸鱼日历、KFC 文案、周公解梦、天气查询、舔狗日记、星座查询、早安寄语、早报、晚报、Help
2024-09-06
如何创建知识库问答群机器人
要创建知识库问答群机器人,可基于以下步骤: 1. 基于 RAG 机制实现知识库问答功能。首先创建一个包含大量社区 AI 相关文章和资料的知识库,例如创建一个有关 AI 启蒙和信息来源的知识库,通过手工录入的方式上传栏目的所有文章内容,并陆续将社区其他板块的文章和资料导入到知识库中。 2. 在设计 Bot 时,添加这个知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,尽可能好地利用知识库返回的内容进行结合回答。 3. 了解 RAG 机制,全称为“检索增强生成”(RetrievalAugmented Generation),是一种用于自然语言处理的技术。它结合了检索和生成两种主要的人工智能技术,先从一个大型的数据集中找到与当前问题相关的信息(检索),然后使用这些检索到的信息来帮助生成更准确、更相关的回答(生成)。可以把它想象成当问一个复杂问题时,RAG 机制先去一个巨大的图书馆里找到所有相关的书籍,然后基于这些书籍中的信息给出详细回答。这种方法结合了大量的背景信息和先进的语言模型的能力,使得生成的内容不仅依赖于模型本身的知识,还融入了具体、相关的外部信息,有助于提升对话 AI 的理解力和回答质量。
2024-09-14
人工客服机器人发展现状
目前人工客服机器人的发展情况如下: 聊天机器人工作状况良好,可通过 LangSmith 跟踪检查其最新运行情况。 设计可能已满足需求,代码封闭,行为符合预期。 但存在潜在问题,对单个提示压力较大,若添加更多工具或工具更复杂,机器人使用工具的效率和整体行为可能受影响。 后续将展示如何通过根据用户意图将其引导至专业代理或子图,来更精确控制不同用户体验。
2024-09-10
你认为Agent和ChatBot聊天对话机器人的差异在哪?
Agent(智能体)和 ChatBot 聊天对话机器人存在以下差异: 任务执行方式:Agent 是执行特定任务的 AI 实体,拥有复杂的工作流程,可以迭代运行,模型本质上能够自我对话,无需人类驱动每一部分的交互;而 ChatBot 通常是用户提出问题后获得一个答案作为回应。 组成和功能:Agent 是大型语言模型(LLM)、记忆(Memory)、任务规划(Planning Skills)以及工具使用(Tool Use)的集合,例如在自动驾驶、家居自动化、游戏 AI、金融交易、客服聊天、机器人等领域发挥作用;而 ChatBot 相对功能较为单一。 处理能力和效率:像 Coze Agent 这样的多 Agent 模式采用分布式计算范式,将复杂任务分解为多个子任务并由独立的智能体并行处理,从而提高系统的处理能力和效率。 参考文章: https://logankilpatrick.medium.com/whataregptagentsadeepdiveintotheaiinterfaceofthefuture3c376dcb0824 https://lilianweng.github.io/posts/20230623agent/ https://waytoagi.feishu.cn/record/1sfvuej0sATQfbO6zbeEAWk02
2024-09-04
陪护机器人最快多久能正式商用?
目前,在幼教场景中正在开发的陪伴机器人,预计半年内视频生成技术成熟,届时可实现一些创新功能。但对于陪护机器人整体的正式商用时间,由于不同应用场景和技术发展的差异,还难以给出确切的时间。在医疗领域,由 AI 驱动的护理机器人会早于手术机器人应用,但具体商用时间也不确定。总体而言,陪护机器人的正式商用时间受多种因素影响,仍需进一步观察和等待技术的发展与完善。
2024-09-04
微信机器人回答问题联系上下文
以下是关于微信机器人回答问题联系上下文的相关信息: 对于纯 GPT 大模型能力的微信聊天机器人搭建,有以下疑问解答方式: 1. 查阅官方文档和教程:极简未来平台、宝塔面板和 Docker 都有详细的官方文档和教程,可解决大部分问题。 2. 联系技术支持:极简未来平台提供技术支持服务,可联系其技术团队寻求帮助。 3. 加入技术社群:加入相关技术社群,向有经验的用户请教,获取问题解决方案。 4. 在线论坛和社区:在在线论坛和社区发布问题,寻求其他用户的帮助和建议。 若担心运维时间长会忘记操作步骤,可采取以下措施: 1. 制作操作手册:将每一步操作记录下来,方便日后查阅。 2. 定期操作:定期登录服务器,进行简单操作和维护,保持熟练度。 3. 视频教程:录制自己的操作视频,日后查看更直观。 4. 自动化脚本:对于常见运维任务,编写自动化脚本简化操作步骤。 DIN 提供的全程白嫖的 AI 大模型微信助手,能解答任何问题,可接入微信或群聊为用户提供自动答疑服务,还能投喂特定知识,成为客服、专业老师或知识备忘录。无需技术知识,小白也能轻松搭建,全程只需复制粘贴,可自定义知识库,满足不同需求,支持多场景应用,如客服、教育、个人知识管理等,全程免费。 张梦飞的超级微信机器人当前能力已接入,但仍有优化点需要调整,比如分段发送、收图发图、无需@等,后续会更新。若遇到问题,可添加其微信获得帮助。
2024-09-02
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
蛟龙16pro配置可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置信息对于能否用于审计人员本地化部署大模型进行数据分析工作,需要更多关于该设备具体配置的详细信息才能准确判断。一般来说,本地化部署大模型进行数据分析工作对计算机的硬件配置有较高要求,包括但不限于强大的 CPU 性能、充足的内存容量、高速的存储设备以及优秀的显卡性能等。如果您能提供蛟龙 16pro 更详细的配置参数,我可以为您做出更准确的评估和建议。
2024-09-14
为审计人员利用大模型本地化部署进行数据分析的电脑如何配置
对于审计人员利用大模型本地化部署进行数据分析的电脑配置,以下是相关建议: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置运行速度可能非常慢。另外,对于 SDXL 的大模型,分为两个部分: 第一部分,base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。
2024-09-12
最为审计人员利用大模型本地化部署在电脑上进行数据分析,电脑如何配置
对于审计人员利用大模型本地化部署在电脑上进行数据分析,电脑配置需要考虑以下方面: 模型选择与下载: SDXL 大模型分为 base+refiner 两个必须下载的部分,base 是基础模型用于文生图操作,refiner 是精炼模型用于细化生成的模型,还有一个配套的 VAE 模型用于调节图片效果和色彩。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 除了上述模型,还可在 Civitai(C 站)https://civitai.com/ 寻找更多模型。使用 C 站时需科学上网,点击右上角筛选按钮找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora,看到感兴趣的模型点击下载保存到电脑本地。 模型存放路径与使用: 将下载的模型放入对应文件夹,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。启动 webUI 后可在模型中看到 SDXL 模型。 硬件配置需求: ChatGLM6B 模型:模型文件下载至本地需要 15 GB 存储空间。量化等级不同,对 GPU 显存要求不同,如 FP16(无量化)最低 GPU 显存(推理)需 13 GB,高效参数微调需 14 GB;INT8 推理需 8 GB,高效参数微调需 9 GB;INT4 推理需 6 GB,高效参数微调需 7 GB。 MOSS 模型:模型文件下载至本地需要 70 GB 存储空间。FP16(无量化)最低 GPU 显存(推理)需 68 GB。 Embedding 模型:默认选用的约占用显存 3GB,也可修改为在 CPU 中运行。
2024-09-12
使用开源大模型本地化部署使用电脑配置,推荐几款笔记本电脑
以下是关于使用开源大模型本地化部署所需电脑配置及笔记本电脑推荐的相关信息: 运行大模型需要较高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 对于本地化部署,不建议使用最低配置,因为速度会非常慢。例如,用 8G 的 Mac 电脑尝试过,效果不佳。 由于本地化部署对电脑配置要求较高,不太推荐本地化安装实现。如果想使用开源大模型,可选择利用云厂商已提供好的大模型运行环境和计算能力,比如阿里云的 PAI 和 AutoDL。 在笔记本电脑选择方面,建议选择具备以下配置的机型: 1. 内存:16GB 及以上的 RAM。 2. 显卡:具有 8GB 及以上 VRAM 的独立显卡。 但具体的笔记本电脑型号还需根据您的预算和其他需求来确定。
2024-09-12
本地化部署
以下是关于本地化部署的相关内容: SDXL 的本地化部署: SDXL 的大模型分为两个部分: 1. 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对文生图生成的模型进行细化,生成细节更丰富的图片。 2. 第二部分,SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 这三个模型的下载链接可关注公众号【白马与少年】,回复【SDXL】获取。 在 webUI 中使用 SDXL 大模型,需先在秋叶启动器中将 webUI 的版本升级到 1.5 以上。然后将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成后启动 webUI,即可在模型中看到 SDXL 的模型。 正常使用方法:先在文生图中使用 base 模型,填写提示词和常规参数,尺寸可设为 10241024 进行生成。生成图片后,可将其发送到图生图中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。 对于配置较高的电脑,如显卡为 4080ti,生成时间约在十秒左右。配置较低的需自行测试。 还可安装 refine 插件,在扩展列表中搜索 refine 并安装,重启后可在文生图界面直接使用 refine 模型进行绘画。 Google Gemma 的本地化部署: Google 发布的家用版小模型 Gemma 有 2b(20 亿参数)和 7b(70 亿参数)版本。 部署环境准备: 1. 首先提一下 Ollama,它是一个开源的大型语言模型服务,可方便地部署最新版本的 GPT 模型并通过接口使用,支持热加载模型文件,无需重新启动即可切换不同的模型。 2. 进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 3. 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应显示 0.1.26。 4. 输入 cls 清空屏幕,然后直接输入 ollama run gemma 运行模型(默认是 2b),首次需下载,等待一段时间。若想用 7b,运行 ollama run gemma:7b。完成后即可直接对话,2 个模型都安装后,可重复上述指令切换。
2024-09-11