直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

在群晖上部署 chatgpt-on-wechat

回答

在群晖上部署 chatgpt-on-wechat 的步骤如下:

  1. 点击“Docker”中的“编排模板”中的“添加”按钮。
  2. 备注说明版或无备注干净版,将编译好的内容复制进来。
  3. 在“容器编排”中“添加容器编排”。
  4. 选择在“编排模板”里创建的“coze2openai”。
  5. 若无法正常启动,查看文档后面的“常见问题”。

另外,还需注意:

  1. COW 全称 Chatgpt-on-wechat,可以在微信、飞书、钉钉等主流社交平台上实现对接各种大模型的功能。
  2. 宝塔面板可用于可视化控制云服务器,在上面部署 docker 容器,启动 COW 项目与微信取得关联。
  3. 登录宝塔面板后,点击“Docker”中的“项目模板”中的“添加”按钮,复制项目模板代码示例,在容器中创建容器,选择容器编排,填入模板和名称,确定。
  4. 点击容器后,若看到运行的是两个服务,可点击“wc-andy-ai-bot”后面的日志按钮,用提前预备好的微信进行扫码。此界面不会实时更新显示,需手动刷新,若看到“WeChat login success”,则成功将 Bot 接入微信。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【智能体】让Coze智能体机器人连上微信和微信群详细配置文档

chatgpt-on-wechat(简称CoW)项目是基于大模型的智能对话机器人,支持微信公众号、企业微信应用、飞书、钉钉接入,可选择GPT3.5/GPT4.0/GPT4o/Claude/Gemini/ChatGLM/月之暗面/文心一言/讯飞星火/通义千问/LinkAI,能处理文本、语音和图片,通过插件访问操作系统和互联网等外部资源,支持基于自有知识库定制企业AI应用。点击“Docker”中的“编排模板”中的“添加”按钮备注说明版此处借用“程序员安仔”封装的代码,以资感谢~无备注干净版将上面编译好的内容复制进来在“容器编排”中“添加容器编排”选择在“编排模板”里创建的“coze2openai”提示运行成功,如果无法正常启动,请看文档后面的“常见问题”。说人话总结:现在只是个伏地魔,没有载体,需要找个微信号附着一下。

零基础模板化搭建 AI 微信聊天机器人

经过前面的各种准备工作,终于要进入最关键的一步了:让你的个人微信号与AI机器人实现无缝连接!COW全称Chatgpt-on-wechat,可以在微信、飞书、钉钉等主流的社交平台上实现对接各种大模型的功能。我们要做的,就是在刚买的腾讯云服务器上通过Docker运行COW,并将之前在极简未来平台创建的API信息填入其中,我们来具体说说。使用Docker服务部署COW组件宝塔面板的好处就是可以让技术小白以图形交互的方式运维服务器,在基于Docker的服务上部署具体应用服务就更简单了,但目前宝塔不支持直接以一个容器应用模板的方式部署COW组件,所以我们来手动配置部署一个容器编排模板。1.首先,根据下图所示,我们找到对应容器编排的位置点击添加:1.然后我们根据极简未来关于部署COW组件的Docker部署方式,直接复制docker-compose.yml文件内容(就是容器编排的配置内容),我下面已经帮大家复制出来,你可以粘贴到Compose模板的编辑框中,然后命名一下模板,先不要添加:

Bot智能体 | 用Coze实现【多模态资讯的跨平台推送】

登录宝塔面板后,接下来需要在宝塔面板当中的来可视化的控制云服务器,在上面部署docker容器,启动COW项目与微信取得关联。chatgpt-on-wechat(简称CoW)项目是基于大模型的智能对话机器人,可以接入微信公众号、企业微信应用、飞书、钉钉,可选择GPT3.5/GPT4.0/GPT4o/Claude/Gemini/文心一言/讯飞星火/通义千问/LinkAI/ChatGLM/月之暗面,能处理文本、语音和图片,通过插件访问操作系统和互联网等外部资源。我们用这个方式来与微信进行链接。点击“Docker”中的“项目模板”中的“添加”按钮项目模板代码示例如下:将上面编译好的内容复制进来在容器中创建容器,选择容器编排,填入模板和名称,确定现实运行成功点击容器后,可以看到运行的是两个服务,因为接口文档中启动了两个服务。然后点击“wc-andy-ai-bot”后面的日志按钮,在弹出层中用提前预备好的微信进行扫码。这个界面不会实时更新显示,需要手动刷新一下。点击“刷新日志”,如果看到WeChat login success,就成功将Bot接入微信中了。

其他人在问
chatGPT怎么注册
以下是注册 ChatGPT 的步骤: 1. 打开浏览器,输入官网网址:https://chat.openai.com/ 。 2. 如有账号直接登录,没有的话点击“注册”。
2024-09-19
kimi和chatGPT的区别
Kimi 和 ChatGPT 有以下一些区别: 1. 知识范围:两者都学习了大量的互联网公开知识,但对于个人或企业的私有知识进行问答的能力有限。 2. 知识准确性:由于学习的互联网知识良莠不齐,可能会影响对某些问题回答的准确性。 3. 功能特点: Kimi 是月之暗面公司推出的类似 ChatGPT 的大模型聊天机器人,支持超长的上下文,能输入长达 20 万字。 ChatGPT 相对而言在这方面可能有所不同。 kimi 没法生成图片,而智谱清言甚至能写 Python 代码并生成文字云。
2024-09-19
如何让chatgpt直接生成思维导图
目前让 ChatGPT 直接生成思维导图可以通过以下方式: 利用 GPTs 结合第三方平台如 Gapier 提供的 API 来实现。例如,在某些场景中包含两个具体案例,即如何在 Action 中引入 Gapier 生成代码的思维导图,以及如何在 Action 中引入 Gapier 和 Webpilot 生成在线文档的思维导图。但在过去,ChatGPT 本身无法直接生成思维导图,当遇到复杂代码或长篇文章需要思维导图快速预览整体逻辑或结构时,只能利用 AI 进行提炼后,再找到一款思维导图软件来转换,较为繁琐。
2024-09-18
如何训练chatgpt
ChatGPT 的训练过程较为复杂,主要包括以下方面: 1. 数据获取:从网络、书籍等来源获取大量人类创作的文本样本,数量达数百万亿字。 2. 硬件支持:使用现代 GPU 硬件,以并行计算数千个示例的结果。 3. 训练方式: 基本概念:训练神经网络生成“类似”的文本,能够从“提示”开始,然后继续生成“类似于训练内容”的文本。 操作过程:神经网络由简单元素组成,基本操作是为每个新单词(或单词部分)生成“输入”,然后将其“通过其元素”。 4. 训练目的:不是记忆,而是学习“提问和回答的通用规律”,以实现举一反三。但可能存在混淆记忆、无法直接查看和更新所学、高度依赖学习材料等缺点,导致缺乏及时性和准确性。 5. 规模与效果:在训练中,一些文本会被重复使用多次,而其他文本只会使用一次。尽管没有根本的理论确定所需的训练数据量和网络规模,但实践中,ChatGPT 成功地从大量文本中进行了训练,其成功表明神经网络在实现基于人类语言算法内容的模型时相当有效。
2024-09-17
chatgpt怎么下载
以下是 ChatGPT 在不同系统的下载方法: 苹果系统: 中国区正常无法下载,需要切换到美区。美区 Apple ID 注册教程可参考知乎链接:。最终在 Apple Store 搜索 ChatGPT 并下载安装,注意别下错。 安卓系统: 到谷歌商店搜索“ChatGPT”进行下载安装,开发者是 OpenAI,别下错。 可能会遇到“google play 未在您所在的地区提供此应用”的问题,解决方法如下: 在 google play 点按右上角的个人资料图标,依次点按:设置>常规>帐号和设备偏好设置>国家/地区和个人资料。 若账号没有地区,可以“添加信用卡或借记卡”,国内的双币信用卡即可,填写信息时地区记得选美。 如果回到 google play 首页还搜不到 ChatGPT,可以卸载重装 google play,操作过程保持梯子的 IP 一直是美,多试几次。
2024-09-17
chatgpt-on-wechat 总结群聊插件
以下是关于 chatgptonwechat 总结群聊插件的相关信息: sum4all 插件: 本项目为大模型内容总结服务,有微信插件、telegram 机器人、iOS 快捷指令三个版本,其中微信插件需要自行部署,需配合 chatgptonwechat 项目。 支持联网搜索。 支持多轮追问。 支持文章链接总结,且支持发送到在线笔记。 支持文件内容总结,包括 pdf、docx、markdown、txt、xls、csv、html、ppt。 支持图片总结,包括 png、jpeg、jpg(最近好像不行,也可能是配置有误)。 支持视频、播客内容总结,包括抖音、b 站、小红书、YouTube 等。 支持多种内容总结服务,可自由组合。 支持自定义 prompt。 支持自定义搜索、追问提示词。 googleSearchOnWechat 插件: 插件介绍:通过 Google 搜索或图像搜索来获取信息,并利用 ChatGPT 对结果进行总结,以获得更精准和详细的答案。同时,搜图功能让用户能够通过在网络上搜索图片来增加可玩性。 git 地址:https://github.com/Yanyutin753/googleSearchOnWechat.git
2024-09-17
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
蛟龙16pro配置可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置信息对于能否用于审计人员本地化部署大模型进行数据分析工作,需要更多关于该设备具体配置的详细信息才能准确判断。一般来说,本地化部署大模型进行数据分析工作对计算机的硬件配置有较高要求,包括但不限于强大的 CPU 性能、充足的内存容量、高速的存储设备以及优秀的显卡性能等。如果您能提供蛟龙 16pro 更详细的配置参数,我可以为您做出更准确的评估和建议。
2024-09-14
为审计人员利用大模型本地化部署进行数据分析的电脑如何配置
对于审计人员利用大模型本地化部署进行数据分析的电脑配置,以下是相关建议: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置运行速度可能非常慢。另外,对于 SDXL 的大模型,分为两个部分: 第一部分,base + refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。 第二部分,还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。
2024-09-12
最为审计人员利用大模型本地化部署在电脑上进行数据分析,电脑如何配置
对于审计人员利用大模型本地化部署在电脑上进行数据分析,电脑配置需要考虑以下方面: 模型选择与下载: SDXL 大模型分为 base+refiner 两个必须下载的部分,base 是基础模型用于文生图操作,refiner 是精炼模型用于细化生成的模型,还有一个配套的 VAE 模型用于调节图片效果和色彩。您可以关注公众号【白马与少年】,回复【SDXL】获取下载链接。 除了上述模型,还可在 Civitai(C 站)https://civitai.com/ 寻找更多模型。使用 C 站时需科学上网,点击右上角筛选按钮找到所需模型类型,如 Checkpoint=大模型、LoRA=Lora,看到感兴趣的模型点击下载保存到电脑本地。 模型存放路径与使用: 将下载的模型放入对应文件夹,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。启动 webUI 后可在模型中看到 SDXL 模型。 硬件配置需求: ChatGLM6B 模型:模型文件下载至本地需要 15 GB 存储空间。量化等级不同,对 GPU 显存要求不同,如 FP16(无量化)最低 GPU 显存(推理)需 13 GB,高效参数微调需 14 GB;INT8 推理需 8 GB,高效参数微调需 9 GB;INT4 推理需 6 GB,高效参数微调需 7 GB。 MOSS 模型:模型文件下载至本地需要 70 GB 存储空间。FP16(无量化)最低 GPU 显存(推理)需 68 GB。 Embedding 模型:默认选用的约占用显存 3GB,也可修改为在 CPU 中运行。
2024-09-12
使用开源大模型本地化部署使用电脑配置,推荐几款笔记本电脑
以下是关于使用开源大模型本地化部署所需电脑配置及笔记本电脑推荐的相关信息: 运行大模型需要较高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 对于本地化部署,不建议使用最低配置,因为速度会非常慢。例如,用 8G 的 Mac 电脑尝试过,效果不佳。 由于本地化部署对电脑配置要求较高,不太推荐本地化安装实现。如果想使用开源大模型,可选择利用云厂商已提供好的大模型运行环境和计算能力,比如阿里云的 PAI 和 AutoDL。 在笔记本电脑选择方面,建议选择具备以下配置的机型: 1. 内存:16GB 及以上的 RAM。 2. 显卡:具有 8GB 及以上 VRAM 的独立显卡。 但具体的笔记本电脑型号还需根据您的预算和其他需求来确定。
2024-09-12
本地化部署
以下是关于本地化部署的相关内容: SDXL 的本地化部署: SDXL 的大模型分为两个部分: 1. 第一部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对文生图生成的模型进行细化,生成细节更丰富的图片。 2. 第二部分,SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 这三个模型的下载链接可关注公众号【白马与少年】,回复【SDXL】获取。 在 webUI 中使用 SDXL 大模型,需先在秋叶启动器中将 webUI 的版本升级到 1.5 以上。然后将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成后启动 webUI,即可在模型中看到 SDXL 的模型。 正常使用方法:先在文生图中使用 base 模型,填写提示词和常规参数,尺寸可设为 10241024 进行生成。生成图片后,可将其发送到图生图中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。 对于配置较高的电脑,如显卡为 4080ti,生成时间约在十秒左右。配置较低的需自行测试。 还可安装 refine 插件,在扩展列表中搜索 refine 并安装,重启后可在文生图界面直接使用 refine 模型进行绘画。 Google Gemma 的本地化部署: Google 发布的家用版小模型 Gemma 有 2b(20 亿参数)和 7b(70 亿参数)版本。 部署环境准备: 1. 首先提一下 Ollama,它是一个开源的大型语言模型服务,可方便地部署最新版本的 GPT 模型并通过接口使用,支持热加载模型文件,无需重新启动即可切换不同的模型。 2. 进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 3. 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应显示 0.1.26。 4. 输入 cls 清空屏幕,然后直接输入 ollama run gemma 运行模型(默认是 2b),首次需下载,等待一段时间。若想用 7b,运行 ollama run gemma:7b。完成后即可直接对话,2 个模型都安装后,可重复上述指令切换。
2024-09-11