直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何将私有模型部署到微信

回答

以下是将私有模型部署到微信的几种方法:

  1. 张梦飞的方法:
    • 部署大语言模型:
      • 下载并安装 Ollama:根据您的电脑系统,从 https://ollama.com/download 下载,下载完成后双击打开,点击“Install”。安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。
      • 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型):如果是 Windows 电脑,点击 win+R,输入 cmd 点击回车;如果是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行并粘贴回车,等待自动下载完成。
  2. 安仔的方法:
    • 配置腾讯云轻量应用服务器。
    • 配置部署 COW 组件:配置 GROUP_NAME_WHITE_LIST 参数,根据要交互的群组进行具体修改,保存编排模板。切换到容器编排界面,基于模板进行 COW 服务部署,等待部署成功。
  3. 马上观看看的方法:
    • 部署 dify:选择模型,以智谱 ai 举例,点设置,点从智谱 ai 获取钥匙,进入智谱官网用手机号注册,添加 API keys 并复制,查看免费额度并收藏网址。回到之前页面复制钥匙并保存,随便创建应用,可先选择智谱 glm-4 测试,点发布,点击 api 秘钥创建并复制。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

张梦飞:【全网最细】从LLM大语言模型、知识库到微信机器人的全本地部署教程

一、下载并安装Ollama1、点击进入,根据你的电脑系统,下载Ollama:https://ollama.com/download2、下载完成后,双击打开,点击“Install”3、安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成http://127.0.0.1:11434/二、下载qwen2:0.5b模型(0.5b是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)1、如果你是windows电脑,点击win+R输入cmd,点击回车如果你是Mac电脑,按下Command(⌘)+ Space键打开Spotlight搜索。输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。2、复制以下命令行,粘贴进入,点击回车:3、回车后,会开始自动下载,等待完成(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了)4、下载完成后你会发现,大模型已经在本地运行了。输入文本即可进行对话。

安仔:不用黑魔法,小白也能做一个对接 GPT 大模型的微信聊天机器人

还有这个参数GROUP_NAME_WHITE_LIST,它是用来配置哪些群组的消息需要自动回复的,比如我这里配置的是["ChatGPT测试群","ChatGPT测试群2"],即只有ChatGPT测试群和ChatGPT测试群2的群组消息才会自动回复。所以假设我要对接的微信号的名称叫安仔机器人,我们就可以更新最终版的配置参数(GROUP_NAME_WHITE_LIST参数记得根据你要交互的群组进行具体修改),查看过没问题,就点击保存,这个编排模板就创建成功了,当然以后你的需求可能有所变化,你也可以继续修改这个模板,然后基于它来重新建立我们接下来的具体COW服务:1.现在我们就切换到容器编排界面,开始基于我们刚刚创建的模板进行真正的COW服务部署,点击添加后,部署会开始进行,可能需要等待一会时间:1.等待一会后,我们会看到我们的COW服务就这样部署成功了!

马上观看看:通过云服务器,dify,智能微秘书来免费搭建微信机器人

这时候你就可以选择模型了,国内的模型都有免费额度,随便选,你也可以都选。拿智谱ai举例。点设置,点从智谱ai获取钥匙,直接会进入智谱的官网。用手机号注册,添加API keys,复制一下。然后看一下有多少免费额度,智谱是资源包管理里边看,赠送500万一个月。这些大模型有的限制时间,有的不限制。有的给tokens额度有的给钱。最后把网址收藏一下。回到上面的图,把钥匙复制,保存就可以了。然后随便创建个应用。可以先选择智谱glm-4测试一下,聊两句,看有回应没,然后点发布。选择第二个,如图:点击api秘钥,创建一个,复制。

其他人在问
微信机器人
以下是关于微信机器人的相关信息: 【入门级】教你用最简单的方式搭建微信机器人 测试和重新配置: 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。若未成功,可检查 config.json 文件中的配置或跳到“第四章,第 3 步”重启服务。 可为 AI 赋予不一样的提示词,返回“第三章,第 7 步”更改设置。 进行任何更改后,需“返回首页 右上角 点击重启,重启一下服务器”。熟悉 Linux 操作也可通过重启进程的方式来重启服务。 然后,在“文件”的【终端】里,输入“nohup python3 app.py & tail f nohup.out”重新扫码登录。 若想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 帮助:若遇到问题,可先查询社区知识库,或加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可加 Stuart 个人微信询问。 零基础模板化搭建 AI 微信聊天机器人 纯 GPT 大模型能力的微信聊天机器人搭建 配置腾讯云轻量应用服务器 配置部署 COW 组件 在复制的 dockercompose.yml 文件中修改配置串联微信号和已创建好的 AI 机器人,配置参考来源:https://docs.linkai.tech/cow/quickstart/config 。 配置参数中,名称的全大写描述对应编排模板,如 open_ai_api_key 对应 OPEN_AI_API_KEY 等。私聊或群交流时最好加上前缀触发机器人回复,如配置的,群组里对应配置参数是 GROUP_CHAT_PREFIX,机器人只会回复群里包含@bot 的消息。GROUP_NAME_WHITE_LIST 用来配置哪些群组的消息需要自动回复。 【保姆级】基于 Hook 机制的微信 AI 机器人,无需服务器,运行更稳定,风险更小 本教程基于 Hook 机制,与之前的 COW 机器人方式不同。 优势:Hook 有相对更高的稳定性和安全性,更简单,易上手。 劣势:目前插件相对较少,且仅支持 Windows 系统。 此项目在 Windows 系统上运行,无需服务器,对小白更友好。能结合 FastGPT 使用,且对群发功能进行了优化和二开,目前在内测中。 此机器人功能:基于知识库的 AI 回复、支持积分系统、支持自动拉人、检测广告、自动群发,还有安全新闻定时推送、Kfc 文案、星座查询、天气查询等有趣小功能。教程以 Windows10 系统为例。
2024-11-07
微信机器人
以下是关于微信机器人的相关信息: 【入门级】教你用最简单的方式搭建微信机器人 测试和重新配置: 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。若未成功,可检查 config.json 文件中的配置或跳到“第四章,第 3 步”重启服务。 可为 AI 赋予不一样的提示词,返回“第三章,第 7 步”更改设置。 进行任何更改后,需“返回首页 右上角 点击重启,重启一下服务器”。熟悉 Linux 操作也可通过重启进程的方式来重启服务。 然后,在“文件”的【终端】里,输入“nohup python3 app.py & tail f nohup.out”重新扫码登录。 若想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 帮助:若遇到问题,可先查询社区知识库,或加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可加 Stuart 个人微信询问。 零基础模板化搭建 AI 微信聊天机器人 纯 GPT 大模型能力的微信聊天机器人搭建 配置腾讯云轻量应用服务器 配置部署 COW 组件 在复制的 dockercompose.yml 文件中修改配置串联微信号和已创建好的 AI 机器人,配置参考来源:https://docs.linkai.tech/cow/quickstart/config 。 配置参数中,名称的全大写描述对应编排模板,如 open_ai_api_key 对应 OPEN_AI_API_KEY 等。私聊或群交流时最好加上前缀触发机器人回复,如配置的,群组里对应配置参数是 GROUP_CHAT_PREFIX,机器人只会回复群里包含@bot 的消息。GROUP_NAME_WHITE_LIST 用来配置哪些群组的消息需要自动回复。 【保姆级】基于 Hook 机制的微信 AI 机器人,无需服务器,运行更稳定,风险更小 本教程基于 Hook 机制,与 COW 机器人方式不同。 优势:Hook 有相对更高的稳定性和安全性,更简单,易上手。 劣势:目前插件相对较少,且仅支持 Windows 系统。 此项目在 Windows 系统上运行,无需服务器,对小白更友好。能结合 FastGPT 使用,完善了群发功能,目前在内测中。 此机器人功能:基于知识库的 AI 回复、支持积分系统、支持自动拉人、检测广告、自动群发,还有安全新闻定时推送、Kfc 文案、星座查询、天气查询等有趣小功能。教程以 Windows10 系统为例。
2024-11-07
企业微信个人账户接入大模型
企业微信个人账户接入大模型可以参考以下内容: 基于 COW 框架的实现步骤: COW 是基于大模型搭建的 Chat 机器人框架,将多模型塞进自己的微信里实现方案。 张梦飞同学写了更适合小白的使用教程: 。 可以实现:打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等等);常用开源插件的安装应用。 正式开始前需要知道:ChatBot 相较于在各大模型网页端使用区别,本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;本文只探讨操作操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入:微信、企业微信、公众号、飞书、钉钉等。 有多模型选择:GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等。 支持多消息类型:能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 有多部署方法:本地运行、服务器运行、Docker 的方式。 全程白嫖拥有一个 AI 大模型的微信助手的实现步骤: 搭建,用于汇聚整合多种大模型接口,方便更换使用各种大模型,下面会告知如何白嫖大模型接口。 搭建,这是个知识库问答系统,把知识文件放进去,再把上面的大模型接进来,作为分析知识库的大脑,最后回答问题,如果不想接到微信去,自己用用,搭建完就可以,它也有问答界面。 搭建,里面的 cow 插件能进行文件总结、MJ 绘画的能力。
2024-11-06
如何借鉴“决战拜年之巅”:这是一款基于 GLM 大模型开发的微信小程序游戏,玩家在 10 个 AI 角色组成的家人群里,面对“七大姑八大姨”的连环拷问,自由对话打出属于自己的结局。实现一个工作场合的游戏
以下是借鉴“决战拜年之巅”实现一个工作场合游戏的相关要点: 1. 开发背景:“决战拜年之巅”是参加 Globalgamejam 游戏比赛时,在 48 小时内开发的,主题源于“make me laugh”,产品负责人谐音想到江浙沪孝子排行榜的“孝”,结合春节想到做类似拜年的东西。 2. 火爆情况:在参赛群发布半成品后,在 QQ、微信迅速火爆,两天内有 200 万用户,最高峰同时在线 6 万人,服务器一度支持不了,凌晨才做好调整,后续有厂商赞助服务器,上线约一周。 3. 游戏特点:基于 GLM 大模型开发,又称过年模拟器,玩家在 10 个 AI 角色组成的家人群里,面对“七大姑八大姨”的连环拷问自由对话打出结局。 4. 借鉴要点: 明确创新主题和玩法,结合特定场景和需求。 注重用户体验,及时应对服务器等技术支持问题。 利用 AI 技术实现角色互动和自由对话。 需要注意的是,“决战拜年之巅”被认为可能是一个 chatbot 而非严格意义上的游戏。在设计工作场合的游戏时,要明确以下三个点:(具体要点未在提供的内容中明确)
2024-11-02
如何能让大模型自动读取到微信上的聊天内容。
要让大模型自动读取到微信上的聊天内容,可以参考以下几种方法: 1. 搭建,用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,并可白嫖大模型接口。 2. 搭建,这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,最后回答问题。若不想接入微信,搭建完成即可使用其问答界面。 3. 搭建,其中的cow插件能进行文件总结、MJ绘画等。 此外,还有作者张梦飞的方法,即把自己微信中的聊天记录导出,用自己的聊天记录去微调一个模型,最终将这个微调后的模型接入微信中替您回复消息。 另外,在创作方面,鉴于聊天记录属于绝对的个人隐私,不适合接入第三方大模型提取信息,可本地化部署LLM。例如采用百川2的国产大模型开源,如Baichuan2作为底模,先用提示工程对聊天记录进行信息提取,并在此基础上使用自有数据进行模型微调。
2024-10-31
我想用豆包读取微信里的内容,应该怎么做?
要使用豆包读取微信里的内容,可参考以下步骤: 1. 抓取公众号内容: 先在平台搜索现成的插件,如 Coze 平台,但部分插件已荒废无法使用。 可考虑自己写爬虫抓取,或者寻找现成的服务通过 API 方式调用。例如“瓦斯阅读”可以抓取部分公众号内容,但存在公众号不全的问题。还可以尝试 GitHub 上的 WeWe RSS 工具,通过微信读书的方式订阅公众号。 2. 公众号内容总结: 主要依靠大模型的能力,如字节的豆包大模型可以胜任。涉及批量对抓取到的公众号内容进行总结,可使用“批处理”功能。 3. 定时推送到微信: 定时方面,Coze 平台的触发器可以实现。 推送到微信方面,Coze 平台没有这类插件,可寻找第三方 API 的方案,如“server 酱”,通过服务号的模板消息将自定义内容推送到微信。 另外,关于将 AI 接入微信,还可参考以下步骤: 1. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。 2. 若想为 AI 赋予提示词,可返回“目录 4 里的第 17 步”进行更改。 3. 此后进行任何更改,都需要“返回首页 右上角 点击重启,重启一下服务器”。 4. 然后,重新在“文件”的【终端】里,直接输入“nohup python3 app.py & tail f nohup.out”重新扫码登录。 5. 关于添加插件,可参考。 6. 接入机器人的步骤: 回到宝塔,选择 Docker(若未安装则进行安装,安装完成后刷新页面确认安装成功)。 回到宝塔终端,粘贴代码并回车。 去文件列表,到根目录/data/cozediscordproxy 新建文件并命名为 dockercompose.yml,粘贴代码并替换相关 ID 和 token 后保存。 在文件位置的上方点击终端,粘贴相关代码。若启动失败,可能是 docker 拒绝代理访问问题,可先关掉 clash 再执行代码。 进入相关文件夹和文件进行替换和修改,最后在文件顶部的“终端”内粘贴执行。 使用微信扫码(建议使用小号)完成。
2024-10-23
dify私有化部署
以下是关于 Dify 私有化部署的相关信息: 1. 部署步骤: 通过云服务器进行部署,相关命令在宝塔面板的终端安装,例如在/root/dify/docker 目录下的 dockercompose 文件。 检查运行情况,若 nginx 容器无法运行,可能是 80 端口被占用,可将终端输出的代码粘贴给 AI 以解决。 在浏览器地址栏输入公网 IP(去掉宝塔面板地址栏后的:8888),随便填写邮箱密码建立知识库并进行设置。 2. 模型选择与配置: 可以选择国内有免费额度的模型,如智谱 AI。 以智谱 AI 为例,在其官网用手机号注册,添加 API keys 并查看免费额度,将钥匙复制保存。 随便创建应用,可先选择智谱 glm4 测试,然后点发布。 创建并复制 api 秘钥。 3. Dify 特点: 作为开源应用,易用性出色且功能强大,安装过程简单快捷,熟练用户约 5 分钟可在本地完成部署。 支持本地部署和云端应用,能应对工作流、智能体、知识库等。 本地部署需自行处理模型接入等问题,包括购买 API、接入不同类型模型,构建个人知识库时还需考虑数据量、嵌入质量和 API 费用等因素。
2024-09-20
部署私有大模型需要什么显卡
部署私有大模型对显卡的要求如下: 显存是显卡选择的第一要素,生成速度优先级相对较低。 SD1.5 版本的底模 6G 显存能勉强跑,8G 显存可较流畅生成图片和炼制 lora,12G 能流畅使用 Dreambooth 微调大模型。 即将到来的 SDXL 对显卡性能要求更高,8G 显存起步,建议 16G 显存,微调大模型可能需要 20G 以上的显存,只有 4090 和 3090 能较好应对。 预算不足时,可选择 30 系显卡或二手显卡。但不建议选择 P40 之类超大显存但速度超级慢的卡。 常见显卡中,4090 生成 512 的图可跑进 1 秒内。 对于一些垂直场景的专有技能模型,极端情况下单机单卡,如消费级显卡 3090、3080、RTX 显卡也可以使用。 综合多方评测结论,4090 是用于 SD 图像生成综合性价比最高的显卡。如果有打算进行 Dream booth 微调大模型,硬盘空间要准备充足,一次训练可能会产生几十 G 的文件。同时,其他电脑配件只要不太差即可,内存建议 32GB 以上。硬盘方面,不建议考虑机械盘,可选择国产固态。
2024-09-08
私有化部署大模型的教材
以下是为您提供的私有化部署大模型的相关教材: 张梦飞:【全网最细】从 LLM 大语言模型、知识库到微信机器人的全本地部署教程 一、部署大语言模型 1. 下载并安装 Ollama 点击进入,根据您的电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型) 如果您是 windows 电脑,点击 win+R,输入 cmd,点击回车。 如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制以下命令行,粘贴进入,点击回车。 回车后,会开始自动下载,等待完成(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了) 下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。 【SD】向未来而生,关于 SDXL 您要知道事儿 SDXL 的大模型分为两个部分: 1. 第一部分,base+refiner 是必须下载的,base 是基础模型,我们使用它进行文生图的操作;refiner 是精炼模型,我们使用它对文生图中生成的模型进行细化,生成细节更丰富的图片。 2. 第二部分,是 SDXL 还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 这三个模型,您可以关注我的公众号【白马与少年】,然后回复【SDXL】获取下载链接。 想要在 webUI 中使用 SDXL 的大模型,首先我们要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。接下来,将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,我们启动 webUI,就可以在模型中看到 SDXL 的模型了。我们正常的使用方法是这样的:先在文生图中使用 base 模型,填写提示词和常规参数,尺寸可以设置为 10241024,进行生成。 基于多模态大模型给现实世界加一本说明书 大模型应用的利弊: 优点: 适应性极好,通过提示词工程,方便「适应各种奇葩需求」。 对算法的要求降低了不少,大部分功能由大模型提供,特别是非结构化信息的处理。 大模型的 API 访问方式简化了边缘设备的要求,无论在 Android、iOS、HarmonyOS或各种嵌入式设备上都能方便适配。「AGI 终将到来,拥抱未来,虽然路途艰难但相信方向是正确的。」 缺点: 大模型的推理时长目前仍是最大的障碍,传统目标检测或人脸识别优化后能达到 100~300ms,而大模型动则需要 10 秒的延时,限制了许多场景。 模型的幻象和错误率仍然较高,导致上述推理时长问题,在多链路的复杂应用中迅速变得不可行。 在大多数生产模式下,仍然需要使用云服务数据中心,提交的画面不可避免地涉及到隐私问题。 商业私有化部署是刚需,当下的开源模型离 GPT4 代差在半年以上,技术人员任重道远的。
2024-09-03
如何使用LLM分析企业的私有化数据,是否有工具推荐?
以下是关于使用 LLM 分析企业私有化数据及工具推荐的相关内容: RAG 加速器提供了数据抽取服务,这是基于 LLM 的解决方案。在利用 LLM 进行信息抽取时,需要了解构建抽取服务的基本组件和要点。 实现过程中,有两个简单但强大的思路可以提升性能: 1. 确保 LLM 以正确的格式回应。函数调用已成为确保 LLM 严格输出特定格式的新且相对靠谱的方法,可参考结构化输出文档,其中高层次的 LangChain API 展示了不同 LLM 如何调用工具和函数。 2. 使用参考样例。尽管没有样例也能设置抽取问题,但实际操作中,将输入和对应输出的样例纳入其中通常大有裨益,有时这些样例比指示本身更能有效指导 LLM 处理特定情况。在提取用例文档中,可以找到更多细节,助您从 LLMs 中提取更好的性能。
2024-09-02
私有化部署的大模型工具
以下是关于私有化部署的大模型工具的相关内容: Fooocus 部署: 大模型(base 和 Refiner)默认放在:Fooocus_win64_1110\\Fooocus\\models\\checkpoints LoRA 模型默认放在:Fooocus_win64_1110\\Fooocus\\models\\loras Fooocus 程序默认用到 3 个 SDXL 的模型,包括一个 base、一个 Refiner 和一个 LoRA。若单独安装,需下载三个模型: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 若部署了 SD 秋叶包,可共用模型(大模型和 LoRA),在 Fooocus_win64_1110\\Fooocus\\modules\\path.py 中用 text 记事本打开,修改路径为秋叶包模型对应的路径,如大模型路径:sdwebui\\models\\Stablediffusion\\SDXL;LoRA 模型路径:sdwebui\\models\\lora。配置好后点击 run.bat 文件启动。 SDXL 本地部署: 大模型分为两个部分:第一部分,base + refiner 必须下载,base 用于文生图操作,refiner 用于对生成的模型细化以生成细节更丰富的图片;第二部分是配套的 VAE 模型,用于调节图片的画面效果和色彩。 可关注公众号【白马与少年】,回复【SDXL】获取模型下载链接。 在 webUI 中使用 SDXL 大模型,需在秋叶启动器中将 webUI 版本升级到 1.5 以上,将模型放入对应文件夹,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下,vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下,启动 webUI 后可在模型中看到 SDXL 模型。 Langchain + Ollama + RSSHub 实现 RAG 部署: 安装完后,确保 ollama 后台服务已启动(在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动),可通过 ollama list 确认。 可通过 ollama 命令下载模型,如 Gemma(Google 推出的轻量级模型)、Mistral(欧洲法国 Mistral AI 团队推出的大模型)、Mixtral(Mistral AI 团队推出的 87B 的 MoE 模型)、Qwen(阿里巴巴推出的大模型)。
2024-08-16
agent一般是私有化部署,还是公有化部署
AI助手或智能代理(Agent)的部署可以是私有化部署,也可以是公有化部署,具体取决于应用场景、需求、安全考虑以及成本效益等因素。 1. 私有化部署: 在企业或组织的内部网络中部署,通常用于处理敏感数据或需要高度定制化的服务。 提供更高的安全性和隐私保护,因为系统不公开于互联网。 允许更精细的控制和管理,适合有特定业务流程和需求的企业。 2. 公有化部署: 在云服务提供商的基础设施上部署,通过互联网提供服务。 易于扩展,维护成本较低,因为云服务商负责大部分的维护工作。 适用于面向公众的服务,如在线客服机器人、开放平台的API服务等。 选择哪种部署方式取决于以下因素: 数据敏感性:如果处理的数据非常敏感,私有化部署更有利于保护数据安全。 成本:私有化部署可能需要更多的初始投资,而公有化部署可能带来更高的灵活性和可扩展性。 维护能力:如果企业有足够的技术力量来维护私有化部署的系统,这可能是一个更好的选择。 定制化需求:私有化部署更容易根据企业的特定需求进行定制。 法规遵从性:某些行业或地区的法律法规可能要求企业必须进行私有化部署。 在实际应用中,一些企业可能会选择混合部署模式,即在私有云中部署核心的、敏感的业务组件,同时将一些非核心或较不敏感的组件部署在公有云上,以此来平衡安全性、成本和灵活性。
2024-05-11
可以调用不同大预言模型的整合工具推荐
以下是为您推荐的可以调用不同大语言模型的整合工具: 1. Poe:由 Quora 开发,有 APP 版本,支持跨端使用。集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。访问地址: 。Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验(但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可以尝试在两个模型中都问一遍提升信息准确性)。此外支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 2. 国内的一些模型,如智谱和文心,在文生图方面有一定能力。 另外,大模型工具可根据自身条件准备,推荐顺序为:1. chatGPT 4.0 2. kimichat 3. 智谱清言 4 。
2024-11-12
国内外大预言模型对比
以下是国内外大语言模型的对比情况: 1. 工具使用能力: 在工具使用的测评中,GPT4 Turbo 取得满分。 国内大模型中智谱清言表现不俗,取得 83.78 的高分,排名国内第一。文心一言 4.0、通义千问 2.0、Yi34BChat、AndesGPT 均有超过 70 分的表现。超过 GPT3.5 的国内模型有 12 个。 开源模型中,Baichuan213BChat、Xverse13B2Caht 表现可圈可点,均超过 GPT3.5 以及众多闭源模型。总体来看,国内大模型在工具使用能力上表现优异,这与国内大模型厂商积极落地应用密不可分。 2. 主观和客观对比: 通过对比模型在主观简答题 OPEN 和客观选择题 OPT 上的不同表现,国内大模型多数擅长做选择题,普遍选择题分数高于简答题分数。文心一言 4.0 和智谱清言表现相对稳定。 GPT4 Turbo 的表现最为稳定。 客观题相对主观题更容易通过题库形式进行训练和提升,同时由于客观题中包含中文特性问题,中文模型有一定优势,应综合来看模型的评测效果。 在本次测评中,国外的代表性大模型如 GPT4 的不同版本、Claude2、Llama2 都有很好的稳定性表现,值得国内大模型进一步分析研究。 3. 总体表现: GPT 4 Turbo 总分 90.63 分遥遥领先,高于其他国内大模型及国外大模型。国内最好模型文心一言 4.0有 4.9 分的差距。 过去 1 年国内大模型有长足进步,综合能力超过 GPT 3.5 和 GeminiPro 的模型有 11 个。 在 SuperCLUE 测评中,国外模型的平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距在 4 分左右。国内外的平均水平差距在缩小,11 月差距在 10 分左右。 国内开源模型在中文上表现好于国外开源模型,如百川智能的 Baichuan213BChat、阿里云的 Qwen72B、Yi 34BCha t 均优于 Llama213BChat。
2024-11-12
利用gpt-4模型的AI工具有哪些
以下是一些利用 GPT4 模型的 AI 工具: 1. Kickresume 的 AI 简历写作器:使用 GPT4 语言模型自动生成简历,能为简历摘要、工作经验和教育等专业部分编写内容,并保持一致语调。 2. Rezi:受到超过 200 万用户信任的领先 AI 简历构建平台,使用先进的 AI 技术自动化创建可雇佣简历的各个方面,包括写作、编辑、格式化和优化。 3. Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结/技能/成就生成器和 AI 驱动的简历工作匹配。 更多 AI 简历产品,还可以查看这里:https://www.waytoagi.com/category/79 。您可以根据自己的需要选择最适合的工具。 此外,在生成式人工智能领域,GPT4 有以下突破点: 1. 赋予模型使用工具的能力,如 OpenAI 推出的 ChatGPT 插件测试版,允许与多种工具交互。 2. 在计划和解决问题方面具有一定能力,能通过玩游戏或模拟环境快速学习和从经验中学习。 3. 在许多任务上达到人类水平的表现,对人类的理解有所提升。 4. 但也存在一些限制,如架构中的自回归特性导致缺乏规划能力等。
2024-11-12
SD大模型无法加载
SD 大模型无法加载可能有以下原因及解决方法: 1. LORA 方面: LORA 可以提炼图片特征,文件通常有几十上百兆,承载信息量远大于 Embedding。下载的 LORA 放在根目录的【……\\models\\Lora】文件夹下,使用时点击红色小书,找到 LORA 选项卡加载。 使用 LORA 时要注意看作者使用的大模型,一般需配套使用,还可能需要加入特定触发词,如盲盒 LORA 需加入“full body, chibi”等提示词。 2. Hypernetworks 方面: Hypernetworks 主要针对画风训练,文件下载后放在根目录的【…\\models\\hypernetworks】,使用时点击红色小书,找到 Hypernetworks 选项卡加载。 3. 模型下载与安装方面: 常用的模型下载网站有:。 下载模型后需放置在指定目录,大模型(Ckpt)放入【models\\Stablediffusion】,VAE 模型放入【models\\Stablediffusion】或【models\\VAE】目录(有的大模型自带 VAE 则无需再加),Lora/LoHA/LoCon 模型放入【extensions\\sdwebuiadditionalnetworks\\models\\lora】或【models/Lora】目录,Embedding 模型放入【embeddings】目录。模型类型可通过检测。 不会科学上网时,可在启动器界面直接下载模型,将下载的大模型放在根目录的【……\\models\\Stablediffusion】,在左上角模型列表中选择(看不到就点旁边蓝色按钮刷新)。 旁边的 VAE 相当于给模型增加提高饱和度的滤镜和局部细节微调,可在启动器里下载,放在根目录的【……\\models\\VAE】。 Embedding 功能相当于提示词打包,下载 Embedding 可在 C 站通过右上角筛选 Textual Inversion 找到,放在根目录下的【embeddings】文件夹里。 由于无法确定您大模型无法加载的具体原因,您可以根据上述内容逐一排查。
2024-11-12
有什么特别好的AI识别图片的大模型API
以下是一些关于 AI 识别图片的大模型 API 相关的信息: 学习笔记《【这就是 ChatGPT】了解原理让大语言模型 AI 成为你的打工人》中提到,对于识别印刷体图片,会先将图片变成黑白、调整大小为固定尺寸,然后与数据库中的内容进行对比得出结论。但这种基于规则的方法存在多种局限,而神经网络专门处理未知规则的情况,在图片识别中具有优势。 搭建 OneAPI 可以汇聚整合多种大模型接口,方便后续更换使用各种大模型。 0 基础手搓的“AI 拍立得”概念旨在简化操作流程,提升效率。用户可以选择拍摄场景类型并立即拍照,AI 会自动识别和分析照片中的内容信息,依据预设场景规则迅速生成符合情境的反馈。其实现场景包括图片转成文本和图片转绘图片等。例如,图片转成文本时,大模型会根据选择的场景生成与内容相关的文字描述或解说文本。
2024-11-11
多轮对话训练中你如何训练模型掌握情感需求
在多轮对话训练中,让模型掌握情感需求可以通过以下几种方式: 1. 利用相关数据集进行训练,例如: Guanaco:地址为,是一个使用 SelfInstruct 的主要包含中日英德的多语言指令微调数据集。 chatgptcorpus:地址为,开源了由 ChatGPT3.5 生成的 300 万自问自答数据,包括多个领域,可用于训练大模型。 SmileConv:地址为,数据集通过 ChatGPT 改写真实的心理互助 QA 为多轮的心理健康支持多轮对话,含有 56k 个多轮对话,其对话主题、词汇和篇章语义更加丰富多样,更符合长程多轮对话的应用场景。 2. 在创建提示时采用结构化模式,为模型提供一些情感需求的示例,如: |输入|输出| ||| |一部制作精良且有趣的电影|积极的| |10 分钟后我睡着了|消极的| |电影还行|中性的| 然后单击页面右侧的提交按钮。该模型现在可为输入文本提供情绪。还可以保存新设计的提示。 3. 在多轮次对话中,定期总结关键信息,重申对话的目标和指令,有助于模型刷新记忆,确保准确把握对话的进展和要点。 4. 进行意图识别和分类,特别关注在单一模型或情境中处理多个小逻辑分支的情况。例如在客户服务场景中,快速确定用户提出咨询、投诉、建议等多种类型请求的意图,并分类到相应处理流程中。
2024-11-11
你的知识库是怎么部署的
部署个人知识库需要考虑硬件配置和相关技术原理。 硬件方面: 生成文字大模型,最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型)。 生成图片大模型(比如跑 SD),最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。 生成音频大模型,最低配置为 8G VRAM,建议配置为 24G VRAM。 技术原理方面: 利用大模型的能力搭建知识库本身就是一个 RAG 技术的应用。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 RAG 应用包括文档加载、文本分割、存储、检索和输出这 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。 此外,搭建基于 GPT API 的定制化知识库,涉及给 GPT 输入(投喂)定制化的知识。GPT3.5 一次交互(输入和输出)只支持最高 4096 个 Token。为了处理大量领域知识,OpenAI 提供了 embedding API 解决方案。embeddings 是一个浮点数字的向量(列表),两个向量之间的距离衡量它们的关联性,小距离表示高关联度。
2024-11-11
本地部署的AI工具
以下是关于本地部署的 AI 工具的相关信息: 目前市面上的 AI 工具分为线上和线下本地部署两种: 线上的优势:出图速度快,不依赖本地显卡配置,无需下载大型模型,能查看其他创作者的作品,但出图分辨率受限,一般最高支持 1024×1024 左右,制作横板、高清图片会受影响。 线下部署的优势:可以添加插件,不卡算力,出图质量高。但使用时电脑基本处于宕机状态,配置不高可能会出现爆显存导致出图失败的情况。 具体的部署步骤(以 windows10 系统为例,mac 系统步骤类似,命令有所不同): 1. 安装环境: 点击电脑“系统”,输入“cmd”,回车打开命令窗口。 在命令窗口中,粘贴代码确认是否有 python 和 pip。 若没有,需安装:先安装 python,安装包可通过下载,按照步骤安装,关闭窗口再次运行命令确认。 2. 部署项目: 下载 COW 机器人项目并解压缩。 回到 chatgptonwechat/文件路径下,空白处右键,打开 Powershell 复制粘贴“python app.py”,弹出二维码扫码登录。 注意事项: 1. 程序在本地运行,关闭窗口进程结束,若要持续使用需保持窗口打开和运行。 2. 若突然不管用,可点击窗口并按空格。 3. 配置时,在 config.json 中的 OpneAi_Api 填“http://localhost:3000/api/v1/chat/completions”。 对于游戏截图升级到 KV 品质的应用,可充分发挥线上和线下平台的优势:线上找参考、测试模型,线下作为主要出图工具。先在线上绘图网站的绘图广场发现想要的画风,点击创作获取模型 lora 和 tag,截取游戏人物底图将线上算力集中在人物身上,多批次尝试不同画风得出合适模型+lora 组合,最后在 C 站()下载对应模型到本地加载部署后正式生图。
2024-11-10
Mac部署stable diffusion
在 Mac 上部署 Stable Diffusion 存在一定限制,功能可能不全且出错率偏高,严重影响使用体验。个人建议升级设备或者采用云服务器玩耍。 如果您仍想在 Mac 上部署,可以参考以下步骤: 1. 电脑硬件要求: 系统:无明确针对 Mac 的特定系统要求。 显卡:未明确针对 Mac 的显卡要求。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 2. 环境安装: 未提供 Mac 系统下的具体环境安装步骤。 由于 Mac 系统的特殊性,更推荐您采用云端部署的方式,相关教程可参考:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd
2024-11-06
联想异能者配置i5-12450八核,32GB内存,1TB固态硬盘,用于本地部署开源大模型可以部署哪些开源大模型
以下是一些您的联想异能者配置(i512450 八核,32GB 内存,1TB 固态硬盘)可部署的开源大模型及相关信息: ComfyUI 相比 WebUI 配置更低,系统资源占用更少,出图速度更快。ComfyUI 最低可在小于 3G 的 GPU 上运行,甚至没有 GPU 光用 CPU 也可以运行,但速度极慢。SDXL 出来后提高了运行配置,最低需要 8GB 显存+32GB 运行内存,12GB 流畅运行,推荐 16GB 以上。玩 SDwebui 和 ComfyUI 建议使用 6GB 以上的显存的 NVIDIA 显卡(N 卡),内存在 16G 以上。硬盘会影响加载模型的速度,所以最好把软件和模型部署在 SSD(固态硬盘)上。 截止 2024 年 5 月,主流的 AI 笔记本电脑主要是一些专门为人工智能和深度学习设计的高性能移动工作站。一些知名品牌包括微软第 11 代 Surface Pro、微星 Creator/Workstation 系列、技嘉 Aero/Aorus 系列、戴尔 Precision 移动工作站、惠普 ZBook 移动工作站、联想 ThinkPad P 系列。这些笔记本通常配备强大的 GPU(如 NVIDIA RTX 系列)、大容量内存(32GB 以上)和高速固态硬盘,还通常预装了 NVIDIA CUDA、cuDNN 等深度学习框架,以及各种 AI 开发工具。但这类高端 AI 笔记本价格相对较高,通常在 2000 美元以上。用户可根据自身需求和预算选择合适型号,并关注散热、续航等实际使用体验。 请注意,配置上不封顶,您可根据自己的需求和预算来选择。
2024-11-04
如何做大模型的云端部署与微调
做大模型的云端部署与微调,主要包括以下步骤: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。需根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT、GPT 等。 也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护: 大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 例如,对于 SDXL 的大模型,本地部署时要注意模型分为 base+refiner 以及配套的 VAE 模型,需将其放入对应文件夹,并在秋叶启动器中将 webUI 的版本升级到 1.5 以上。而对于 Llama3 的部署和微调,实操分两部分,包括本地部署并通过 webdemo 对话,以及使用特定数据集进行微调,具体流程为购买服务器、安装代码环境、下载通用模型和数据集、挑选微调框架、编写微调程序和验证结果。 总的来说,部署和微调大模型需要综合考虑多方面因素,根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2024-10-26
docker部署qwen
以下是关于 Docker 部署相关问题的综合回答: 容器编排模板: 容器编排模板是一种配置文件,用于在 Docker 中部署和管理多个容器,可一键部署复杂环境,无需手动配置细节,如配置 COW 组件与微信和极简未来平台交互。 使用 Docker 部署 COW 组件的原因: Docker 提供隔离运行环境,确保应用在任何环境稳定运行,简化安装和配置过程,保证环境一致,便于管理和维护。 配置多个前缀触发机器人回复的原因: 配置如“bot”、“@bot”等多个前缀,能确保机器人只在特定情况回复,避免群聊或私聊中频繁干扰,提高响应准确性和用户体验。 扫码登录失败的解决办法: 1. 重启 Docker 容器:在宝塔面板中找到对应容器,点击“重启”。 2. 检查网络连接:确保服务器和微信客户端能正常访问互联网。 3. 重新扫描二维码:等待容器重启后,重新扫描日志中生成的二维码。 费用相关: 使用 AI 微信聊天机器人的费用实际上不高,极简未来平台按使用量收费,对一般用户费用相对低廉,充值少量费用通常可用很长时间,且平台提供每天签到免费领积分福利,进一步降低使用成本。使用极简未来平台创建 AI 机器人的具体费用未明确给出。
2024-10-20