Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

微信机器人 cow

Answer

以下是在自己的电脑上部署 COW 微信机器人项目的详细步骤:

  1. 安装环境:
    • 点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口。
    • 在命令窗口中,粘贴入以下代码,确认是否有 python 和 pip。
    • 如果没有 python 和 pip,先进行 python 的安装。
  2. 部署项目:
    • 下载 COW 机器人项目,解压缩。
    • 解压后,打开 COW 文件夹。
    • 在空白处,shift+鼠标右键,点击“在此处打开 Powershell 窗口”。
    • 在 Powershell 窗口中,粘贴进入:
      • pip install -r requirements.txt
      • 等待执行完成后,继续粘贴:pip install -r requirements-optional.txt
    • 上边的都执行完成后,关闭窗口。在当前目录下,找到 config-template.json 文件。
    • 新生成的便是配置文件,右键--使用记事本打开这个文件,修改画红框的地方。
    • 删除新文件里的所有代码,复制提供的代码,粘贴到文件里,并在第 4 行把一开始注册并保存好的千问 API key 粘贴到双引号里,修改完之后,点击保存,关闭文件。
    • 保存上述文件,然后在当前文件下,找到 plugins/godcmd 文件夹,复制 config.json.template 重命名为 config.json。
    • 双击 config.json,进入后,设置下 password 和 admin_users,点击保存后关闭。
    • 重新回到 chatgpt-on-wechat/这个文件路径下,空白处右键,打开 Powershell 里复制粘贴进入:python app.py,然后将会弹出二维码,扫码登录即可。

注意事项:

  1. 程序将在您的电脑本地运行,假如您关掉了窗口,那么进程也就结束。所以,如果想让 AI 持续使用,就必须保持窗口打开和运行,也就是电脑不能关。
  2. 如果发现突然不管用了,可以点击一下窗口,然后点一下空格。因为在选中状态下,powershell 窗口是不继续执行的。
  3. 其他操作与服务器部署的操作一致。
  4. 参加机器人比赛的,可以参考其他教程,自行更改配置。
Content generated by AI large model, please carefully verify (powered by aily)

References

梦飞:在自己的电脑上部署COW微信机器人项目

6、下载COW机器人项目,也给你准备好了,直接下载,然后解压缩。7、解压后,打开COW文件夹,8、在空白处,shift+鼠标右键,点击“在此处打开Powershell窗口”9、在Powershell窗口中,粘贴进入:pip install -r requirements.txt10、等待执行完成后,继续粘贴:pip install -r requirements-optional.txt12、上边的都执行完成后,关闭窗口。在当前目录下,找到config-template.json文件。如下图:13、新生成的便是配置文件,右键--使用记事本打开这个文件,我画红框的地方是需要修改的地方。*因为这个地方对格式和符合要求比较严格,如果是小白,建议你直接复制我下方的配置。14、删除新文件里的所有代码。复制下边的代码,粘贴到文件里。找到第4行,把一开始就让你注册并保存好的千问API key,粘贴到双引号里。这也是你唯一需要修改的地方。修改完之后,点击保存,关闭文件。15、保存上述文件,然后在当前文件下,找到plugins/godcmd文件夹,复制config.json.template重命名为config.json16、双击config.json,进入后,设置下你的password和admin_users可以设置为和我一样的,后边再改,点击保存后关闭。

张梦飞:【全网最细】从LLM大语言模型、知识库到微信机器人的全本地部署教程

以下二选一,建议先选择COW注意:本教程完成后,程序将在你的电脑本地运行,假如你关掉了窗口,那么进程也就结束。所以,如果你想让AI持续使用,就必须保持窗口打开和运行,也就是电脑不能关。以下教程以windows10系统为例/mac系统步骤也是一样,只是打开命令符的命令些许不同,遇到问题问大模型就好了二、安装环境1、点击电脑“系统”,直接输入“cmd”,点击回车,打开命令窗口2、在命令窗口中,粘贴入以下代码,确认是否有python3、粘贴入以下代码,确认是否有pip4、两步命令输入完,核对一下如果有的话,会如上图一样,分别显示出版本号。那么可以跳过“安装环境这一步,直接到“二、部署项目””如果没有的话,会如下图所示,那么需要安装下边的步骤,一步一步安装。5、先进行python的安装,我帮你把python的安装包已经下载好了,直接点击下载:5.1 python安装步骤:5.2关闭窗口,再次运行那两行命令会发现已经有了。三、部署项目6、下载COW机器人项目,也给你准备好了,直接下载,然后解压缩。7、解压后,打开COW文件夹,

梦飞:在自己的电脑上部署COW微信机器人项目

17、重新回到chatgpt-on-wechat/这个文件路径下,空白处右键,打开Powershell里复制粘贴进入:python app.py然后将会弹出二维码,扫码登录即可。18、注意:(1)程序将在你的电脑本地运行,假如你关掉了窗口,那么进程也就结束。所以,如果你想让AI持续使用,就必须保持窗口打开和运行。(2)如果你发现突然不管用了,你可以点击一下窗口,然后点一下空格。因为在选中状态下,powershell窗口是不继续执行的。(3)其他操作与服务器部署的操作一致。(4)参加机器人比赛的,可以参考其他教程,自行更改配置。

Others are asking
cow微信机器人
以下是关于基于 COW 框架的 ChatBot 实现步骤的详细介绍: COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信等平台。 实现内容包括: 打造属于自己的 ChatBot,具备文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能。 常用开源插件的安装应用。 正式开始前需知: ChatBot 与在各大模型网页端使用的区别在于本实现思路需接入大模型 API(API 单独付费)。 风险与注意事项: 微信端因非常规使用有封号危险,不建议主力微信号接入。 只探讨操作步骤,请依法合规使用,包括对大模型生成内容的甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 特点: 多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 多模型选择,如 GPT3.5、GPT4.0、Claude、文心一言、讯飞星火、通义千问、Gemini、GLM4、LinkAI 等。 多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 多部署方法,包括本地运行、服务器运行、Docker 方式。 部署项目的具体步骤: 1. 下载 COW 机器人项目(chatgptonwechatmaster.zip)并解压缩。 2. 解压后打开 COW 文件夹,在空白处 shift+鼠标右键,点击“在此处打开 Powershell 窗口”。 3. 在 Powershell 窗口中,粘贴“pip install r requirements.txt”,等待执行完成后,继续粘贴“pip install r requirementsoptional.txt”。 4. 执行完成后关闭窗口,在当前目录下找到 configtemplate.json 文件。新生成的是配置文件,右键使用记事本打开,修改画红框的地方。小白建议直接复制给定的配置,删除新文件里的所有代码,复制给定代码粘贴到文件里,找到第 4 行,把注册并保存好的千问 API key 粘贴到双引号里,修改完保存并关闭文件。 5. 保存上述文件,然后在当前文件下,找到 plugins/godcmd 文件夹,复制 config.json.template 重命名为 config.json,双击进入后设置 password 和 admin_users,可先设置为和示例一样,之后再改,保存后关闭。 6. 重新回到 chatgptonwechat/文件路径下,空白处右键,打开 Powershell 里复制粘贴“python app.py”。 基于张梦飞同学的更适合小白的使用教程:
2024-10-10
Cow好像接不上coze 的数据库,在coze 上能正常使用,到cow上就无法获取信息
以下是关于 Cow 接不上 coze 数据库的可能解决方法: 1. 服务器设置方面: 点击“Docker”中的“编排模板”中的“添加”按钮。 备注说明版和无备注干净版的操作有所不同。 将编译好的内容复制进来。 在“容器编排”中“添加容器编排”,选择在“编排模板”里创建的“coze2openai”。提示运行成功,如果无法正常启动,请看文档后面的“常见问题”。 2. 直接调用大模型方面: 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。获取 key 的方式有视频教程和图文教程。注意需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明没有实名认证,可点击去,或查看自己是否已认证。 3. 安装并接入 cow 方面: 回到宝塔,打开【终端】。 依次粘贴并回车:cd /root ;git clone https://github.com/zhayujie/chatgptonwechat 。出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续依次输入:cd chatgptonwechat/ ;pip install r requirements.txt ;pip install r requirementsoptional.txt 。 到“文件”菜单中执行,点击文件找到 root,进入 root 文件夹,找到 chatgptonwechat 文件夹,并进入。 点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)。 粘贴并回车:cp configtemplate.json config.json ,刷新页面。在当前目录下,找到 config.json 文件。删除文件里的所有代码,复制提供的代码粘贴到文件里。
2024-08-13
Cow好像接不上coze 的数据库,在coze 上能正常使用,到cow上就无法获取信息
以下是关于 Cow 接不上 coze 数据库的可能解决方法: 1. 服务器设置方面: 点击“Docker”中的“编排模板”中的“添加”按钮。 备注说明版和无备注干净版的操作有所不同。 将编译好的内容复制进来。 在“容器编排”中“添加容器编排”,选择在“编排模板”里创建的“coze2openai”。提示运行成功,如果无法正常启动,请看文档后面的“常见问题”。 2. 直接调用大模型方面: 当在 COW 中直接调用千问的某一个大模型时,只需要更改 key 和 model 即可。以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。获取 key 的方式有视频教程和图文教程。注意需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明没有实名认证,可点击去,或查看自己是否已认证。 3. 安装并接入 cow 方面: 回到宝塔,打开【终端】。 依次粘贴并回车:cd /root ;git clone https://github.com/zhayujie/chatgptonwechat 。出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续依次输入:cd chatgptonwechat/ ;pip install r requirements.txt ;pip install r requirementsoptional.txt 。 到“文件”菜单中执行,点击文件找到 root,进入 root 文件夹,找到 chatgptonwechat 文件夹,并进入。 点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑)。 粘贴并回车:cp configtemplate.json config.json ,刷新页面。在当前目录下,找到 config.json 文件。删除文件里的所有代码,复制提供的代码粘贴到文件里。
2024-08-13
知识库里有没有阿里云部署cow教程
以下是阿里云部署 cow 的完整教程: 一、注册云服务器和获取模型 key 1. 刚才在这里保存的“外网面板地址”,点击打开。 2. 输入账号密码,即上图中的 username、password。 3. 第一次进入会让您绑定一下,点击免费注册,注册完成后,返回此页,登录账号。 4. 首次会有个推荐安装,只安装第一个即可。其他的取消勾选。 5. 点击“终端”,会让您关联,点击关闭就好。 七、安装并接入 cow 1. 回到宝塔,打开【终端】 继续,一行一行依次粘贴,依次回车: cd /root git clone https://github.com/zhayujie/chatgptonwechat 这个注意一定要粘贴完整,这里容易粘贴不全。 出现下方的样子,就是成功了。如果失败,或者没反应,刷新一下,重新再试一次。 继续一行一行,依次输入: cd chatgptonwechat/ pip install r requirements.txt 等待执行完成,如上图后,继续粘贴: pip install r requirementsoptional.txt 上边的都执行完成后。 现在我们到“文件”菜单中去执行,点击文件找到 root,进入 root 文件夹,找到 chatgptonwechat 文件夹,并进入。 点击文件夹上方功能栏中的【终端】(注意,不是左侧一级菜单里的终端,是文件夹上方那一行的终端电脑) 粘贴进入,点击回车。点击后,关闭此弹窗。 cp configtemplate.json config.json 刷新页面。在当前目录下,找到 config.json 文件。 双击这个文件,找到第 4、5 行,把刚才 FastGPT 里拿到 API 和 key,根据要求粘贴到双引号里。这也是您唯一需要修改的地方。修改完之后,点击保存,关闭文件。 依然在当前文件,【终端】里进行,依次复制粘贴进入: cd plugins/godcmd cp config.json.template config.json 操作完成后,退出窗口,刷新一下。进入/root/chatgptonwechat/plugins/godcmd, 下边是依次进入窗口的路径, 双击 config.json,进入后,设置下您的 password 和 admin_users,可以设置为和我一样的,后边再改,点击保存后关闭。 重新回到/root/chatgptonwechat/这个文件路径下,点击终端,继续依次粘贴: touch nohup.out nohup python3 app.py & tail f nohup.out 使用微信扫码(建议使用小号)。完成
2024-07-19
扣子AI应用发布到微信小程序中失败
扣子 AI 应用发布到微信小程序中失败可能有以下原因及解决办法: 1. 容器编排不运行: 宝塔面板中设置加速镜像不生效需安,通过命令行手动设置。 新建/etc/docker/daemon.json 文件(如果已经存在可以不用创建)。 在 daemon.json 中添加相应代码。 重启 Docker 服务:systemctl restart docker。若仍无法解决,可继续排查。 2. 本地镜像的方法: 服务下载:服务的百度网盘地址:https://pan.baidu.com/s/1Ueyp6KnOmD18h6wICwJKNg?pwd=85jv 提取码:85jv ;服务的夸克网盘地址:https://pan.quark.cn/s/189b6f3e0d94 。需要把 chatgptonwechat.tar 和 coze2openai.tar 下载到本地。 上传服务:在宝塔操作面板中点击文件,选择上传下载到本地的文件。上传到根目录/www/backup 文件夹下面。 导入镜像:选择 Docker 中选择本地镜像,然后选择导入镜像。导入镜像要选择上传的目录,如根目录/www/backup 。 3. 修改参数不生效:需要删掉“容器编排”和“容器”中的内容,再重新生成一次。 4. 知识库不更新:确认扣子里有点击右上角的发布按钮。 5. 微信机器人无法正常画图,给的图片链接点进去有错误提示:查看/root/chatgptonwechat/run.log 中有相关提示。可能是点链接的时候多了一个小括号。 6. 扫码后,手机登陆后,没有任何机器人的反应:配置有错错误,或者安装不对,根据步骤去逐一检查。或者重装。 7. 机器人回答问题:COW 本身处理不了一次调取多个对话。有代码能力,可以直接调整代码实现。 8. 宝塔之后登录的时候登录不上去:按下图所示重启服务器之后就好了,重启时间可能会久,但一定会重启成功,请耐心等待。 此外,零基础模板化搭建 AI 微信聊天机器人的步骤如下: 1. 直接对接 Coze 平台 Bot 的微信聊天机器人搭建: Coze 相关配置: 创建 Coze API 令牌:进入到,点击左下角的扣子 API 选项,进入到 API 管理页面,点击 API 令牌,按照图示创建第一个 API 令牌,创建成功后保存好,因为这个 API 令牌只会在创建成功后显示一次。 记下 Coze AI Bot 的 Bot ID:去到要绑定的 AI Bot 的设计界面,在所在的链接里面记下 Bot ID,将 Bot 发布到 Bot as API 上。
2025-02-18
我想了解如何在微信公众号搭建一个能发语音的数字人
以下是在微信公众号搭建能发语音的数字人的相关步骤: 1. 照片数字人工作流及语音合成(TTS)API 出门问问 Mobvoi: 工作流地址:https://github.com/chaojie/ComfyUImobvoiopenapi/blob/main/wf.json 相关文件: 记得下载节点包,放进您的 node 文件夹里,这样工作流打开就不会爆红了!ComfyUI 启动后就可以将 json 文件直接拖进去使用了! 2. 「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人: 组装&测试“AI 前线”Bot 机器人: 返回个人空间,在 Bots 栏下找到刚刚创建的“AI 前线”,点击进入即可。 组装&测试步骤: 将上文写好的 prompt 黏贴到【编排】模块,prompt 可随时调整。 在【技能】模块添加需要的技能:工作流、知识库。 【预览与调试】模块,直接输入问题,即可与机器人对话。 发布“AI 前线”Bot 机器人: 测试 OK 后,点击右上角“发布”按钮即可将“AI 前线”发布到微信、飞书等渠道。 发布到微信公众号上: 选择微信公众号渠道,点击右侧“配置”按钮。 根据以下截图,去微信公众号平台找到自己的 App ID,填入确定即可。不用了解绑即可。 最后去自己的微信公众号消息页面,就可以使用啦。
2025-02-18
怎么在企业微信里接入deepseek
在企业微信里接入 DeepSeek 的步骤如下: 1. 注册并登录火山引擎,点击立即体验进入控制台。链接:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台,在 AI 领域最为大众所熟知的应该是“豆包大模型”,这里就是源头) 2. 创建一个接入点,点击在线推理创建推理接入点。 3. 为接入点命名为 DeepSeekR1。 4. 若提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,开通一下(这里是免费的)。若无提示则直接到第 5 步,点击确认接入。 5. 确认以下无误后,点击“确认接入”按钮。 6. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”(我们刚才自己设置的命名)。重点来了:这个就是推理点的 ID,复制他放到你的微信里,发给自己保存一下。 7. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。 8. 若已有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】。 9. 把复制好的内容,也放到自己微信里保存好。 至此,我们已经完成拿到了模型的密钥。接着,就可以去把它配置到网页聊天里使用。
2025-02-18
写微信小程序,用哪个 ai 代码助手最好
以下是一些适用于写微信小程序的 AI 代码助手推荐: 1. DIN: 搭建 OneAPI 以汇聚整合多种大模型接口。 搭建 FastGpt 作为知识库问答系统。 搭建 chatgptonwechat 接入微信,并配置 FastGpt 把知识库问答系统接入到微信。 2. Cursor: 可通过任意 AI 工具获得代码,专业代码模型表现更优。 网址:https://www.cursor.com/ 3. Deepseek(新手推荐): 网址:https://www.deepseek.com/zh 方便获取游戏代码,国内能访问,网页登录方便,目前完全免费。 4. 通义灵码: 在 Pytharm 中,“文件”“设置”“插件”红色框位置搜索“通义灵码”进行安装(目前免费)。 5. JetBrains 自身的助手插件: 在 Pytharm 中,“文件”“设置”“插件”红色框位置搜索“Jetbrains AI assistant”进行安装(收费,目前有 7 天免费试用)。 6. Marscode 及 Tencent cloud AI code Assistant 等。 7. 无影的晓颖 AI 助手: 内置在云电脑里,使用流畅,但需要在无影的云电脑中。 需要注意的是,不同的 AI 代码助手在生成特定代码时可能有不同的表现,您可以根据自己的需求和实际使用体验进行选择。
2025-02-17
ai接入微信、钉钉聊天的软件
以下是关于将 AI 接入微信、钉钉聊天的相关信息: 基于 COW 框架的 ChatBot 实现步骤: 作者为熊猫大侠,COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 张梦飞同学写了更适合小白的使用教程: 。 可实现打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)和常用开源插件的安装应用。 正式开始前需知:ChatBot 相较于在各大模型网页端使用区别在于需要接入大模型 API(API 单独付费)。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 零基础模板化搭建 AI 微信聊天机器人: COW 全称 Chatgptonwechat,可在微信、飞书、钉钉等主流社交平台上实现对接各种大模型的功能。 在刚买的腾讯云服务器上通过 Docker 运行 COW,并将之前在极简未来平台创建的 API 信息填入其中。 使用 Docker 服务部署 COW 组件,宝塔面板可让技术小白以图形交互方式运维服务器,手动配置部署容器编排模板。
2025-02-15
我想用deepseek 写微信公众号文章,我将要写的主题告诉他,让它为我生成个人角度的文章,我要写的主题一般围绕着软件分享,技术分享等。请你根据我的要求为我写一份适用的提示词
以下是为您生成的适用于使用 DeepSeek 写微信公众号文章的提示词: 我要写一篇关于软件分享或技术分享的微信公众号文章,文章标题要足够吸引人,以便能广泛传播。文章内容要详细且有条理,先介绍分享的软件或技术的基本情况,包括其功能、特点和优势;然后结合实际案例或个人使用体验,阐述其在实际应用中的效果和价值;最后总结并展望其未来的发展前景。请为我生成这样一篇完整的文章。
2025-02-12
怎么做一个知识库智能问答机器人?
要做一个知识库智能问答机器人,主要基于大模型的 RAG 机制,具体步骤如下: 1. 理解 RAG 机制:RAG 机制全称为“检索增强生成”(RetrievalAugmented Generation),是一种用于自然语言处理的技术,结合了检索和生成两种主要的人工智能技术,以提高机器对话和信息处理的能力。它先从大型数据集中检索与问题相关的信息,然后利用这些信息生成更准确、相关的回答。可以想象成在巨大图书馆里找相关书籍,再基于书籍信息给出详细回答,这种方法结合大量背景信息和先进语言模型能力,使生成内容更精确,提升对话 AI 的理解力和回答质量。 2. 创建知识库:创建包含大量社区 AI 相关文章和资料的知识库,例如创建有关 AI 启蒙和信息来源的知识库,通过手工录入方式上传文章内容,并陆续将社区其他板块的文章和资料导入。 3. 设计 Bot:在设计中添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,尽可能利用好知识库返回的内容进行结合回答。 此外,在飞书中,还可以利用飞书智能伙伴创建平台(Aily)来搭建 FAQ 机器人,它是飞书团队旗下的企业级 AI 应用开发平台,能为企业提供简单、安全且高效的环境,帮助轻松构建和发布 AI 应用。
2025-02-18
有哪些在企业内部落地应用AI大模型工具的实践案例?不要营销文案生成、代码开发助手、智能客服问答机器人这种太常见的
以下是一些在企业内部落地应用 AI 大模型工具的实践案例: 1. 阿里云百炼: 智能体应用:能够弥补大模型的不足,如回答私有领域问题、获取实时信息、回答专业问题等。适用于有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务,以及缺少技术人员开发大模型问答应用的场景。典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供 UID 并通过白名单进行开启。 2. 达摩院: AI 模特(虚拟换装):支持虚拟换装、姿态编辑。 3. 电商零售: 推广文案写作:通过内置的多样化营销场景的文体模板,基于用户输入的创作主题以及参考素材,大模型即可为您生成对应的营销文案,为营销活动和宣传文案提供灵感和文案写作支持。 4. 泛企业: VOC 挖掘:是一个面向各类企业的 VOC 标签挖掘的工具。不论是用户的长短评论、帖子、还是用户和客服/销售的聊天记录、通话记录,都可以使用。通过选中或自定义标签,即可让大模型针对海量非结构化的 VOC 数据快速打标。相比于人工打标或规则打标准确率更高;对于业务标签变动频繁的情况,也能更敏捷、快速地影响。 5. 通义晓蜜:基于深度调优的对话大模型,为营销服类产品提供智能化升级所需的生成式摘要总结、质检、分析等能力应用。
2025-02-18
通过飞书机器人与 Coze 搭建的智能体进行对话
通过飞书机器人与 Coze 搭建智能体进行对话,实现跨平台的稍后读收集与智能阅读计划推荐,具体步骤如下: 1. 前期准备: 设计 AI 稍后读助手的方案思路,包括简化“收集”(实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作,输入 URL 完成收集,借鉴微信文件传输助手通过聊天窗口输入)、自动化“整理入库”(自动整理每条内容的关键信息,支持跨平台查看)、智能“选择”推荐(根据收藏记录和阅读兴趣生成阅读计划)。 2. 逐步搭建 AI 智能体: 经过配置得到两个可用工作流(整理入库、选择内容),将其编排为完整智能体。 配置过程包括创建 Bot、填写 Bot 介绍、切换模型为“通义千问”、把工作流添加到 Bot 中、新增变量{{app_token}}、添加外层 bot 提示词,完成后可在「预览与调试」窗口与智能体对话并使用全部功能。
2025-02-16
使用飞书机器人(如Coze智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)
以下是使用飞书机器人(如 Coze 智能体)自动抓取外部链接(如网页、公众号文章),通过多维表格存储为“稍后读”清单,并自动提取关键信息(标题、摘要、标签)的相关内容: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口输入更符合用户习惯。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用步骤: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,然后复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。 目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出,由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,理论上无需开发任何插件、APP,就能实现跨平台的稍后读收集与智能阅读计划的推荐。部署完成后,您可以在电脑、手机端通过飞书机器人与稍后读助手进行对话,也可以直接在 Coze 商店中与 bot 进行对话,如果部署到微信服务号、订阅号,还可以通过这些渠道调用 bot。
2025-02-16
飞书机器人设置
以下是关于飞书机器人设置的详细步骤: 1. 工作流搭建: 打开 Comfyui 界面后,右键点击界面,即可找到 Comfyui LLM party 的目录,您既可以学习如何手动连接这些节点,从而实现一个最简单的 AI 女友工作流,也可以直接将工作流文件拖拽到 Comfyui 界面中一键复刻麦洛薇机器人。 2. 飞书机器人创建: 飞书应用建立: 在中创建自建应用。 进入应用获取 app_id 与 app_secret。 添加应用能力>开启机器人应用能力。 权限管理>消息与群组>选择需要的权限打开。 安全设置>将 comfyUI 运行的电脑 IP 加入白名单。 发布机器人以应用生效。 获取群组或用户 id: 要先把创建的机器人拉到群组中或者拉进私聊。 飞书开发平台找到发送消息的开发文档。 右侧点击获取 token。 选择 receive id type,chat_id 对应群组,open_id 与 user_id 对应个人,点击选择成员,复制对应的 id 即可。 如果需要让机器人发送语音,需要自行在电脑上安装 ffmpeg。 3. 发布到飞书: 登录平台。 在左侧导航栏,选择打开个人空间或一个团队空间。 在 Bots 页面,选择需要发布的 Bot。 在 Bot 编排页面,单击发布。 首次发布时需要进行授权,根据引导完成授权。 单击配置。 在打开的页面,单击点击获取当前应用链接。 单击获取。 在打开的页面,(可选)配置安装范围,然后勾选隐私协议,最后单击授权并安装。 应用安装完成后,返回扣子 Bot 的发布页面,再次单击配置。 在弹出的页面,单击授权。 输入发布信息,勾选飞书渠道,然后单击发布。 发布完成后,可点击在飞书中打开链接跳转至飞书应用中,与 Bot 对话。 如果这是您的飞书租户第一次发布扣子 Bot 应用,您会收到飞书消息提醒。如果提醒应用审核通过,则您可以直接使用 Bot。否则您需要等待企业管理员审核完成之后,才可以使用 Bot。 4. 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档: 创建扣子的令牌: 在扣子官网左下角选择扣子 API。 在 API 令牌中选择“添加新令牌”。 名称:给令牌起一个名字。 过期时间:为了方便选择永久有效。 选择制定团队空间:可以是个人空间、也可以选择团队空间。 权限:勾选所有权限。 要保存好令牌的 Token,切勿向他人泄露。 Coze 设置: 获取机器人 ID:在个人空间中找到自己要接入到微信中的机器人,比如有计划要将画小二智能小助手接入到微信群中。点击对应的机器人进入机器人编辑界面。在浏览器地址栏的 bot/之后的数据就是该机器人的 Bot ID。 API 授权:然后再点击右上角发布。这里会发现多了一个 Bot as API,意思就是自己定义的 API 发布取到了。勾选 Bot as API,确定应用已经成功授权 Bot as API。
2025-02-16
waytoAGI知识库智能问答机器人是如何实现的
waytoAGI 知识库智能问答机器人的实现方式如下: 基于 Aily 和云雀大模型。Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用。云雀是字节跳动研发的语言模型,能通过自然语言交互高效完成互动对话等任务。 在飞书 5000 人大群里内置,根据通往 AGI 之路的文档及知识进行回答。使用方法为在飞书群里发起话题时,它会根据 waytoAGI 知识库的内容进行总结和回答。 其具备多种功能,如自动问答、知识搜索、文档引用、互动教学、最新动态更新、社区互动、资源共享、多语言支持等。 搭建过程包括介绍 WaytoAGI 社区的成立愿景和目标、利用 AI 技术帮助用户检索知识库内容、引入 RAG 技术、介绍基于飞书的知识库智能问答技术的应用场景和实现方法、使用飞书的智能伙伴功能搭建 FAQ 机器人以及智能助理的原理和使用方法等。
2025-02-12