利用 Coze 实现公众号更新后自动推送并总结内容的步骤如下:
[title]【拔刀刘】自动总结公众号内容,定时推送到微信(附完整实操教程)[heading2]二、工作流拆解[heading3]2、元素拆解我们再来看看这个流程中每一步都涉及到哪些核心要素:1、抓取公众号内容:首先先在平台搜搜有没有现成的插件,Coze平台确实有一些读取公众号内容的插件,但是都已经荒废了,用不了了。所以现在要么写爬虫自己抓(我不会啊……),要么就看看有没有现成的服务,可以通过API的方式直接调用。这时候想起来原来折腾RSS订阅的时候,有个平台叫「瓦斯阅读」,可以稳定的抓取公众号的内容,用这个先试试,成功获取刘润公众号的内容!但是马上新的问题就出现了,平台上公众号也太不全了吧,我搜了10个,有7个都没有(晕倒),比如搜索Coze的官方账号就查无此人。看来还得找找其他的方案,功夫不负有心人,在GitHub上有个项目叫做WeWe RSS。这个工具可以通过微信读书的方式,订阅公众号,感觉可行!看着也挺优雅!2、公众号内容总结:这个主要就是依靠大模型的能力了,总结任务应该算是大模型最擅长的任务之一了吧,字节的豆包大模型应该就可以胜任。这步主要涉及一个批量化操作:批量对抓取到的公众号内容进行总结,可以使用「批处理」功能搞定,后边会有详细介绍。3、定时推送到微信:这里头有两个点:一个是定时,这个Coze平台的触发器可以实现;另一个是推送到微信,Coze平台没有这类的插件,看来还得找第三方API的方案解决。之前接触过「server酱」,可以通过服务号的模板消息,将自定义的内容推送到微信上,作为MVP产品来说,这个免费服务应该也够用了。
[title]【拔刀刘】自动总结公众号内容,定时推送到微信(附完整实操教程)[heading2]三、搭建工作流[heading3]6、循环查询文章是否推送过循环体内部——数据库节点数据库节点:用来在数据库中查询是否已经推送过该篇文章,输入项为上一步中的url和开始节点的key(也就是server酱的sendkey,这里我们重命名为suid了)因为这个Bot最开始设计的时候,就考虑到可能有多个用户会同时使用这个Bot设置公众号推送内容,每个用户设置的公众号内容可能不一样,每个用户的要推送的微信号肯定也不一样,所以这里使用server酱的sendkey作为了用户的唯一标识,重命名为了suid所以这里查询数据库需要两个值,文章url和用户的suid,来判断这名用户的这篇文章是否推送过SQL语句是AI写的,直接复制就成记得设置一下输出项「combined_output」这步是必须项:Coze平台的逻辑是数据库是与bot绑定的,所有如果要使用数据库功能,需要在bot中设置一个相同名称和数据结构的数据库进行绑定,具体设置方法参见「相关资源」循环体内容——选择器判断数据库查询的内容是否为空,如果是空,证明数据库中没有查到,这篇文章没有给这名用户推送过,使用「文本处理」节点,拼接这篇文章的完整信息,保证信息一致性string1:开始节点的key,也就是server酱的sendkey,用来识别用户string2:循环节点item值中的urlstring3:循环节点item值中的titlestring4:循环节点item值中的author拼接为如下格式,方便输出,并让后边节点使用右下方的「文本处理」节点没有实际作用,输入项随便写,主要是为了处理数据库查询到已经给这名用户推送过这篇文章情况下的占位项,否则工作流会报错设置循环节点输出项,选择循环体中「输出新文章内容」拼接后的字符串
终于终于,最后一步了,在Bot中绑定工作流,设置定时任务,然后发布到飞书渠道。1、人设和回复逻辑:由于咱们这个bot主要依托于工作流,所以设置提示词,直接调用工作流sum_weixin_2_2替换为你工作流的名称2、工作流:添加刚刚创建的工作流3、设置触发器:选择「定时触发」,选择触发的时间,比如希望每天18点收到微信推送,就选择18点任务执行:选择工作流,输入key和rss_list,这里的输入参数就是工作流中开始节点的输入参数,key为Server酱的sendkey,rss_list可以使用上边我提供的测试数据触发器实现的效果就是,在设定的时间点,根据输入项的内容,执行工作流。由于工作流中我们设置了推送到微信,所以我们在这个时刻就可以在微信里收到推送的总结内容了。可以同时设置多个触发器,最多设置10个。可以推送给10个不同的人,或者分10个时间段给自己推送不同的内容。[heading3]17、发布到飞书[content]点击右上角「发布」,注意渠道要选择飞书,因为目前Coze平台触发器只对飞书渠道生效。