直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何能让大模型自动读取到微信上的聊天内容。

回答

要让大模型自动读取到微信上的聊天内容,可以参考以下几种方法:

  1. 搭建OneAPI,用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,并可白嫖大模型接口。
  2. 搭建FastGpt,这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,最后回答问题。若不想接入微信,搭建完成即可使用其问答界面。
  3. 搭建chatgpt-on-wechat,接入微信,并配置FastGpt将知识库问答系统接入微信。但建议先用小号,以防有封禁风险。若想拓展功能,可参考Yaki.eth同学的教程Yaki:GPT /MJ接入微信,其中的cow插件能进行文件总结、MJ绘画等。

此外,还有作者张梦飞的方法,即把自己微信中的聊天记录导出,用自己的聊天记录去微调一个模型,最终将这个微调后的模型接入微信中替您回复消息。

另外,在创作方面,鉴于聊天记录属于绝对的个人隐私,不适合接入第三方大模型提取信息,可本地化部署LLM。例如采用百川2的国产大模型开源,如Baichuan2作为底模,先用提示工程对聊天记录进行信息提取,并在此基础上使用自有数据进行模型微调。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

DIN:全程白嫖 - 拥有一个AI大模型的微信助手

[title]DIN:全程白嫖-拥有一个AI大模型的微信助手1.搭建[OneAPI](https://github.com/songquanpeng/one-api),这东西是为了汇聚整合多种大模型接口,方便你后面更换使用各种大模型。下面会告诉你怎么去白嫖大模型接口。2.搭建[FastGpt](https://fastgpt.in/),这东西就是个知识库问答系统,你把知识文件放进去,再把上面的大模型接进来,作为分析知识库的大脑,最后回答你问题,这么个系统。如果你不想接到微信去,自己用用,其实到这里搭建完就OK了,他也有问答界面。3.搭建[chatgpt-on-wechat](https://github.com/zhayujie/chatgpt-on-wechat),接入微信,配置FastGpt把知识库问答系统接入到微信。这里建议先用个小号,以防有封禁的风险。搭建完后想拓展Cow的功能,我推荐Yaki.eth同学这篇教程[Yaki:GPT /MJ接入微信](https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),里面的cow插件能进行文件总结、MJ绘画的能力。完成上面3步就算OK了,那我们正式开始。

张梦飞:用聊天记录把自己克隆成AI,分分钟化身为1V100的“时间管理大师” -- LLamaFactory部署与微调大模型应用教程

[title]张梦飞:用聊天记录把自己克隆成AI,分分钟化身为1V100的“时间管理大师” -- LLamaFactory部署与微调大模型应用教程作者:张梦飞原文链接,大家多多关注https://mp.weixin.qq.com/s/B8FUmjSdr-wAjIApa9aNVA大家好,我是梦飞。好久不见,一个月前发布的视频号,今天终于能够填坑了!这次带来的教程是:《用聊天记录克隆自己的AI分身》在我多次尝试(其实是多个平台账号欠费之后),终究是放弃了让大家云端使用。学习和使用成本太高,本篇教程依然全程本地操作,无需调用云端资源。让大家既能体验大模型训练和调用,又可以无负担的使用自己微调后的大模型!本篇教程的目标是,把自己微信中的聊天记录导出,用自己的聊天记录去微调一个模型,最终将这个微调后的模型接入微信中,替你回复消息。

创作:基于百川大模型向微信群大佬们虚心学习

微信作为国民应用,向来是占用手机空间最多的APP之一,其中历年累积的聊天记录也就蕴含着巨大的信息量。特别在微信群中,经常一转眼的功夫,就累积了几百条的留言。这里充斥着口水,偶尔又蕴藏了真知灼见,既不想错过,又没有时间,若想每个群都看一遍,真心是个苦力活。本篇选用了大佬的聊天群作为数据来源,让大模型帮我们定期自动生成报告,甚至还能将日理万机的某个大佬,请来化身客串一下我们的私人助理。鉴于聊天记录属于绝对的个人隐私,肯定不适合接入第三方大模型来提取信息。无论是ChatGPT还是文心都不能完全保证提交数据不用于改善模型,那么本地化部署LLM将成为必然的选择。最近随着百川2的国产大模型开源,很多领域逼近甚至超越了llama 2的效果(特别在中文理解领域)。本文采用了Baichuan2作为底模,先用提示工程对聊天记录进行信息提取,并在此基础上使用自有数据进行模型微调。

其他人在问
我想用豆包读取微信里的内容,应该怎么做?
要使用豆包读取微信里的内容,可参考以下步骤: 1. 抓取公众号内容: 先在平台搜索现成的插件,如 Coze 平台,但部分插件已荒废无法使用。 可考虑自己写爬虫抓取,或者寻找现成的服务通过 API 方式调用。例如“瓦斯阅读”可以抓取部分公众号内容,但存在公众号不全的问题。还可以尝试 GitHub 上的 WeWe RSS 工具,通过微信读书的方式订阅公众号。 2. 公众号内容总结: 主要依靠大模型的能力,如字节的豆包大模型可以胜任。涉及批量对抓取到的公众号内容进行总结,可使用“批处理”功能。 3. 定时推送到微信: 定时方面,Coze 平台的触发器可以实现。 推送到微信方面,Coze 平台没有这类插件,可寻找第三方 API 的方案,如“server 酱”,通过服务号的模板消息将自定义内容推送到微信。 另外,关于将 AI 接入微信,还可参考以下步骤: 1. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。 2. 若想为 AI 赋予提示词,可返回“目录 4 里的第 17 步”进行更改。 3. 此后进行任何更改,都需要“返回首页 右上角 点击重启,重启一下服务器”。 4. 然后,重新在“文件”的【终端】里,直接输入“nohup python3 app.py & tail f nohup.out”重新扫码登录。 5. 关于添加插件,可参考。 6. 接入机器人的步骤: 回到宝塔,选择 Docker(若未安装则进行安装,安装完成后刷新页面确认安装成功)。 回到宝塔终端,粘贴代码并回车。 去文件列表,到根目录/data/cozediscordproxy 新建文件并命名为 dockercompose.yml,粘贴代码并替换相关 ID 和 token 后保存。 在文件位置的上方点击终端,粘贴相关代码。若启动失败,可能是 docker 拒绝代理访问问题,可先关掉 clash 再执行代码。 进入相关文件夹和文件进行替换和修改,最后在文件顶部的“终端”内粘贴执行。 使用微信扫码(建议使用小号)完成。
2024-10-23
如何让微信bot以语音条格式回复消息?
要让微信 bot 以语音条格式回复消息,您可以参考以下步骤: 1. 找到高级下开场白,点击展开,填写开场白文案、开场白预置问题。 2. 勾选用户问题建议:在 Bot 回复后,根据 Prompt 提供最多 3 条用户提问建议。 3. 添加语音选择:让 Bot 不仅会写,还会通过语音跟您交流。 4. 点击“发布”,选择发布平台,其中包括 Bot Store、豆包、飞书、微信客服、微信公众号(服务号)、微信公众号(订阅号)、掘金等。微信客服是重点部分,相比其他平台发布到微信客服稍微复杂一些。 另外,对于零基础模板化搭建 AI 微信聊天机器人,还需注意: 1. 配置腾讯云轻量应用服务器。 2. 登录微信绑定 COW 组件,建议使用闲置微信号,避免使用日常使用的微信号,以免造成不必要的麻烦。按照以下操作进行登录:找到刚刚部署成功的 COW 服务对应的容器,点击日志按钮进入日志界面,将日志输出的界面滚动到最下面的位置,会看到登录微信的二维码,用闲置微信号扫码登录。若扫描二维码出现问题,可退回到容器配置处重启容器服务,再重新扫码登录。若想修改 COW 组件的配置,进入对应的编排模板的配置界面,点击模板编辑,修改对应的配置参数,保存后回到容器编排界面重新部署新的容器编排。
2024-10-22
如何搭建一个智能企业微信机器人
搭建智能企业微信机器人可以参考以下步骤: 1. 纯 GPT 大模型能力的微信聊天机器人搭建: 利用宝塔面板,其具有图形化管理界面,操作简单直观,许多常见任务可通过点击按钮完成。 丰富的在线资源:宝塔面板和 Docker 都有详细的官方文档和教程可供查阅。 极简未来平台提供支持,也有详细的操作指南和技术支持,遇到问题可查阅官方文档或寻求帮助。 加入相关技术社群或论坛,向有经验的用户请教。 定期备份和监控,设置定期备份和监控,确保在出现问题时可以及时恢复。 2. 用 Coze 免费打造微信 AI 机器人: 确定功能范围: 编写【prompt】提示词,设定 Bot 的身份和目标。 创建【知识库】,整理“关键字”与“AI 相关资料链接”的对应关系并存储。创建知识库路径为:个人空间知识库创建知识库。知识库文档类型支持本地文档、在线数据、飞书文档、Notion 等,可使用【本地文档】。按照操作指引上传文档、分段设置、确认数据处理。小技巧:在内容中加上特殊分割符“”便于自动切分数据,分段标识符号选择“自定义”,内容填“”。 创建【工作流】,告诉 AI 机器人处理信息的流程。创建工作流路径:个人空间工作流创建工作流。工作流设计好后,先点击右上角“试运行”,测试无误后点击发布。如果任务和逻辑复杂,可结合左边“节点”工具实现,如调用【大模型】总结分析知识库内容、调用【数据库】存储用户输入的信息、调用【代码】处理复杂逻辑等。个人建议:工作流不必复杂,能实现目的即可,所以在设计 Bot 前“确定目的”和“确定功能范围”很重要。 如果在搭建过程中遇到问题,可以采取以下方式解决: 1. 查阅官方文档和教程:极简未来平台、宝塔面板和 Docker 都有详细的官方文档和教程,可以帮助解决大部分问题。 2. 联系技术支持:极简未来平台提供技术支持服务,可以联系平台的技术团队寻求帮助。 3. 加入技术社群:加入相关的技术社群,向有经验的用户请教,获取问题的解决方案。 4. 在线论坛和社区:在在线论坛和社区发布问题,寻求其他用户的帮助和建议。 为避免长时间不操作后忘记步骤,可以采取以下措施: 1. 制作操作手册:将每一步的操作记录下来,制作成操作手册,方便日后查阅。 2. 定期操作:定期登录服务器,进行简单的操作和维护,保持熟练度。 3. 视频教程:可以录制自己的操作视频,作为教程,日后查看时更直观。 4. 自动化脚本:对于一些常见的运维任务,可以编写自动化脚本,简化操作步骤。
2024-10-21
微信机器人
以下是关于微信机器人的搭建和使用的相关内容: 入门级搭建方式(Stuart): 1. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。若未成功,可检查 config.json 文件中的配置或跳到“第四章,第 3 步”重启服务。 2. 为机器人设置不一样的提示词,可返回“第三章,第 7 步”更改双引号内的 value 部分。 3. 此后进行任何更改,都需要“返回首页 右上角 点击重启,重启一下服务器”。熟悉 linux 操作的话,也可通过重启进程的方式来重启服务。 4. 然后,在“文件”的【终端】里,直接输入“nohup python3 app.py & tail f nohup.out”重新扫码登录即可。 5. 若想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 保姆级基于 Hook 机制的搭建方式(张梦飞): 1. 修改后,点击保存。 2. 返回 NGCbot 文件夹下,找到 main.py 文件,双击开始运行。 3. 双击后会弹出微信登录框,正常登录微信(若显示版本过低登录失败,跳转到最下边看解决方法)。 4. 进入微信之后,系统会自动初始化必备文件,等待初始化完成。 5. 运行成功后,用“大号”给机器人发一条消息,拿到您的 wxid 返回到 13.1 步,config 让您替换的地方,替换掉。 6. 添加完之后,建议使用小号进行登录,然后就可以使用大号作为管理员,对小号发号施令。 基于 Hook 机制的微信 AI 机器人特点(张梦飞): 1. 本教程是基于 Hook 机制的机器人教程,与之前的 COW 机器人采用完全不同的方式。 2. 优势:Hook 有相对更高的稳定性和安全性,更简单,易上手。 3. 劣势:目前插件相对较少,且仅支持 Windows 系统。 4. 此项目在 Windows 系统上运行,可以不用服务器,对小白更加友好。 5. 此项目能结合 FastGPT 进行使用,且在@zyh 的帮助下,对群发功能进行了进一步的优化和二开,使其可用性和可玩性更强。 6. 目前,此机器人可以:基于知识库的 AI 回复、支持积分系统、支持自动拉人、检测广告、自动群发。还有一些有趣的小功能:安全新闻定时推送,Kfc 文案,星座查询,天气查询等。 最后,如果您仍旧遇到问题,可以先查询社区知识库,或者加“通往 AGI 之路”群,社区小伙伴们(比如梦飞大佬,熊猫大侠)会尽力帮助。也可以加 Stuart 个人微信询问。
2024-10-18
我正在做一个项目“基于chatGPT的剧本杀微信小程序开发”,现在要进行大数据平台后端的开发与搭建,请告诉我怎么入手
以下是基于您的项目“基于 chatGPT 的剧本杀微信小程序开发”进行大数据平台后端开发与搭建的入手步骤: 1. 搭建 OneAPI(https://github.com/songquanpeng/oneapi),其作用是汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时会告知您如何白嫖大模型接口。 2. 搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统。您将知识文件放入其中,并接入上面的大模型作为分析知识库的大脑,用于回答问题。如果不想接到微信,仅自己使用,搭建到此即可,它本身也有问答界面。 3. 搭建 chatgptonwechat(https://github.com/zhayujie/chatgptonwechat)以接入微信,并配置 FastGpt 将知识库问答系统接入微信。建议先使用小号以防封禁风险。搭建完成后若想拓展功能,可参考 Yaki.eth 同学的教程(https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),其中的 cow 插件具备文件总结、MJ 绘画的能力。 完成上述 3 步即可。
2024-10-16
我正在做一个项目“基于chatGPT的剧本杀微信小程序开发”,请告诉我怎么入手
以下是基于 ChatGPT 开发剧本杀微信小程序的入手步骤: 1. 注册小程序: 登录微信公众号首页,选取小程序,用新邮箱绑定注册。 2. 小程序信息填写: 注册验证通过后,填写小程序信息和类目。小程序名称可填写与功能相关的名称,头像可网上查找或利用 Midjourney 生成。 3. 开发者工具下载: 回到发布流程页面,点击“普通小程序开发者工具”,在新页面中点击“微信开发者工具”,选择 Windows 64 位下载。 4. 创建小程序项目: 打开下载好的微信开发者工具,选择创建小程序。注意获取 ID,选择不使用云服务,并选择 JavaScript 基础模板。创建后了解相关文件,如 app.js 等。 5. 利用 ChatGPT 生成代码: 构思好产品,画个草稿,包括产品名称、按钮数量、交互逻辑等,并将这些话术告诉 ChatGPT。 例如,以制作计算日子间隔的工具为例,给出详细的 prompt 描述需求。 ChatGPT 会给出代码,并告知代码应放置在微信开发者工具的哪些文件中。特殊文件夹如 add 需自行在 pages 下级新建。 您还可以参考以下文章获取更详细的信息:https://mp.weixin.qq.com/s/WkFxMMrlMqv52ce2n0xX6A
2024-10-16
推荐读取论文的最佳ai工具
以下为您推荐一些读取论文和辅助论文写作、排版的 AI 工具: 读取论文: 皇子推荐的 31 篇 LLM 的经典论文速读版,包含大语言模型架构、RAG、预训练、微调、提示词等。为方便中文阅读,可安装浏览器插件“沉浸式翻译(https://immersivetranslate.com)”,支持多种浏览器和多个翻译服务。将 arxiv PDF 论文原地址域名中的 x 更换成 5 即变成可访问的 HTML 版本链接,然后使用“沉浸式翻译”进行原文阅读。对于论文中看不懂的公式/概念,非算法从业者可不专研,通过谷歌或 AI 了解其作用即可。 论文写作: 文献管理和搜索:Zotero 可自动提取文献信息,Semantic Scholar 是 AI 驱动的学术搜索引擎,能提供文献推荐和引用分析。 内容生成和辅助写作:Grammarly 提供文本校对、语法修正和写作风格建议,Quillbot 可重写和摘要,帮助精简优化内容。 研究和数据分析:Google Colab 提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化;Knitro 用于数学建模和优化,帮助进行复杂数据分析和模型构建。 论文结构和格式:LaTeX 结合自动化和模板处理论文格式和数学公式,Overleaf 是在线 LaTeX 编辑器,有丰富模板库和协作功能。 研究伦理和抄袭检测:Turnitin 和 Crossref Similarity Check 可检测抄袭,确保论文原创性。 论文排版: Grammarly 不仅检查语法和拼写,还提供排版功能,改进文档风格和流畅性。 QuillBot 是 AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 Latex 是广泛用于学术论文排版的软件,有许多 AI 辅助的编辑器和插件简化排版。 PandaDoc 是文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 Wordtune 是 AI 写作助手,重新表述和改进文本,使其更清晰专业。 Overleaf 是在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择工具时需根据具体需求,如文档类型、出版标准和个人偏好。学术论文常用 Latex 和 Overleaf,一般文章和商业文档常用 Grammarly 和 PandaDoc 等。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-25
coze怎么读取飞书的文档
要读取飞书的文档来使用 Coze,您可以按照以下步骤进行操作: 1. 因为前面需要对多维表格操作,所以先在 http://open.feishu.cn 上建一个飞书机器人,并添加知识库或多维表格编辑权限,具体操作可以阅读飞书文档。得到机器人的 app_id 和 app_secret 后即可获得租用 token:tenant_access_token 来获取多维表格数据和编辑能力。 2. Coze 国内版本(https://www.coze.cn/store/plugin)提供了丰富的插件,其中 LinkReader 插件可以读取文档。 3. 创建智能体时,点击创建知识库,创建一个画小二课程的 FAQ 知识库。知识库的飞书在线文档中,每个问题和答案以分割。选择飞书文档,选择自定义的自定义,输入,然后就将飞书的文档内容以区分开来,这里可以点击编辑修改和删除。添加好 Bot 后可以在调试区测试效果。
2024-09-10
我现在拍摄的视频素材太多了,我想什么AI软件能自行帮我读取本地文件,整理分类
目前还没有能够直接读取您本地文件并自动整理分类视频素材的通用 AI 软件。不过,有一些相关的工具和技术可以在一定程度上帮助您处理视频素材的管理和分类。 例如,一些视频编辑软件具有一定的智能分类和标记功能,您可以利用它们的功能对视频素材进行初步的分类和整理。另外,一些云存储服务提供商也在不断探索利用人工智能技术来帮助用户对上传的视频进行分类和管理,但这通常需要将您的视频上传到云端。 需要注意的是,在处理本地文件时,要确保您的操作符合相关的法律法规和隐私政策。
2024-08-21
我现在拍摄的视频素材太多了,我想做一个主题的纪录片,什么AI软件能自行帮我读取本地文件,自行剪辑成片
目前还没有能够直接读取您本地文件并自行剪辑成片的 AI 软件。但有一些视频剪辑软件借助 AI 技术可以为您提供一定的辅助,例如 Adobe Premiere Pro 中的一些智能剪辑功能,能够帮助您提高剪辑效率。不过,这些软件仍需要您进行一定的操作和设置。
2024-08-21
为什么LLM不能很好读取pdf文档
LLM 不能很好读取 PDF 文档的原因较为复杂,主要包括以下几点: 1. 正确处理 PDF 文档并从中获取信息比想象中复杂。 2. Embedding 并不是直接输入 LLM,只是用于召回相关文本,且纯向量化召回在多项 BEIR benchmark 上甚至不如 BM25。 3. 向量数据库无法让模型突破自身的 context limit。 4. 目前 LLM 产品套路还不够清晰,低代码 LLM 平台解决的问题较少,反而限制发挥。
2024-08-17
截止目前,国内聊天AI排名
截至 2023 年 9 月,在国内聊天 AI 方面: ChatGPT 遥遥领先,占整个前 50 名列表每月流量的 60%,估计每月访问量为 16 亿次,每月用户数为 2 亿(截至 2023 年 6 月),成为全球访问量排名第 24 的网站。在移动领域,ChatGPT 同样占据榜首位置,其规模大约是排名紧随其后第二名微软 Edge 和第三名 Photomath 的 2.5 倍。 CharacterAI 已成为第二大产品,其规模约为 ChatGPT 的 21%。在移动领域,CharacterAI 是最强大的早期参与者之一,其 DAU 可以与 ChatGPT 相媲美,并且留存率明显更高。 除了 ChatGPT 之外,位列前 5 名的还有 Google 的 Bard 和 Quora 的 Poe。 有五家 AI 公司实现了“双线作战”,它们的网页端、移动端应用双双跻身前 50 强榜单,分别是 ChatGPT、Character.AI、chatbot 平台 Poe,以及图片编辑应用 Photoroom、Pixelcut。
2024-10-26
聊天机器人
以下是关于聊天机器人的相关内容: COW 框架的 ChatBot 实现步骤: 作者为熊猫大侠,COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信里。 张梦飞同学写了更适合小白的使用教程,链接为:https://waytoagi.feishu.cn/wiki/A9w1wUcXSihF6XkeKVic8CXxnHb 。 可实现打造属于自己的 ChatBot(包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)和常用开源插件的安装应用。 正式开始前需知:相较于在各大模型网页端使用,本实现思路需接入大模型 API(API 单独付费)。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容要注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 有多模型选择,如 GPT3.5、GPT4.0、Claude、文心一言、讯飞星火、通义千问、Gemini、GLM4、LinkAI 等。 支持多消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 有多部署方法,如本地运行、服务器运行、Docker 的方式。 另外,还有关于打造订餐机器人的内容: 建立自己的聊天机器人,称为“订餐机器人”,使用自动化方式收集用户提示和助手反馈。 定义“帮助函数”收集用户消息,避免手动输入。 模型和用户的反馈信息都会添加到上下文中,使上下文越来越完整。 执行时,用户说“嗨,我想要订一份比萨饼”,助手会回应并继续对话,系统信息中包含菜单等内容。
2024-10-09
创建聊天机器人时,数据还是存在本地吗,后面可以实时更新知识库吗
在创建聊天机器人时,数据的存储和更新情况如下: 扣子平台:内置强大的知识库功能,允许开发者上传和维护大量数据,这些数据可用于训练 AI Bot 以更准确理解和回应用户需求。平台具备数据库记忆能力,能存储和检索用户交互历史以提供个性化服务。数据上传形式多样,包括文本、图片、视频等,可通过直观编辑工具整理分类。上传数据用于训练优化 AI Bot,机器学习算法分析数据提高回答准确性和相关性。知识库支持实时更新,对金融、法律等需频繁更新信息的行业尤为重要。数据库能存储用户交互记录,包括提问、回答和反馈,目前数据库设置只能在创建 AI bot 时设置和修改,无需懂数据库语法或编程,用自然语言告知操作即可。通过分析交互历史,AI Bot 能提供个性化服务,开发者还能利用交互记录进行错误分析和修正以提高性能。 FastGPT + OneAPI + COW:创建知识库应用时,地址输入浏览器:http://这里替换为你宝塔左上角的那一串:3000/ 。进入后点击应用并创建,选择 qwen 模型,创建知识库,上传文件等待处理至文本状态为“已就绪”。回到创建的应用关联知识库,点击两个发布,新建并创建 key,保存 API 根地址并加上/v1 。安装并接入 cow 时,回到宝塔打开【终端】,依次执行相关命令。
2024-10-08
微信聊天机器人可以训练自己的数据吗
微信聊天机器人可以训练自己的数据。例如,可以使用字节旗下的 Coze AI 智能机器人工具训练公司自有的数据,让机器人对外提供客服功能,并将训练好的机器人与公司的企业微信绑定。同时,像 ChatGPT 这样的语言模型也是通过基于人类撰写的大量文本语料库(包括网页、书籍等)进行大规模训练得出的。Anthropic 的 Claude 产品在训练时遵循特定策略,在数据搜集方面,在亚马逊机器人平台上雇佣标注员扮演正常用户和恶意用户两种角色进行提问,并分别选出更有帮助和没那么有害的回答。
2024-10-08
AI微信聊天机器人怎么搭建
以下是零基础模板化搭建 AI 微信聊天机器人的步骤: 纯 GPT 大模型能力的微信聊天机器人搭建 疑问解答: 1. 宝塔面板提供了图形化的管理界面,操作简单直观,许多常见任务都可以通过点击按钮完成。 2. 丰富的在线资源:宝塔面板和 Docker 都有详细的官方文档和教程,您可以随时查阅。 3. 极简未来平台的支持:极简未来平台也提供了详细的操作指南和技术支持,遇到问题可以查阅官方文档或寻求帮助。 4. 社群和论坛:加入相关的技术社群或论坛,向有经验的用户请教,也是一个很好的学习途径。 5. 定期备份和监控:设置定期备份和监控,确保在出现问题时可以及时恢复。 如果遇到问题,可以采取以下几种方式来解决: 1. 查阅官方文档和教程:极简未来平台、宝塔面板和 Docker 都有详细的官方文档和教程,可以帮助解决大部分问题。 2. 联系技术支持:极简未来平台提供技术支持服务,可以联系平台的技术团队寻求帮助。 3. 加入技术社群:加入相关的技术社群,向有经验的用户请教,获取问题的解决方案。 4. 在线论坛和社区:在在线论坛和社区发布问题,寻求其他用户的帮助和建议。 为了避免长时间不操作后忘记步骤,可以采取以下措施: 1. 制作操作手册:将每一步的操作记录下来,制作成操作手册,方便日后查阅。 2. 定期操作:定期登录服务器,进行简单的操作和维护,保持熟练度。 3. 视频教程:可以录制自己的操作视频,作为教程,日后查看时更直观。 4. 自动化脚本:对于一些常见的运维任务,可以编写自动化脚本,简化操作步骤。 开始搭建 配置腾讯云轻量应用服务器 配置部署 COW 组件: 1. 在刚刚复制的 dockercompose.yml 文件中,需要修改里面的具体配置来串联微信号和平台上已创建好的 AI 机器人。配置的参考官方来源是:https://docs.linkai.tech/cow/quickstart/config 。 2. 从配置参数解释可以看到,配置里面的每个参考的名称的全大写描述,比如 open_ai_api_key 对应编排模板的 OPEN_AI_API_KEY,model 对应编排模板的 MODEL,以此类推就可以在编排模板去配置具体的配置参数。以下是最新的容器编排模板的配置参数(里面有'{{中文描述}}'的请替换为预留好的对应值)。 留意在私聊或者群上交流时,最好都是需要加上一些前缀才触发机器人回复,比如配置的是,即对应的配置参数 SINGLE_CHAT_PREFIX,在私聊或者群里发消息,必须要包含 bot 或者@bot 才会触发机器人回复。在群组里,对应配置参数是 GROUP_CHAT_PREFIX,机器人只会回复群里包含@bot 的消息。 还有参数 GROUP_NAME_WHITE_LIST,它是用来配置哪些群组的消息需要自动回复的,比如配置的是,即只有 ChatGPT 测试群和 ChatGPT 测试群 2 的群组消息才会自动回复。 假设要对接的微信号的名称叫安仔机器人,就可以更新最终版的配置参数(GROUP_NAME_WHITE_LIST 参数记得根据要交互的群组进行具体修改),查看过没问题,就点击保存,这个编排模板就创建成功了,当然以后需求可能有所变化,也可以继续修改这个模板,然后基于它来重新建立接下来的具体 COW 服务。 现在切换到容器编排界面,开始基于刚刚创建的模板进行真正的 COW 服务部署,点击添加后,部署会开始进行,可能需要等待一会时间。等待一会后,COW 服务就部署成功了。
2024-10-08
做微信聊天机器人会被封,有其他什么好的方法吗
以下是一些关于搭建微信聊天机器人的相关信息和建议: 零基础模板化搭建 AI 微信聊天机器人: 直接对接 Coze 平台 Bot 的微信聊天机器人搭建: 放行特定端口(如 8888 端口)以便通过互联网访问宝塔面板,管理和配置服务器上的服务。 Bot ID 是在 Coze 平台上创建的 AI 机器人的唯一标识,用于将微信号与特定的 AI 机器人关联。 若微信账号因使用机器人被封,可尝试联系客服说明情况,建议使用专门的微信号并遵守微信使用规范。 服务器需要一直开着,以保证机器人随时在线响应请求。 不懂编程也能配置好机器人,按照教程操作,遇到问题可查阅教程或求助。 配置过程中遇到问题,可检查每一步操作,特别是 API 令牌和 Bot ID 是否正确,也可到 Coze 平台的论坛或微信群求助。 纯 GPT 大模型能力的微信聊天机器人搭建: 宝塔面板提供图形化管理界面,操作简单直观,常见任务可通过点击按钮完成。 有丰富的在线资源,包括宝塔面板和 Docker 的详细官方文档和教程。 极简未来平台提供支持,也有详细的操作指南和技术支持。 可加入相关技术社群或论坛向有经验的用户请教。 定期备份和监控,设置定期备份和监控确保在出现问题时及时恢复。 遇到问题可查阅官方文档和教程、联系技术支持、加入技术社群、在在线论坛和社区发布问题寻求帮助。 为避免长时间不操作后忘记步骤,可制作操作手册、定期操作、录制操作视频、编写自动化脚本。 「共学快闪第三期」一起搭建「微信机器人」活动: 关于如何使用大语言模型创建聊天机器人的讨论: 可以使用大语言模型创建聊天机器人,需设置人设和知识库,通过 prompt 实现,知识库可在 agent 板块查看和编辑,还可使用别人的 bot ID 扮演不同角色聊天,注意避免违规操作以防被封号。 机器人聊天的有趣玩法: 编写剧本让机器人扮演不同角色聊天,如虚拟男友、虚拟女友等。 让机器人进行特定情境的对话。 可在微信公众号发布机器人聊天内容,需先进行配置。 可用 GPS 链查看更多人数和提示词,用 cost 或 PPT 让机器人解释 prompt,用 configure POI 文件设置群聊欢迎语。 避免违规操作: 不说奇怪的话,避免被举报封号,不进行违规销售等操作,在法律法规范围内合理使用机器人。 知识库的使用: 可在 agent 板块查看和编辑知识库,在 prompt 中加入知识库内容,或在长期记忆或知识库中加入内容,也可使用别人的 bot ID 获取知识库内容,注意不同大语言模型的知识库可能不同,需进行测试。 机器人聊天的注意事项: 注意上下文轮数和长度,以免机器人回答错误。 可设置 at bot 指定机器人获取微信名字,先进行认证才能使用插件功能,用 auth 密码进行认证。
2024-10-06
sora模型不同于其他同类模型的优势
Sora 模型不同于其他同类模型的优势主要体现在以下几个方面: 1. 视频生成能力:能够根据文本提示生成长达 1 分钟的高质量视频,而早期模型通常只能生成短视频片段。生成的长视频具有高视觉质量和引人入胜的视觉连贯性,从第一帧到最后一帧有良好的视觉一致性。 2. 处理复杂指令:展示了准确解释和执行复杂人类指令的显著能力,能生成包含多个执行特定动作的角色以及复杂背景的详细场景。 3. 数据预处理:能够在原始尺寸上训练、理解和生成视频及图像,拥抱视觉数据的多样性,在从宽屏 1920x1080p 视频到竖屏 1080x1920p 视频以及之间的任何格式上采样,而不会损害原始尺寸。在原始尺寸上训练数据显著改善了生成视频的构图和框架,实现更自然和连贯的视觉叙事。 4. 符合规模化定律:作为大型视觉模型,符合规模化原则,揭示了文本到视频生成中的几种新兴能力,是第一个展示确认新兴能力的视觉模型,标志着计算机视觉领域的一个重要里程碑。此外,还展示了包括遵循指令、视觉提示工程和视频理解等显著能力。
2024-10-30
大模型下的数据生产和应用
大模型下的数据生产和应用主要包括以下方面: 整体架构: 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 数据层:包括企业根据自身特性维护的静态知识库和动态的三方数据集。 模型层:如 LLm(大语言模型),一般使用 Transformer 算法实现,还有多模态模型,如文生图、图生图等,其训练数据与 LLm 不同,为图文或声音等多模态数据集。 平台层:如大模型的评测体系或 langchain 平台等,是模型与应用间的组成部分。 表现层:即应用层,是用户实际看到的地方。 模型特点: 预训练数据量大,往往来自互联网上的论文、代码、公开网页等,通常以 TB 级别计。 参数众多,如 Open 在 2020 年发布的 GPT3 已达 170B 的参数。 架构方面,目前常见的大模型多为右侧只使用 Decoder 的 Decoderonly 架构,如 ChatGPT 等。 工作流程: 训练过程类似于上学参加工作,包括找学校(需要大量 GPU 等硬件支持)、确定教材(需要大量数据)、找老师(选择合适算法)、就业指导(微调)、搬砖(推导)。 在 LLM 中,Token 被视为模型处理和生成的文本单位,输入文本会被分割并数字化形成词汇表。
2024-10-30
大模型的数字资产管理系统
大模型的数字资产管理系统涉及以下方面: 大模型的整体架构: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:包括静态的知识库和动态的三方数据集,是企业根据自身特性维护的垂域数据。 3. 模型层:包含 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)或多模态模型(如文生图、图生图等模型,训练数据与 llm 不同,用的是图文或声音等多模态的数据集)。 4. 平台层:如大模型的评测体系或 langchain 平台等,是模型与应用间的组成部分。 5. 表现层:即应用层,是用户实际看到的地方。 大模型的通俗理解: 大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练、使用过程: 1. 找学校:训练 LLM 需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练大模型。 2. 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适算法让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 企业大模型的误区: 1. 总想搞一个宏大的产业大模型:目前大模型能力不足以支持,更适合在场景里解决专业问题。 2. 总想用一个万能大模型解决所有企业问题:企业不同场景可能需要不同的大模型。 3. 认为有了大模型,原来的 IT 系统就淘汰了:大模型需要与原业务系统连接协同工作,原数字化搞得越好,大模型效果越好。 4. 认为大模型不用做数字化,直接一步到位弯道超车:企业没有基本的 IT 系统、数字化系统,没有数据积累和知识沉淀,无法做大模型。
2024-10-30
《2024大模型人才报告》
以下是与您查询的相关报告: 2024 年 9 月 10 日: 《》由蚂蚁集团和中国信通院联合发布,探讨了大模型在金融、医疗、政务等行业的应用挑战和解决方案。报告提出了一个系统化的可信应用框架,强调了专业性、可控性、真实性和安全性四个核心要素,并从数据质量、模型能力、推理过程、系统安全等方面提供了具体的技术实现建议。 《》 《》 《》 《》 2024 年 7 月 10 日: 极客邦科技通过《》报告深入探讨 AIGC 技术在企业中的应用,提供实战经验和趋势洞察。这份报告集合了多篇文章和案例,覆盖互联网产品、企业生产、医疗、教育等行业,展现大模型应用潜力。 《》 《》 《》 《》 2024 年 9 月 18 日: 《》探讨了 AI 技术,尤其是大模型技术对劳动力市场的影响。 《》探讨了 AI 技术在营销领域的应用现状和发展趋势。 《》 《》 您可以通过相应的链接获取更详细的内容。
2024-10-29
在一个设定中,使用阿里千问模型,设定角色为“美嘉”,知识库为《爱情公寓》全季剧情,实现问答。
在一个设定中,使用阿里千问模型,将角色设定为“美嘉”,知识库设定为《爱情公寓》全季剧情来实现问答。 大语言模型就像一个学习过无数本书、拥有无穷智慧的人,对公共知识、学识技能、日常聊天很擅长,但在工作场景中需要提示词来告诉它角色和专注技能,变成所需的“员工”。知识库则相当于给这个“聪明员工”发放的工作手册,比如知道老板娘吃饭要打三折等特定信息。 这里的设定为:AI 模型使用阿里千问模型,提示词设定的角色是“美嘉”,按照其人设、背景和对话风格设定,知识库是《爱情公寓》全季剧情,让“美嘉”拥有过往“记忆”。 例如,提问“你是谁?你和子乔在台球厅吵架那次是为了什么吵架?”,回复是“我是陈美嘉,那次在台球厅和吕子乔吵架是因为他约会被人撞见,我讽刺他脸大影响信号,他还反击我。后来谈到过去的事情,我指责他忘恩负义,他就说我平。最后,我伤心地说要分手,因为他之前甩过我。” 然而,有时回答会不准确,比如提问“一菲为美嘉找了一份助教工作”,AI 可能未根据正确的知识库内容回答,这是常见的错误场景,在严肃场景中不能接受。优化 AI 更准确回答问题的过程称为 RAG(RetrievalAugmented Generation),即检索增强生成,由检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统,能提供详细准确的回答。
2024-10-29
目前最先进的算法模型是什么
目前较为先进的算法模型包括: 1. GPT4:是 OpenAI 最新且最强大的模型。 2. GPT3.5Turbo:为 ChatGPT 提供支持,专为对话模式优化。 大模型具有以下特点: 1. 预训练数据量大:往往来自互联网,包括论文、代码、公开网页等,先进的大模型通常用 TB 级别的数据进行预训练。 2. 参数众多:如 OpenAI 在 2020 年发布的 GPT3 已达到 170B 的参数。 在模型架构方面: 1. encoderonly 模型:适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 2. encoderdecoder 模型:结合 Transformer 架构的 encoder 和 decoder 来理解和生成内容,代表是 Google 的 T5。 3. decoderonly 模型:更擅长自然语言生成任务,如故事写作和博客生成,众多熟知的 AI 助手基本采用此架构。 在模型部署方面: 由于大模型参数众多,如 GPT2 有 1.5B 参数,LLAMA 有 65B 参数,因此在实际部署时会进行模型压缩。在训练中,CPU 与内存之间的传输速度往往是系统瓶颈,减小内存使用是首要优化点,可使用内存占用更小的数据类型,如 16 位浮点数,英伟达在其最新一代硬件中引入了对 bfloat16 的支持。
2024-10-29