直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

如何能让大模型自动读取到微信上的聊天内容。

回答

要让大模型自动读取到微信上的聊天内容,可以参考以下几种方法:

  1. 搭建OneAPI,用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,并可白嫖大模型接口。
  2. 搭建FastGpt,这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,最后回答问题。若不想接入微信,搭建完成即可使用其问答界面。
  3. 搭建chatgpt-on-wechat,接入微信,并配置FastGpt将知识库问答系统接入微信。但建议先用小号,以防有封禁风险。若想拓展功能,可参考Yaki.eth同学的教程Yaki:GPT /MJ接入微信,其中的cow插件能进行文件总结、MJ绘画等。

此外,还有作者张梦飞的方法,即把自己微信中的聊天记录导出,用自己的聊天记录去微调一个模型,最终将这个微调后的模型接入微信中替您回复消息。

另外,在创作方面,鉴于聊天记录属于绝对的个人隐私,不适合接入第三方大模型提取信息,可本地化部署LLM。例如采用百川2的国产大模型开源,如Baichuan2作为底模,先用提示工程对聊天记录进行信息提取,并在此基础上使用自有数据进行模型微调。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

DIN:全程白嫖 - 拥有一个AI大模型的微信助手

[title]DIN:全程白嫖-拥有一个AI大模型的微信助手1.搭建[OneAPI](https://github.com/songquanpeng/one-api),这东西是为了汇聚整合多种大模型接口,方便你后面更换使用各种大模型。下面会告诉你怎么去白嫖大模型接口。2.搭建[FastGpt](https://fastgpt.in/),这东西就是个知识库问答系统,你把知识文件放进去,再把上面的大模型接进来,作为分析知识库的大脑,最后回答你问题,这么个系统。如果你不想接到微信去,自己用用,其实到这里搭建完就OK了,他也有问答界面。3.搭建[chatgpt-on-wechat](https://github.com/zhayujie/chatgpt-on-wechat),接入微信,配置FastGpt把知识库问答系统接入到微信。这里建议先用个小号,以防有封禁的风险。搭建完后想拓展Cow的功能,我推荐Yaki.eth同学这篇教程[Yaki:GPT /MJ接入微信](https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),里面的cow插件能进行文件总结、MJ绘画的能力。完成上面3步就算OK了,那我们正式开始。

张梦飞:用聊天记录把自己克隆成AI,分分钟化身为1V100的“时间管理大师” -- LLamaFactory部署与微调大模型应用教程

[title]张梦飞:用聊天记录把自己克隆成AI,分分钟化身为1V100的“时间管理大师” -- LLamaFactory部署与微调大模型应用教程作者:张梦飞原文链接,大家多多关注https://mp.weixin.qq.com/s/B8FUmjSdr-wAjIApa9aNVA大家好,我是梦飞。好久不见,一个月前发布的视频号,今天终于能够填坑了!这次带来的教程是:《用聊天记录克隆自己的AI分身》在我多次尝试(其实是多个平台账号欠费之后),终究是放弃了让大家云端使用。学习和使用成本太高,本篇教程依然全程本地操作,无需调用云端资源。让大家既能体验大模型训练和调用,又可以无负担的使用自己微调后的大模型!本篇教程的目标是,把自己微信中的聊天记录导出,用自己的聊天记录去微调一个模型,最终将这个微调后的模型接入微信中,替你回复消息。

创作:基于百川大模型向微信群大佬们虚心学习

微信作为国民应用,向来是占用手机空间最多的APP之一,其中历年累积的聊天记录也就蕴含着巨大的信息量。特别在微信群中,经常一转眼的功夫,就累积了几百条的留言。这里充斥着口水,偶尔又蕴藏了真知灼见,既不想错过,又没有时间,若想每个群都看一遍,真心是个苦力活。本篇选用了大佬的聊天群作为数据来源,让大模型帮我们定期自动生成报告,甚至还能将日理万机的某个大佬,请来化身客串一下我们的私人助理。鉴于聊天记录属于绝对的个人隐私,肯定不适合接入第三方大模型来提取信息。无论是ChatGPT还是文心都不能完全保证提交数据不用于改善模型,那么本地化部署LLM将成为必然的选择。最近随着百川2的国产大模型开源,很多领域逼近甚至超越了llama 2的效果(特别在中文理解领域)。本文采用了Baichuan2作为底模,先用提示工程对聊天记录进行信息提取,并在此基础上使用自有数据进行模型微调。

其他人在问
AI免费编写微信小程序
以下是关于利用 AI 免费编写微信小程序的相关内容: 开发:微信小程序 会手把手教大家如何利用 chatgpt 来实现微信小程序的搭建,前半部分先简单介绍小程序的注册,后半部分介绍开发上线。详情可参考: 「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人 搭建步骤详解: 注册 Coze 账号 访问 Coze 官网快速注册。Coze 是字节跳动出品,其中文版为 https://www.coze.cn/(支持大模型:kimi、云雀),本次教程使用中文版 Coze;英文版为 https://coze.com/(支持大模型:chatgpt4),产品定位为新一代 AI 原生应用开发服务平台,Nextgeneration AI chatbot building platform。 创建你的机器人 登录 Coze,可使用抖音或手机号登陆,登陆后选择“创建 Bot”,然后起一个响亮的名字。工作空间选“个人空间”即可。小技巧:“图标”AI 可以自动生成,先在“Bot 名称”那里用文字描述想要的图标,图标生成满意后,再把“Bot 名称”改为简洁版名称。
2024-11-16
微信机器人
以下是关于微信机器人的相关信息: 【入门级】教你用最简单的方式搭建微信机器人 测试和重新配置: 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。若未成功,可检查 config.json 文件中的配置或跳到“第四章,第 3 步”重启服务。 可为 AI 赋予不一样的提示词,返回“第三章,第 7 步”更改设置。 进行任何更改后,需“返回首页 右上角 点击重启,重启一下服务器”。熟悉 Linux 操作也可通过重启进程的方式来重启服务。 然后,在“文件”的【终端】里,输入“nohup python3 app.py & tail f nohup.out”重新扫码登录。 若想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 帮助:若遇到问题,可先查询社区知识库,或加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可加 Stuart 个人微信询问。 零基础模板化搭建 AI 微信聊天机器人 纯 GPT 大模型能力的微信聊天机器人搭建 配置腾讯云轻量应用服务器 配置部署 COW 组件 在复制的 dockercompose.yml 文件中修改配置串联微信号和已创建好的 AI 机器人,配置参考来源:https://docs.linkai.tech/cow/quickstart/config 。 配置参数中,名称的全大写描述对应编排模板,如 open_ai_api_key 对应 OPEN_AI_API_KEY 等。私聊或群交流时最好加上前缀触发机器人回复,如配置的,群组里对应配置参数是 GROUP_CHAT_PREFIX,机器人只会回复群里包含@bot 的消息。GROUP_NAME_WHITE_LIST 用来配置哪些群组的消息需要自动回复。 【保姆级】基于 Hook 机制的微信 AI 机器人,无需服务器,运行更稳定,风险更小 本教程基于 Hook 机制,与之前的 COW 机器人方式不同。 优势:Hook 有相对更高的稳定性和安全性,更简单,易上手。 劣势:目前插件相对较少,且仅支持 Windows 系统。 此项目在 Windows 系统上运行,无需服务器,对小白更友好。能结合 FastGPT 使用,且对群发功能进行了优化和二开,目前在内测中。 此机器人功能:基于知识库的 AI 回复、支持积分系统、支持自动拉人、检测广告、自动群发,还有安全新闻定时推送、Kfc 文案、星座查询、天气查询等有趣小功能。教程以 Windows10 系统为例。
2024-11-07
微信机器人
以下是关于微信机器人的相关信息: 【入门级】教你用最简单的方式搭建微信机器人 测试和重新配置: 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。若未成功,可检查 config.json 文件中的配置或跳到“第四章,第 3 步”重启服务。 可为 AI 赋予不一样的提示词,返回“第三章,第 7 步”更改设置。 进行任何更改后,需“返回首页 右上角 点击重启,重启一下服务器”。熟悉 Linux 操作也可通过重启进程的方式来重启服务。 然后,在“文件”的【终端】里,输入“nohup python3 app.py & tail f nohup.out”重新扫码登录。 若想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 帮助:若遇到问题,可先查询社区知识库,或加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可加 Stuart 个人微信询问。 零基础模板化搭建 AI 微信聊天机器人 纯 GPT 大模型能力的微信聊天机器人搭建 配置腾讯云轻量应用服务器 配置部署 COW 组件 在复制的 dockercompose.yml 文件中修改配置串联微信号和已创建好的 AI 机器人,配置参考来源:https://docs.linkai.tech/cow/quickstart/config 。 配置参数中,名称的全大写描述对应编排模板,如 open_ai_api_key 对应 OPEN_AI_API_KEY 等。私聊或群交流时最好加上前缀触发机器人回复,如配置的,群组里对应配置参数是 GROUP_CHAT_PREFIX,机器人只会回复群里包含@bot 的消息。GROUP_NAME_WHITE_LIST 用来配置哪些群组的消息需要自动回复。 【保姆级】基于 Hook 机制的微信 AI 机器人,无需服务器,运行更稳定,风险更小 本教程基于 Hook 机制,与 COW 机器人方式不同。 优势:Hook 有相对更高的稳定性和安全性,更简单,易上手。 劣势:目前插件相对较少,且仅支持 Windows 系统。 此项目在 Windows 系统上运行,无需服务器,对小白更友好。能结合 FastGPT 使用,完善了群发功能,目前在内测中。 此机器人功能:基于知识库的 AI 回复、支持积分系统、支持自动拉人、检测广告、自动群发,还有安全新闻定时推送、Kfc 文案、星座查询、天气查询等有趣小功能。教程以 Windows10 系统为例。
2024-11-07
企业微信个人账户接入大模型
企业微信个人账户接入大模型可以参考以下内容: 基于 COW 框架的实现步骤: COW 是基于大模型搭建的 Chat 机器人框架,将多模型塞进自己的微信里实现方案。 张梦飞同学写了更适合小白的使用教程: 。 可以实现:打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等等);常用开源插件的安装应用。 正式开始前需要知道:ChatBot 相较于在各大模型网页端使用区别,本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;本文只探讨操作操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入:微信、企业微信、公众号、飞书、钉钉等。 有多模型选择:GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等。 支持多消息类型:能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 有多部署方法:本地运行、服务器运行、Docker 的方式。 全程白嫖拥有一个 AI 大模型的微信助手的实现步骤: 搭建,用于汇聚整合多种大模型接口,方便更换使用各种大模型,下面会告知如何白嫖大模型接口。 搭建,这是个知识库问答系统,把知识文件放进去,再把上面的大模型接进来,作为分析知识库的大脑,最后回答问题,如果不想接到微信去,自己用用,搭建完就可以,它也有问答界面。 搭建,里面的 cow 插件能进行文件总结、MJ 绘画的能力。
2024-11-06
如何借鉴“决战拜年之巅”:这是一款基于 GLM 大模型开发的微信小程序游戏,玩家在 10 个 AI 角色组成的家人群里,面对“七大姑八大姨”的连环拷问,自由对话打出属于自己的结局。实现一个工作场合的游戏
以下是借鉴“决战拜年之巅”实现一个工作场合游戏的相关要点: 1. 开发背景:“决战拜年之巅”是参加 Globalgamejam 游戏比赛时,在 48 小时内开发的,主题源于“make me laugh”,产品负责人谐音想到江浙沪孝子排行榜的“孝”,结合春节想到做类似拜年的东西。 2. 火爆情况:在参赛群发布半成品后,在 QQ、微信迅速火爆,两天内有 200 万用户,最高峰同时在线 6 万人,服务器一度支持不了,凌晨才做好调整,后续有厂商赞助服务器,上线约一周。 3. 游戏特点:基于 GLM 大模型开发,又称过年模拟器,玩家在 10 个 AI 角色组成的家人群里,面对“七大姑八大姨”的连环拷问自由对话打出结局。 4. 借鉴要点: 明确创新主题和玩法,结合特定场景和需求。 注重用户体验,及时应对服务器等技术支持问题。 利用 AI 技术实现角色互动和自由对话。 需要注意的是,“决战拜年之巅”被认为可能是一个 chatbot 而非严格意义上的游戏。在设计工作场合的游戏时,要明确以下三个点:(具体要点未在提供的内容中明确)
2024-11-02
我想用豆包读取微信里的内容,应该怎么做?
要使用豆包读取微信里的内容,可参考以下步骤: 1. 抓取公众号内容: 先在平台搜索现成的插件,如 Coze 平台,但部分插件已荒废无法使用。 可考虑自己写爬虫抓取,或者寻找现成的服务通过 API 方式调用。例如“瓦斯阅读”可以抓取部分公众号内容,但存在公众号不全的问题。还可以尝试 GitHub 上的 WeWe RSS 工具,通过微信读书的方式订阅公众号。 2. 公众号内容总结: 主要依靠大模型的能力,如字节的豆包大模型可以胜任。涉及批量对抓取到的公众号内容进行总结,可使用“批处理”功能。 3. 定时推送到微信: 定时方面,Coze 平台的触发器可以实现。 推送到微信方面,Coze 平台没有这类插件,可寻找第三方 API 的方案,如“server 酱”,通过服务号的模板消息将自定义内容推送到微信。 另外,关于将 AI 接入微信,还可参考以下步骤: 1. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。 2. 若想为 AI 赋予提示词,可返回“目录 4 里的第 17 步”进行更改。 3. 此后进行任何更改,都需要“返回首页 右上角 点击重启,重启一下服务器”。 4. 然后,重新在“文件”的【终端】里,直接输入“nohup python3 app.py & tail f nohup.out”重新扫码登录。 5. 关于添加插件,可参考。 6. 接入机器人的步骤: 回到宝塔,选择 Docker(若未安装则进行安装,安装完成后刷新页面确认安装成功)。 回到宝塔终端,粘贴代码并回车。 去文件列表,到根目录/data/cozediscordproxy 新建文件并命名为 dockercompose.yml,粘贴代码并替换相关 ID 和 token 后保存。 在文件位置的上方点击终端,粘贴相关代码。若启动失败,可能是 docker 拒绝代理访问问题,可先关掉 clash 再执行代码。 进入相关文件夹和文件进行替换和修改,最后在文件顶部的“终端”内粘贴执行。 使用微信扫码(建议使用小号)完成。
2024-10-23
能够读取文本数字最多的大模型是哪一个
目前能够读取文本数字较多的大模型有以下几种: Claude2 模型的上下文上限是 100,000 个 token。 ChatGPT16k 模型的上下文上限是 16,000 个 token。 ChatGPT432k 模型的上下文上限是 32,000 个 token。 需要注意的是,token 限制会同时对一次性输入和一次对话的总体上下文长度生效。例如,一次性输入的文本长度以及一次对话中累计的上下文长度都受到相应的限制。当达到上限时,并非停止对话,而是会遗忘最前面的对话内容。
2024-11-08
如何在一段文本里放入不会发现但是 ai会读取的prompt
在一段文本里放入不会被发现但 AI 会读取的 prompt 可以参考以下方法: 1. 明确具体的描述:使用更具体、细节的词语和短语来表达您的需求,避免过于笼统的表述,以便 AI 准确理解。 2. 添加视觉参考:在 prompt 中插入相关的图片参考,可提高 AI 理解您意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整 prompt 的整体语气和情感色彩,使 AI 生成出期望的语境和情绪。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最能准确表达需求的 prompt 描述方式。 5. 增加约束条件:为避免 AI 产生意外的输出,在 prompt 中添加限制性条件,如分辨率、比例等。 6. 分步骤构建 prompt:将复杂的需求拆解为逐步的子 prompt,引导 AI 先生成基本结构,再逐步添加细节和完善。 7. 参考优秀案例:研究 AI 社区流行的、有效的 prompt 范例,借鉴其中的写作技巧和模式。 8. 反复试验、迭代优化:通过多次尝试不同的 prompt 写法,并根据输出效果反馈持续优化完善,直至达到理想结果。 总之,编写高质量 prompt 需要不断实践、总结经验,熟悉 AI 模型的能力边界。保持开放的思维尝试创新的描述方式也很有帮助。
2024-11-04
推荐读取论文的最佳ai工具
以下为您推荐一些读取论文和辅助论文写作、排版的 AI 工具: 读取论文: 皇子推荐的 31 篇 LLM 的经典论文速读版,包含大语言模型架构、RAG、预训练、微调、提示词等。为方便中文阅读,可安装浏览器插件“沉浸式翻译(https://immersivetranslate.com)”,支持多种浏览器和多个翻译服务。将 arxiv PDF 论文原地址域名中的 x 更换成 5 即变成可访问的 HTML 版本链接,然后使用“沉浸式翻译”进行原文阅读。对于论文中看不懂的公式/概念,非算法从业者可不专研,通过谷歌或 AI 了解其作用即可。 论文写作: 文献管理和搜索:Zotero 可自动提取文献信息,Semantic Scholar 是 AI 驱动的学术搜索引擎,能提供文献推荐和引用分析。 内容生成和辅助写作:Grammarly 提供文本校对、语法修正和写作风格建议,Quillbot 可重写和摘要,帮助精简优化内容。 研究和数据分析:Google Colab 提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化;Knitro 用于数学建模和优化,帮助进行复杂数据分析和模型构建。 论文结构和格式:LaTeX 结合自动化和模板处理论文格式和数学公式,Overleaf 是在线 LaTeX 编辑器,有丰富模板库和协作功能。 研究伦理和抄袭检测:Turnitin 和 Crossref Similarity Check 可检测抄袭,确保论文原创性。 论文排版: Grammarly 不仅检查语法和拼写,还提供排版功能,改进文档风格和流畅性。 QuillBot 是 AI 驱动的写作和排版工具,改进文本清晰度和流畅性。 Latex 是广泛用于学术论文排版的软件,有许多 AI 辅助的编辑器和插件简化排版。 PandaDoc 是文档自动化平台,使用 AI 帮助创建、格式化和自动化文档生成,适合商业和技术文档。 Wordtune 是 AI 写作助手,重新表述和改进文本,使其更清晰专业。 Overleaf 是在线 Latex 编辑器,提供丰富模板和协作工具,适合学术写作和排版。 选择工具时需根据具体需求,如文档类型、出版标准和个人偏好。学术论文常用 Latex 和 Overleaf,一般文章和商业文档常用 Grammarly 和 PandaDoc 等。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-25
coze怎么读取飞书的文档
要读取飞书的文档来使用 Coze,您可以按照以下步骤进行操作: 1. 因为前面需要对多维表格操作,所以先在 http://open.feishu.cn 上建一个飞书机器人,并添加知识库或多维表格编辑权限,具体操作可以阅读飞书文档。得到机器人的 app_id 和 app_secret 后即可获得租用 token:tenant_access_token 来获取多维表格数据和编辑能力。 2. Coze 国内版本(https://www.coze.cn/store/plugin)提供了丰富的插件,其中 LinkReader 插件可以读取文档。 3. 创建智能体时,点击创建知识库,创建一个画小二课程的 FAQ 知识库。知识库的飞书在线文档中,每个问题和答案以分割。选择飞书文档,选择自定义的自定义,输入,然后就将飞书的文档内容以区分开来,这里可以点击编辑修改和删除。添加好 Bot 后可以在调试区测试效果。
2024-09-10
我现在拍摄的视频素材太多了,我想什么AI软件能自行帮我读取本地文件,整理分类
目前还没有能够直接读取您本地文件并自动整理分类视频素材的通用 AI 软件。不过,有一些相关的工具和技术可以在一定程度上帮助您处理视频素材的管理和分类。 例如,一些视频编辑软件具有一定的智能分类和标记功能,您可以利用它们的功能对视频素材进行初步的分类和整理。另外,一些云存储服务提供商也在不断探索利用人工智能技术来帮助用户对上传的视频进行分类和管理,但这通常需要将您的视频上传到云端。 需要注意的是,在处理本地文件时,要确保您的操作符合相关的法律法规和隐私政策。
2024-08-21
我希望做一个回答用户问题的聊天机器人,如何用rag来做
要使用 RAG(RetrievalAugmented Generation,检索增强生成)来做一个回答用户问题的聊天机器人,可以按照以下步骤进行: 1. 加载所需的库和模块:包括用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前需确保 ollama 服务已开启并下载好模型)。 2. 从订阅源获取内容:通过特定函数从指定的 RSS 订阅 URL 提取内容,如需接收多个 URL 可稍作改动。然后使用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接,最终将这些文档合并成一个列表用于后续处理。 3. 为文档内容生成向量:使用文本向量模型 bgem3(可从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3 ),通过 FAISS 创建一个高效的向量存储。 4. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。 5. 创建网页 UI:通过 gradio 创建网页 UI 并进行评测。 6. 技术栈选择:经过调研,可先采取 Langchain + Ollama 的技术栈作为 demo 实现,后续也可考虑使用 dify、fastgpt 等更直观易用的 AI 开发平台。 Langchain 简介:是当前大模型应用开发的主流框架之一,提供一系列工具和接口,其核心在于“链”概念,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具。 Ollama 简介:是一个开箱即用的用于在本地运行大模型的框架。 总结: 1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。 2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。 3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。
2024-11-20
如何用coze搭建一个总结聊天记录的功能
以下是用 Coze 搭建一个总结聊天记录功能的步骤: 1. 设计 Bot 目的:明确 Bot 的用途,例如作为一个 AI 学习助手,帮助职场专业人士提升在人工智能领域的知识和技能,并提供高效的站内信息检索服务。 2. 了解 Coze 平台常用概念和功能:包括提示词(设定 Bot 的身份和目标)、插件(通过 API 连接集成各种平台和服务)、工作流(设计复杂的多步骤任务)、触发器(创建定时任务)、记忆库(保留对话细节,支持外部知识库)、变量(保存用户个人信息)、数据库(存储和管理结构化数据)、长期记忆(总结聊天对话内容)。 3. 进行 Bot 基础设置:根据机器人的作用,设计人设和回复逻辑,限制机器人的功能使其更专注于 AI 相关的知识回答和服务,还可以加入长期记忆功能来总结聊天对话内容以更好地响应用户消息,以及设计更加美观的 Bot 开场白。 注:Coze 官方使用指南见链接:https://www.coze.cn/docs/guides/welcome ,遇到疑问也可以查官方指南。
2024-11-15
使用coze搭建一个心理咨询机器人,将机器人接入自己开发的应用后,如何再进一步实现让ai把每个用户每天的聊天内容,总结成日记,并传回给应用展示日记
目前知识库中没有关于使用 Coze 搭建心理咨询机器人,并将用户每天聊天内容总结成日记传回应用展示的相关内容。但一般来说,要实现这个功能,您可能需要以下步骤: 1. 数据采集与存储:在机器人与用户交互过程中,采集并妥善存储聊天数据。 2. 自然语言处理与分析:运用相关的自然语言处理技术,对聊天内容进行理解和分析,提取关键信息。 3. 内容总结:基于分析结果,使用合适的算法和模型将聊天内容总结成日记形式。 4. 数据传输:建立与应用的稳定接口,将总结好的日记数据传输回应用。 这只是一个大致的思路,具体的实现会涉及到很多技术细节和开发工作。
2024-11-15
搭建一个总结聊天记录的ai
以下是搭建一个总结聊天记录的 AI 的步骤: 1. 整理聊天记录为数据集: 如果导出了多个人的聊天记录,需手动将文件下的内容汇总到一起。 汇总完成后,保存汇总文件为“train.json”。 在当前文件夹下新建一个文本文档,重命名为“1.py”,用记事本打开并粘贴相应代码。注意标红的地方需要修改。 打开命令行窗口,输入“python 1.py”完成聊天记录整理,此步骤在后续第 31 步会用到。 2. 图文原文处理: 微信无法批量复制聊天内容,多选想要复制的聊天内容,转发到群里或文件传输助手。 收藏批量转发的聊天记录,打开收藏,点进笔记,点右上角三个点,转存为笔记,返回即可全选复制所有内容。 可使用能让电脑设备和手机设备剪切板共享的工具,避免在微信文件传输助手间折腾。 3. GPTs: 若重复做同一件事三次以上,应考虑优化步骤,可创建内容排版大师的 GPTs。 GPTs 链接:https://chat.openai.com/g/gt9dIHp4Ntneirongpaibandashi 。 该 GPTs 已加入 webpilot 的 actions,可直接将文章发给它总结内容。 4. 小卡片软件: 使用的卡片软件是小作卡片 app,官网链接:https://kosaku.imxie.club/ 。 操作步骤:打开软件,点击「自制卡片」,在「记录些什么...」中粘贴 AI 生成文本内容,点击右下角保存图标即可导出。
2024-11-15
数字人聊天
以下是关于数字人聊天的相关信息: 数字人脸创作方式: 1. 使用一系列逼真的照片或插图人脸,这些人脸经过优化,在添加语音和动作时能实现最佳效果。 2. 上传自己、朋友或家人的面部照片进行创作。 3. 利用 DID 自带的 Stable Diffusion 的能力生成想象中的人脸,如描述“一个外星女神”“一个微笑的十九世纪维多利亚绅士”等。 数字人像被添加到人脸库后,可重复使用,只需输入新脚本,就能让其说任何想让它说的话。 数字人说话方式: 1. 利用 GPT3 文本生成技术撰写脚本。 2. 先选好脸,再输入脚本。 3. 输入准备好的脚本,DID 中有数百种语言和口音,可选择想要使用的声音,并调整角色说话风格。 4. 上传自己的音频记录,或从电影、电视剧中剪辑喜欢的台词,甚至吟唱自编的歌曲。 AI 数字人类型和应用场景: 1. 二维/三维虚拟人:用于游戏、IP 品牌(如柳夜熙)、内容创作()等。 2. 真人形象数字人:用于直播卖货、营销/投流广告视频录制(Heygen)、语言学习(CallAnnie)等。 AI 数字人的价值: 1. 代替人说话,提升表达效率和营销效率,如真人无法 24 小时直播,数字人可以。 2. 创造真实世界无法完成的对话或交流,例如 AI talk 的实验探索,复活故去的亲人等。 AI 数字人面临的问题: 1. 平台限制:数字人水平参差不齐,平台担心直播观感,有一定打压限制。如抖音出台一些标准,微信视频号容忍度更低,人工检查封号。 2. 技术限制:形象只是皮囊,智能水平和未来想象空间依赖大模型技术提升。 3. 需求限制:直播带货是落地场景,但不够刚。“懂得都懂”的刚需场景,国内搞不了。目前更多是体验新鲜感。 4. 伦理/法律限制:声音、影像版权等,比如换脸、数字永生等。 面对大厂竞争的策略: 1. 大厂做产品有很多部门利益牵扯,法务合规等问题,不敢用野路子,开发上线产品效率低。 2. 大厂人工成本高,不少方向和领域都不会做,内部决策不一定靠谱。 3. 在电商领域,数字人不能也无法成为壁垒,跟数字人配套的运营服务才是,大厂一般不愿做重运营的事。
2024-11-04
用现有的搭建一个ai网站 实现绘画 聊天 会员 积分 等功能
以下是搭建一个具备绘画、聊天、会员、积分等功能的 AI 网站的步骤: 1. 搭建 OneAPI(https://github.com/songquanpeng/oneapi),用于汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时会告知如何白嫖大模型接口。 2. 搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,最后回答问题。若不想接入微信,搭建到此即可,其有问答界面。 3. 搭建 chatgptonwechat(https://github.com/zhayujie/chatgptonwechat)接入微信,并配置 FastGpt 将知识库问答系统接入微信。建议先用小号以防封禁风险。若想拓展功能,可参考 Yaki.eth 同学的教程(https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),其中的 cow 插件能实现文件总结、MJ 绘画等能力。 在积分和会员方面,以下是一些相关的活动形式和积分设置示例: 吵爷帮助技能持有者在社区实现虚拟 IPO 审核服务。 Larkspur:扣子 bot 文案生图体验| 10 积分,扣子虚拟女友体验| 10 积分,帮你把 Siri 接入 Llama 3 70B |10 积分。 勿忘心安 Dify 本地部署不成功不要积分 10 积分一次。 Penny 给你解梦,并还原场景 10 积分。 Rachel 倩敏 宠物照片变毛毡头像 5 积分一个,before after 合并呈现 10 积分一个。 梦飞 给全国所有的项目做聚合平台,用户体验一次抽成 3 5 积分。 David 为社区用户做积分银行,可超前消费,存 10 个积分,利息 1 个积分,贷 10 个积分,利息 2 个积分,并为项目 IPO 提供融资服务。 波大波吗 5 分钟,让你的微信变成 chatgpt + MJ + SD +....+ 新闻专家 20 积分一次。 琥珀川 教你用 ai 技能接单、创业 10 积分。 大满满 简约的 mj 转模型|随喜积分。 Matteo 工作日晚 8 11 点,提供微信 1 对 1 视频聊天 30min,互通获取 AI 信息的渠道 + 漫聊 AI 相关使用体验思考 1 积分。 桂大阳 风景壁纸一张 10 积分、手机壳图案 + 手机壳效果图 10 积分。 镜 教你画小鹿动画表情包一个 10 积分,5 个 60 积分,8 个 100 积分。教你如何手绘蒙娜丽莎 10 积分一次,一次 10 分钟。教你做小鹿角色 2 维转 3D 一个 20 积分。 易求无方 与你的虚拟人进行一次心灵交流 20 积分,与你进行一次心灵交流 10 积分。 游小言 虚拟 IP 打造,给视频换脸,一次 10 积分,支持以技能易技能。
2024-11-04
现在哪几家的大模型支持通过手机视频多模态实时交流?
以下几家的大模型支持通过手机视频多模态实时交流: 1. PandaGPT:能够理解不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。 2. VideoLLaMA:引入了多分支跨模式 PT 框架,使语言模型能够在与人类对话的同时处理给定视频的视觉和音频内容。 3. 视频聊天 GPT:专门为视频对话设计,能够通过集成时空视觉表示来生成有关视频的讨论。 4. NExTGPT:端到端、通用的 anytoany 多模态语言模型,支持图像、视频、音频、文本的自由输入输出。
2024-11-22
siri是不是使用大模型技术
Siri 目前并非使用大模型技术。苹果公司的 Siri 概念虽好,但由于技术限制,其表现未达到人工智能的水平,常被称为“人工智障”。不过,随着技术发展,未来可能会用大模型重新改造 Siri,将手机上的所有功能控制起来,使其成为真正的智能助理。例如,苹果公司在手机算力的芯片发展到能够支撑大模型上手机的情况下,可能会推出大模型的小数据量、专业的版本来替代 Siri。同时,苹果公司若 All in 手机,其大模型可能会是本地化的,以重视个人数据保护和隐私。
2024-11-21
sairi是不是使用大模型技术
Sora 是使用大模型技术的。周鸿祎认为 Open AI 训练这个模型会阅读大量视频,大模型加上 Diffusion 技术需要对世界进一步了解,学习样本以视频和摄像头捕捉到的画面为主。Sora 在训练数据上采用在原始尺寸上进行训练的策略,避免了传统 AI 对人为抽象的依赖。此外,Sora 还采用了一些数据预处理技术,如将视觉图块压缩成低维潜在表示,并将其排列成序列,注入噪声后输入扩散变换器的输入层,同时采用时空分块化来降低后续对时间信息建模的复杂性。这种对原始视频和图像特征的细腻处理标志着生成模型领域的重大进步。
2024-11-21
模型微调怎么解决多轮对话容易受到上轮对话的影响问题
在解决模型微调中多轮对话容易受到上轮对话影响的问题时: 对于多轮对话,现实中常伴随指代问题,如使用“它”“他们”“我们”等代词。若仅依据原始提问检索知识片段,可能导致结果不精确或无法检索到信息。同时,对模型回复内容的限制可能影响多轮对话流畅性甚至中断。 为提升对话系统性能和用户体验,需开发提示词解决多轮对话中的指代消解问题,确保模型能在连续交流中提供准确连贯回答。但由于“指代消解”需多轮对话完成,单次交互无法达成,所以要转换测试形式,先解决“指代消解”问题再进行下一轮答复。 首先准备指代消解所需提示词,这里使用的“指代消解”提示词是用 CoT 写出的思维链,列举不同推理情景,让模型适应并推理出需消解的代词,再根据结果重新组织问题。 接着复现指代消解步骤,如进行第一轮对话,提出问题“尼罗河是什么?”,系统召回相关知识片段并回复,然后开始指代消解。 另外,聊天模型通过一串聊天对话输入并返回生成消息输出。聊天格式虽为多轮对话设计,但对单轮任务也有用。会话通过 messages 参数输入,包含不同角色和内容的消息对象数组。通常会话先有系统消息设定助手行为,再交替使用用户和助手消息。当指令涉及之前消息时,包含聊天历史记录有帮助,若超出模型限制需缩减会话。
2024-11-21
企业做自己的小模型,需要用到的工具及工具背后的公司都有哪些?
企业做自己的小模型,可能会用到以下工具及背后的公司: 1. 在编排(Orchestration)方面,涉及的公司如 DUST、FIAVIE、LangChain 等,其提供的工具可帮助管理和协调各部分及任务,确保系统流畅运行。 2. 部署、可扩展性和预训练(Deployment, Scalability, & PreTraining)类别中,像 UWA mosaicm、NMAREL、anyscale 等公司提供的工具,有助于部署模型、保证可扩展性及进行预训练。 3. 处理上下文和嵌入(Context & Embeddings)的工具,相关公司有 TRUDO、Llamalndex、BerriAI 等,能帮助模型处理和理解语言上下文,并将词语和句子转化为计算机可理解的形式。 4. 质量保证和可观察性(QA & Observability)方面,例如 Pinecone、drant、Vald 等公司提供的工具,可确保模型表现并监控其性能和状态。 此外,还有以下工具和相关公司: 1. 图片生成 3D 建模工具,如 Tripo AI(由 VAST 发布)、Meshy、CSM AI(Common Sense Machines)、Sudo AI、VoxCraft(由生数科技推出)等。 企业还可能涉及具身智能、3D 眼镜、AI 绘本、AI 图书、学习机、飞书的多维表格、蚂蚁的智能体、Coze 的智能体、Zeabur 等云平台、0 编码平台、大模型(通义、智谱、kimi、deepseek 等)、编程辅助、文生图(可灵、即梦等)等方面,可能需要相应资质。
2024-11-20
你认为目前最好用的大模型有哪些?
目前最好用的大模型包括: 1. OpenAI 的 GPT4:是最先进和广泛使用的大型语言模型之一,在多种任务上表现卓越,如文本生成、理解、翻译及各种专业和创意写作任务,能通过大量数据学习理解和生成人类语言,处理复杂问题和理解上下文能力出色。 2. Anthropic 公司的 Claude 3。 3. 谷歌的 Gemini。 4. 百度的文心一言。 5. 阿里巴巴的通义大模型。 大型模型主要分为两类: 1. 大型语言模型:专注于处理和生成文本信息。 2. 大型多模态模型:能够处理包括文本、图片、音频等多种类型的信息。 大型多模态模型与大型语言模型的不同点: 1. 处理的信息类型不同:大型语言模型专注于文本,大型多模态模型能处理多种类型信息。 2. 应用场景不同:大型语言模型主要用于自然语言处理任务,大型多模态模型应用领域更广泛。 3. 数据需求不同:大型语言模型依赖大量文本数据训练,大型多模态模型需要多种类型数据训练。 此外,如果想了解国内的大模型效果,可以参考第三方基准评测报告: 。需注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-19