Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

一个用llm分析微信聊天记录的智能体案例

Answer

以下为一个用 LLM 分析微信聊天记录的智能体案例相关内容:

在当今大多数现代人工智能应用程序中,检索增强生成(RAG)是标准架构。以 Sana 的企业搜索用例为例,其过程始于应用程序加载和转换无结构文件(如 PDF、幻灯片、文本文件),跨越企业数据孤岛(如 Google Drive 和 Notion),并通过数据预处理引擎(如 Unstructured)转换为 LLM 可查询格式。这些文件被“分块”成更小的文本块,作为向量嵌入并存储在数据库(如 Pinecone)中。

当用户提出问题时,系统会检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM,然后 LLM 合成答复返回给用户。在生产中,AI 应用程序具有更复杂的流程,包含多个检索步骤和“提示链”,不同类型的任务并行执行,最终综合结果生成输出。

“智能体”(Agent)在人工智能和计算机科学领域是指能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并辅以规划、子目标分解、反思完善、记忆(包括短期记忆和长期记忆)、工具使用等关键组成部分。

在开发场景中,有上传客服聊天记录,充当智能客服的案例。此外,还有使用 GPT 的视觉功能和 TTS API 处理和讲述视频、GLM 等大模型外接数据库、开发微信小程序、开发知识库/聊天机器人搭建安全提示词 prompt 等相关案例。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI 智能体:企业自动化的新架构 - Menlo Ventures

设置基线:RAG是当今大多数现代人工智能应用程序的标准架构。让我们以Sana的企业搜索用例为例,了解它在幕后的工作原理。该过程始于应用程序加载和转换无结构文件(如PDF、幻灯片、文本文件)跨越企业数据孤岛,如Google Drive和Notion,转换为LLM可查询格式,通常通过像[Unstructured](https://menlovc.com/portfolio/unstructured/)*这样的数据预处理引擎进行。这些文件现在被"分块"成更小的文本块,以实现更精确的检索,并作为向量嵌入和存储在像[Pinecone](https://menlovc.com/portfolio/pinecone/)*这样的数据库中。当用户向AI应用程序提出问题时(例如,"总结我与公司X会议的所有笔记"),系统会检索语义上最相关的上下文块,并将其折叠到"元提示"中,与检索到的信息一起馈送给LLM。然后,LLM会从检索到的上下文中合成一个整洁的带有项目符号的答复返回给用户。当然,该图仅说明了一个带有一个LLM调用的单一检索步骤。在生产中,AI应用程序具有更复杂的应用程序流程,包含数十甚至数百个检索步骤。这些应用程序通常具有"提示链",其中一个检索步骤的输入馈送到下一步,并且不同类型的任务并行执行多个"提示链"。然后将结果综合在一起,以生成最终输出。[Eve](https://menlovc.com/portfolio/eve/)*法律研究的共同驾驭员,例如,可能会将针对《第七篇》的研究查询分解为专注于预定子主题的独立提示链,如雇主背景、就业历史、《第七篇》、相关案例法和原告案件支持证据。LLMs然后运行每个提示链,为每个生成中间输出,并综合各输出编写最终备忘录。

问:什么是智能体 Agent

智能体是一种自主系统,它可以通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。在LLM支持的自主Agent系统中,LLM充当Agents的大脑,并辅以几个关键组成部分:规划子目标和分解:Agents将大型任务分解为更小的、可管理的子目标,从而能够有效处理复杂的任务。反思和完善:Agents可以对过去的行为进行自我批评和自我反思,从错误中吸取教训,并针对未来的步骤进行完善,从而提高最终结果的质量。记忆短期记忆:所有的上下文学习都是利用模型的短期记忆来学习。长期记忆:这为Agents提供了长时间保留和回忆(无限)信息的能力,通常是通过利用外部向量存储和快速检索来实现。工具使用Agents学习调用外部API来获取模型权重中缺失的额外信息(通常在预训练后很难更改),包括当前信息、代码执行能力、对专有信息源的访问等。

AI 产品案例严选

|标题|简介|作者|分类|前往查看👉|封面|入库时间|<br>|-|-|-|-|-|-|-|<br>|使用GPT的视觉功能和TTS API处理和讲述视频|这个笔记本演示了如何通过视频使用GPT的视觉功能。GPT-4不直接将视频作为输入,但我们可以使用视觉和新的128 K上下文widnow来同时描述整个视频的静态帧。|Kai Chen|开发|[使用GPT的视觉功能和TTS API处理和讲述视频](https://waytoagi.feishu.cn/wiki/SJkowbSUviLECQk9YtecwJVpnpc?table=tblJzotqp5g7xZ2b&view=vewJuuzsne)||2023/11/15|<br>|开发:GLM等大模型外接数据库|可以调整prompt,匹配不同的知识库,让LLM扮演不同的角色<br>上传公司财报,充当[财务分析师](https://www.zhihu.com/search?q=%E8%B4%A2%E5%8A%A1%E5%88%86%E6%9E%90%E5%B8%88&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D)<br>上传客服聊天记录,充当智能客服<br>上传经典Case,充当律师助手<br>上传医院[百科全书](https://www.zhihu.com/search?q=%E7%99%BE%E7%A7%91%E5%85%A8%E4%B9%A6&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D),充当在线问诊医生||开发|[🔥开发:GLM等大模型外接数据库](https://waytoagi.feishu.cn/wiki/GzFdwwzDMi2ii5kyq13c7Hdxnvh?table=tblJzotqp5g7xZ2b&view=vewJuuzsne)||2023/11/15|<br>|开发:微信小程序|我将手把手教下大家如何利用chatgpt来实现一个微信小程序的搭建。前半部分我们先简单介绍怎么注册小程序,后半部分介绍怎么进行开发上线。||开发|[开发:微信小程序](https://waytoagi.feishu.cn/wiki/IfCcw3ICXiI79Sk3MNJcEvkynPb)||2023/11/15|<br>|开发:知识库/聊天机器人搭建安全提示词prompt|知识库/聊天机器人搭建安全提示词prompt||开发|[开发:知识库/聊天机器人搭建安全提示词prompt](https://waytoagi.feishu.cn/wiki/Xv2EwktakiMSLJk52wZcRiuMnAc?table=tblJzotqp5g7xZ2b&view=vewJuuzsne)||2023/11/15|

Others are asking
在coze上实现notebookllm
以下是关于在 Coze 上实现 NotebookLLM 的相关信息: LLM 作为知识问答工具有缺陷,如无法实时获取最新信息、存在“幻觉”问题、无法给出准确引用来源等。搜索引擎虽体验不够简便直接,但加上 LLM 可能带来更优信息检索体验。 在生成标题、导语、大纲时,因为涉及文本理解与创作,这是 LLM 节点的工作,需要对其进行配置。为减少 token 消耗和节省模型调度费用,在满足预期情况下,应尽量减少大模型处理环节。经过实测,豆包·function call 32k 模型能在一轮对话中稳定生成相关内容。每个大模型节点配置项丰富,入门用户主要关注一些方面,如在“标题、导语、大纲”节点中,希望 LLM 接收原文信息后一次性生成所需内容,还需视实际情况调大模型的最大回复长度,并设计填入用户提示词。
2025-02-19
notebookllm
NotebookLM 是谷歌推出的一款工具,具有以下特点和用途: 有人称它为笔记工具、AI 学习工具或播客生成器。 只要上传文档、音频或网页链接(如 YouTube 等),就能生成专业的播客,其中主持人对话生动自然,包含各种人类语气和行为。 可以将公众号文章等内容变成双人对谈播客。 是 Google AI Lab 开发的笔记应用,基于 Gemini 1.5 Pro 的长文本理解和多模态能力。 用户可通过上传文件或链接快速生成笔记和音频内容,适合教育和研究等场景。 支持协作,适合整理公众号文章、编写书稿等多种用途。 体验地址:https://notebooklm.google/
2025-02-19
waytoagi的知识库基于哪个LLM创建的
目前没有明确的信息表明 waytoagi 的知识库基于哪个 LLM 创建。但以下信息可能对您有所帮助: AnythingLLM 包含了所有 Open WebUI 的能力,并且额外支持选择文本嵌入模型、选择向量数据库等。安装地址为:https://useanything.com/download 。安装完成后配置主要分为三步,包括选择大模型、选择文本嵌入模型、选择向量数据库。AnythingLLM 中有 Workspace 的概念,可创建自己独有的 Workspace 跟其他项目数据进行隔离,包括创建工作空间、上传文档并进行文本嵌入、选择对话模式(Chat 模式和 Query 模式)等。 GitHubDaily 开源项目列表中提到了 AnythingLLM,它是一个可打造成企业内部知识库的私人专属 GPT,可以将任何文档、资源或内容转换为大语言模型(LLM)知识库。
2025-02-19
我怎样用低代码工具去构建我的AI智能体?LLM应用?
以下是关于如何用低代码工具构建 AI 智能体和 LLM 应用的一些建议: 在构建基于 LLM 的应用时,Anthropic 建议先寻找最简单的解决方案,只在必要时增加复杂度。智能系统通常会以延迟和成本为代价来换取更好的任务表现,开发者需要考虑这种权衡是否合理。当需要更复杂的解决方案时,工作流适合需要可预测性和一致性的明确任务,而智能体则更适合需要灵活性和模型驱动决策的大规模场景。不过,对于许多应用来说,优化单个 LLM 调用(配合检索和上下文示例)通常就足够了。 目前有许多框架可以简化智能系统的实现,例如: 1. LangChain 的 LangGraph。 2. 亚马逊 Bedrock 的 AI Agent 框架。 3. Rivet(一个拖放式 GUI 的 LLM 工作流构建器)。 4. Vellum(另一个用于构建和测试复杂工作流的 GUI 工具)。 这些框架通过简化标准的底层任务(如调用 LLM、定义和解析工具、链接调用等)使入门变得容易,但它们往往会创建额外的抽象层,可能会使底层提示词和响应变得难以调试,也可能诱使开发者在简单设置就足够的情况下增加不必要的复杂性。建议开发者先直接使用 LLM API,许多模式只需要几行代码就能实现。如果确实要使用框架,请确保理解底层代码。 此外,还有以下相关工具和应用: 1. VectorShift:能在几分钟内构建和部署生成式人工智能应用程序,利用大型语言模型(例如 ChatGPT)构建聊天机器人、文档搜索引擎和文档创建工作流程,无需编码。 2. Unriddle:帮助更快阅读、写作和学习的工具,能简化复杂的主题,找到信息,提问并立即获得答案。 工具使用或函数调用通常被视为从 RAG 到主动行为的第一个半步,为现代人工智能栈增加了一个新的层。一些流行的原语如网页浏览(Browserbase、Tiny Fish)、代码解释(E2B)和授权+认证(Anon)已经出现,它们使 LLM 能够导航网络、与外部软件(如 CRM、ERP)交互并运行自定义代码。Omni 的计算 AI 功能体现了这种方法,它利用 LLM 直接输出适当的 Excel 函数到电子表格中,然后执行计算并自动生成复杂查询供用户使用。 详细示例请参考:https://github.com/anthropics/anthropiccookbook/tree/main/patterns/agents
2025-02-17
类似于ollama和vllm这样的LLM 框架有哪些
以下是类似于 ollama 和 vllm 的 LLM 框架: 1. Encoderonly 框架(也叫 AutoEncoder),典型代表如 BERT 等。 2. Encoderdecoder 框架,典型代表如 T5 和 GLM 等。 3. Decoderonly 框架(也叫 AutoRegressive),典型代表如 GPT 系列、LLaMa、PaLM 等。 此外,还有一些在 LLM 应用中发挥重要作用的框架,如: 1. LangChain:是当前大模型应用开发的主流框架之一,提供了一系列工具和接口,其核心在于“链”概念,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具。 2. LlamaIndex:在促进 LLM 和整合上下文数据方面表现出色,抽象出许多提示链的细节,与外部 API 的接口,从向量数据库检索上下文数据,并在多个 LLM 调用中维持内存。
2025-02-17
LLM 训练推理模型有哪些
以下是一些常见的 LLM 训练推理模型: 1. FengshenbangLM: 地址: 简介:是 IDEA 研究院认知计算与自然语言研究中心主导的大模型开源体系,开源了姜子牙通用大模型 V1,是基于 LLaMa 的 130 亿参数的大规模预训练模型,具备翻译、编程、文本分类、信息抽取、摘要、文案生成、常识问答和数学计算等能力。除姜子牙系列模型之外,还开源了太乙、二郎神系列等模型。 2. BiLLa: 地址: 简介:开源了推理能力增强的中英双语 LLaMA 模型。较大提升 LLaMA 的中文理解能力,并尽可能减少对原始 LLaMA 英文能力的损伤;训练过程增加较多的任务型数据,利用 ChatGPT 生成解析,强化模型理解任务求解逻辑;全量参数更新,追求更好的生成效果。 3. Moss: 地址: 简介:支持中英双语和多种插件的开源对话语言模型,MOSS 基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。 此外,Andrej Karpathy 的相关介绍中提到了 LLM 训练的一些情况,如训练过程涉及大约 10TB 的文本,通常来源于互联网的抓取,需要大量的互联网资源和一个 GPU 集群,费用大约 200 万美元。Karpathy 的视频还详细介绍了 LLM 训练的全部过程,包括预训练、有监督微调和强化学习等。
2025-02-16
如何把coze的agent发布到微信公众号上
要把 Coze 的 agent 发布到微信公众号上,您可以按照以下步骤进行操作: 1. 组装和测试“AI 前线”Bot 机器人: 返回个人空间,在 Bots 栏下找到刚刚创建的“AI 前线”,点击进入。 将写好的 prompt 粘贴到【编排】模块,prompt 可随时调整。 在【技能】模块添加需要的技能,如工作流、知识库。 在【预览与调试】模块,直接输入问题,即可与机器人对话。 2. 发布“AI 前线”Bot 机器人: 测试 OK 后,点击右上角“发布”按钮,即可将“AI 前线”发布到微信、飞书等渠道。 3. 发布到微信公众号上: 选择微信公众号渠道,点击右侧“配置”按钮。 根据相关截图,去微信公众号平台找到自己的 App ID,填入确定即可,不用解绑。 4. 体验: 最后去自己的微信公众号消息页面,就可以使用啦。 另外,还有一种方法是在 Coze 发布页面的发布平台的微信客服这里,显示“已配置”后,进行勾选并点击发布。发布成功后,可以点击微信客服旁边的立即对话、复制 Bot 链接,会弹出该微信客服的二维码,扫码即可立即体验。
2025-02-19
扣子AI应用发布到微信小程序中失败
扣子 AI 应用发布到微信小程序中失败可能有以下原因及解决办法: 1. 容器编排不运行: 宝塔面板中设置加速镜像不生效需安,通过命令行手动设置。 新建/etc/docker/daemon.json 文件(如果已经存在可以不用创建)。 在 daemon.json 中添加相应代码。 重启 Docker 服务:systemctl restart docker。若仍无法解决,可继续排查。 2. 本地镜像的方法: 服务下载:服务的百度网盘地址:https://pan.baidu.com/s/1Ueyp6KnOmD18h6wICwJKNg?pwd=85jv 提取码:85jv ;服务的夸克网盘地址:https://pan.quark.cn/s/189b6f3e0d94 。需要把 chatgptonwechat.tar 和 coze2openai.tar 下载到本地。 上传服务:在宝塔操作面板中点击文件,选择上传下载到本地的文件。上传到根目录/www/backup 文件夹下面。 导入镜像:选择 Docker 中选择本地镜像,然后选择导入镜像。导入镜像要选择上传的目录,如根目录/www/backup 。 3. 修改参数不生效:需要删掉“容器编排”和“容器”中的内容,再重新生成一次。 4. 知识库不更新:确认扣子里有点击右上角的发布按钮。 5. 微信机器人无法正常画图,给的图片链接点进去有错误提示:查看/root/chatgptonwechat/run.log 中有相关提示。可能是点链接的时候多了一个小括号。 6. 扫码后,手机登陆后,没有任何机器人的反应:配置有错错误,或者安装不对,根据步骤去逐一检查。或者重装。 7. 机器人回答问题:COW 本身处理不了一次调取多个对话。有代码能力,可以直接调整代码实现。 8. 宝塔之后登录的时候登录不上去:按下图所示重启服务器之后就好了,重启时间可能会久,但一定会重启成功,请耐心等待。 此外,零基础模板化搭建 AI 微信聊天机器人的步骤如下: 1. 直接对接 Coze 平台 Bot 的微信聊天机器人搭建: Coze 相关配置: 创建 Coze API 令牌:进入到,点击左下角的扣子 API 选项,进入到 API 管理页面,点击 API 令牌,按照图示创建第一个 API 令牌,创建成功后保存好,因为这个 API 令牌只会在创建成功后显示一次。 记下 Coze AI Bot 的 Bot ID:去到要绑定的 AI Bot 的设计界面,在所在的链接里面记下 Bot ID,将 Bot 发布到 Bot as API 上。
2025-02-18
我想了解如何在微信公众号搭建一个能发语音的数字人
以下是在微信公众号搭建能发语音的数字人的相关步骤: 1. 照片数字人工作流及语音合成(TTS)API 出门问问 Mobvoi: 工作流地址:https://github.com/chaojie/ComfyUImobvoiopenapi/blob/main/wf.json 相关文件: 记得下载节点包,放进您的 node 文件夹里,这样工作流打开就不会爆红了!ComfyUI 启动后就可以将 json 文件直接拖进去使用了! 2. 「AI 学习三步法:实践」用 Coze 免费打造自己的微信 AI 机器人: 组装&测试“AI 前线”Bot 机器人: 返回个人空间,在 Bots 栏下找到刚刚创建的“AI 前线”,点击进入即可。 组装&测试步骤: 将上文写好的 prompt 黏贴到【编排】模块,prompt 可随时调整。 在【技能】模块添加需要的技能:工作流、知识库。 【预览与调试】模块,直接输入问题,即可与机器人对话。 发布“AI 前线”Bot 机器人: 测试 OK 后,点击右上角“发布”按钮即可将“AI 前线”发布到微信、飞书等渠道。 发布到微信公众号上: 选择微信公众号渠道,点击右侧“配置”按钮。 根据以下截图,去微信公众号平台找到自己的 App ID,填入确定即可。不用了解绑即可。 最后去自己的微信公众号消息页面,就可以使用啦。
2025-02-18
怎么在企业微信里接入deepseek
在企业微信里接入 DeepSeek 的步骤如下: 1. 注册并登录火山引擎,点击立即体验进入控制台。链接:https://zjsms.com/iP5QRuGW/ (火山引擎是字节跳动旗下的云服务平台,在 AI 领域最为大众所熟知的应该是“豆包大模型”,这里就是源头) 2. 创建一个接入点,点击在线推理创建推理接入点。 3. 为接入点命名为 DeepSeekR1。 4. 若提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,开通一下(这里是免费的)。若无提示则直接到第 5 步,点击确认接入。 5. 确认以下无误后,点击“确认接入”按钮。 6. 自动返回创建页面。发现多出一行接入点名是“DeepSeekR1”(我们刚才自己设置的命名)。重点来了:这个就是推理点的 ID,复制他放到你的微信里,发给自己保存一下。 7. 保存后再点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。 8. 若已有 API key 了,就直接查看并复制。如果没有,则点击【创建 API key】。 9. 把复制好的内容,也放到自己微信里保存好。 至此,我们已经完成拿到了模型的密钥。接着,就可以去把它配置到网页聊天里使用。
2025-02-18
写微信小程序,用哪个 ai 代码助手最好
以下是一些适用于写微信小程序的 AI 代码助手推荐: 1. DIN: 搭建 OneAPI 以汇聚整合多种大模型接口。 搭建 FastGpt 作为知识库问答系统。 搭建 chatgptonwechat 接入微信,并配置 FastGpt 把知识库问答系统接入到微信。 2. Cursor: 可通过任意 AI 工具获得代码,专业代码模型表现更优。 网址:https://www.cursor.com/ 3. Deepseek(新手推荐): 网址:https://www.deepseek.com/zh 方便获取游戏代码,国内能访问,网页登录方便,目前完全免费。 4. 通义灵码: 在 Pytharm 中,“文件”“设置”“插件”红色框位置搜索“通义灵码”进行安装(目前免费)。 5. JetBrains 自身的助手插件: 在 Pytharm 中,“文件”“设置”“插件”红色框位置搜索“Jetbrains AI assistant”进行安装(收费,目前有 7 天免费试用)。 6. Marscode 及 Tencent cloud AI code Assistant 等。 7. 无影的晓颖 AI 助手: 内置在云电脑里,使用流畅,但需要在无影的云电脑中。 需要注意的是,不同的 AI 代码助手在生成特定代码时可能有不同的表现,您可以根据自己的需求和实际使用体验进行选择。
2025-02-17
ai接入微信、钉钉聊天的软件
以下是关于将 AI 接入微信、钉钉聊天的相关信息: 基于 COW 框架的 ChatBot 实现步骤: 作者为熊猫大侠,COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。 张梦飞同学写了更适合小白的使用教程: 。 可实现打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)和常用开源插件的安装应用。 正式开始前需知:ChatBot 相较于在各大模型网页端使用区别在于需要接入大模型 API(API 单独付费)。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 零基础模板化搭建 AI 微信聊天机器人: COW 全称 Chatgptonwechat,可在微信、飞书、钉钉等主流社交平台上实现对接各种大模型的功能。 在刚买的腾讯云服务器上通过 Docker 运行 COW,并将之前在极简未来平台创建的 API 信息填入其中。 使用 Docker 服务部署 COW 组件,宝塔面板可让技术小白以图形交互方式运维服务器,手动配置部署容器编排模板。
2025-02-15
如何用coze搭建一个总结聊天记录的功能
以下是用 Coze 搭建一个总结聊天记录功能的步骤: 1. 设计 Bot 目的:明确 Bot 的用途,例如作为一个 AI 学习助手,帮助职场专业人士提升在人工智能领域的知识和技能,并提供高效的站内信息检索服务。 2. 了解 Coze 平台常用概念和功能:包括提示词(设定 Bot 的身份和目标)、插件(通过 API 连接集成各种平台和服务)、工作流(设计复杂的多步骤任务)、触发器(创建定时任务)、记忆库(保留对话细节,支持外部知识库)、变量(保存用户个人信息)、数据库(存储和管理结构化数据)、长期记忆(总结聊天对话内容)。 3. 进行 Bot 基础设置:根据机器人的作用,设计人设和回复逻辑,限制机器人的功能使其更专注于 AI 相关的知识回答和服务,还可以加入长期记忆功能来总结聊天对话内容以更好地响应用户消息,以及设计更加美观的 Bot 开场白。 注:Coze 官方使用指南见链接:https://www.coze.cn/docs/guides/welcome ,遇到疑问也可以查官方指南。
2024-11-15
搭建一个总结聊天记录的ai
以下是搭建一个总结聊天记录的 AI 的步骤: 1. 整理聊天记录为数据集: 如果导出了多个人的聊天记录,需手动将文件下的内容汇总到一起。 汇总完成后,保存汇总文件为“train.json”。 在当前文件夹下新建一个文本文档,重命名为“1.py”,用记事本打开并粘贴相应代码。注意标红的地方需要修改。 打开命令行窗口,输入“python 1.py”完成聊天记录整理,此步骤在后续第 31 步会用到。 2. 图文原文处理: 微信无法批量复制聊天内容,多选想要复制的聊天内容,转发到群里或文件传输助手。 收藏批量转发的聊天记录,打开收藏,点进笔记,点右上角三个点,转存为笔记,返回即可全选复制所有内容。 可使用能让电脑设备和手机设备剪切板共享的工具,避免在微信文件传输助手间折腾。 3. GPTs: 若重复做同一件事三次以上,应考虑优化步骤,可创建内容排版大师的 GPTs。 GPTs 链接:https://chat.openai.com/g/gt9dIHp4Ntneirongpaibandashi 。 该 GPTs 已加入 webpilot 的 actions,可直接将文章发给它总结内容。 4. 小卡片软件: 使用的卡片软件是小作卡片 app,官网链接:https://kosaku.imxie.club/ 。 操作步骤:打开软件,点击「自制卡片」,在「记录些什么...」中粘贴 AI 生成文本内容,点击右下角保存图标即可导出。
2024-11-15
分析微信聊天记录的智能体
以下是关于分析微信聊天记录的智能体的相关信息: 从维度转换能力的角度来看,将各种问题、业务数据等转化为语言信息与语言模型交流能提高效率,但要注意对维度的理解,避免因语言的一维性导致交流偏差。 在业务助手中,主要有助手方式和业务环方式。助手方式是进行工作辅助,大模型负责优化、检索、启发等;业务环方式是大模型作为主业务流程中的一环,自动处理内容并生成结果。 像 Coze 这样的 Bot 智能体,可以实现多模态资讯的跨平台推送。其初衷是让用户拥有专属助手,精准筛选有价值信息。它以扣子为中心平台,通过自研插件、工作流和 API 链接微信群、企业微信群、飞书云文档多维表格等,能根据用户需求抓取热点资讯,分析处理并以多模态形式自动推送到不同平台。 在基于百川大模型的创作中,可将聊天记录的上下文转换为问答对,并对相邻信息做合并处理,还能根据需求筛选指定群或聊天对象的记录。聊天上下文窗口大小可依场景设置。
2024-09-30
AI应用在PPT生成的案例
以下是关于 AI 应用在 PPT 生成的案例: 1. 在“直播一期:知识库及 GPT 基础介绍”中提到,GPT 可以用于 PPT 生成,相关链接: 。 2. 在“给小白的 AI 产品推荐”中,推荐了国内的爱设计 PPT 作为 AI 辅助制作 PPT 的产品。其背后有强大的团队,能敏锐把握市场机遇,已确立市场领先地位,代表了国内 AI 辅助 PPT 制作的高水平。 3. 在“熊猫 Jay:超全的 AI 工具生成 PPT 的思路和使用指南,收获培训奖励 1000”中提到,目前市面上大多数 AI 生成 PPT 的主要思路为:AI 生成 PPT 大纲,手动优化大纲,导入工具生成 PPT,优化整体结构。并推荐了关于 ChatGPT 原理和提示词的文章。
2025-02-19
有哪些在企业内部落地应用AI大模型工具的实践案例?不要营销文案生成、代码开发助手、智能客服问答机器人这种太常见的
以下是一些在企业内部落地应用 AI 大模型工具的实践案例: 1. 阿里云百炼: 智能体应用:能够弥补大模型的不足,如回答私有领域问题、获取实时信息、回答专业问题等。适用于有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务,以及缺少技术人员开发大模型问答应用的场景。典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供 UID 并通过白名单进行开启。 2. 达摩院: AI 模特(虚拟换装):支持虚拟换装、姿态编辑。 3. 电商零售: 推广文案写作:通过内置的多样化营销场景的文体模板,基于用户输入的创作主题以及参考素材,大模型即可为您生成对应的营销文案,为营销活动和宣传文案提供灵感和文案写作支持。 4. 泛企业: VOC 挖掘:是一个面向各类企业的 VOC 标签挖掘的工具。不论是用户的长短评论、帖子、还是用户和客服/销售的聊天记录、通话记录,都可以使用。通过选中或自定义标签,即可让大模型针对海量非结构化的 VOC 数据快速打标。相比于人工打标或规则打标准确率更高;对于业务标签变动频繁的情况,也能更敏捷、快速地影响。 5. 通义晓蜜:基于深度调优的对话大模型,为营销服类产品提供智能化升级所需的生成式摘要总结、质检、分析等能力应用。
2025-02-18
生成式AI教育场景应用 项目式学习 中小学案例
以下是一些中小学在生成式 AI 教育场景应用中采用项目式学习的案例: 北京市新英才学校: 开设“AI 创作家”小学课后服务特色课程,12 个五、六年级的学生在老师的引导和帮助下,主导设计一款实用的桌游。 学生们提出解决学校面积大导致新生和访客迷路的问题,决定制作一款学校地图桌游。 课程中,学生有时听老师讲解人工智能知识和工具使用方法,有时自己写 prompt 与大语言模型对话,还使用文生图 AI 工具生成桌游卡牌背后的图案,手绘第一版学校地图,选择游戏机制并梳理游戏流程。 在教育领域,生成式 AI 带来了诸多改变: 解决了教育科技长期以来在有效性和规模之间的权衡问题,可大规模部署个性化学习计划,为每个用户提供“口袋里的老师”,如实时交流并给予发音或措辞反馈的语言老师。 出现了众多辅助学习的产品,如教授新概念、帮助学习者解决各学科问题、指导数学作业、提升写作水平、协助创建演示文稿等。
2025-02-18
生成式AI教育场景应用 中小学案例
以下是北京市新英才学校在中小学教育场景中生成式 AI 的应用案例: 特色课程方面:学校开设了“AI 创作家”小学课后服务特色课程,12 个五、六年级的学生在老师的引导下,用 AIGC 工具设计一款实用的桌游。学生主导从收集需求、定义问题到设计背景、机制、内容、视觉,再到测试、迭代的全过程。例如,为解决学校面积大导致新生和访客迷路的问题,学生决定做一款学校地图桌游。课程中,学生学习人工智能知识、使用工具写 prompt 与大语言模型对话,还使用 OpenInnoLab平台生成桌游卡牌图案、手绘地图、选择游戏机制、梳理游戏流程。此外,还邀请中国传媒大学的吴卓浩教授合作,采用“大学生,小学生同上一节课”的方式,大学生为小学生讲解 AI 工具、试玩桌游。本学期,学生们测试并迭代桌游,使用 3D 打印机打印配件,用 ChatGPT 和 Midjourney 增强视觉设计,用 Kimi 辅助编写说明书,还计划让学生尝试用文生音乐工具 Suno 制作歌曲加入桌游 2.0 版本。 英语主课方面:初中部的英语课也融入了 AIGC 工具。魏一然协助初中部的英文老师杨佳欣和刘奕玚进行探索。在课程初期,更多是老师带着学生使用 AIGC 工具,prompt 由学生提出,老师引导。例如,在研究学校食堂食物浪费问题时,老师带着学生与 ChatGPT 对话,了解处理方法,让 ChatGPT 为学生生成生词解释和例句,形成生词库,并灵活加工生词生成题目、游戏或文章帮助学生复习单词。在关于社交媒体的英语辩论课上,尝试让学生自主使用 AIGC 工具做辩论准备。
2025-02-18
飞书接入deepseek 多维表格处理案例
以下是关于飞书接入 DeepSeek 多维表格处理的相关案例和信息: 自定义 AI(DeepSeek 版):https://bytedance.larkoffice.com/base/extension/replit_3f6c0f185eac23fb ,支持 DeepSeek R1、V3 模型,以及 DeepSeek 官方、火山方舟、硅基流动三个服务商。 有案例如“笨笨 v 泡泡”的 deepseekr1:7b 模型行测试题分析过程及结果,可参考:https://mp.weixin.qq.com/s/kjYiRS9RE25vywm0EsP6A?token=8615663&lang=zh_CN 。 相关文章和教程: 《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》:https://waytoagi.feishu.cn/wiki/RZE9wP94tiEO6bkU5cTcyecHnnb 。 《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》:https://waytoagi.feishu.cn/wiki/HzHSwEwtCiBmWrkRm6fc0J0Qneh 。 《喂饭级教程:飞书多维表格+DeepSeek=10 倍速用 AI》:https://mp.weixin.qq.com/s/aIi4tIy0CCINyQE_3AfF_Q ,介绍了如何结合实现批量处理信息、提升工作效率等。 飞书多维表格的接入方法在整理列上这两天直播教程中的所有模板中有提及。 2 月 10 日的社区动态中有 DeepSeek R1 赏析分享会等相关内容。 2 月 14 日的社区动态中有关于另外一款推理模型 zero 的推理过程等相关内容。
2025-02-17
目前针对H5,有哪些可以和ai结合的案例
目前在 H5 领域,与 AI 结合的案例相对较少。但一些可能的方向包括:利用 AI 进行个性化内容推荐,根据用户的浏览历史和偏好为其推送相关的 H5 页面内容;通过 AI 实现智能客服,在 H5 页面中为用户提供实时的问题解答和帮助;运用 AI 图像识别技术,让用户可以通过拍照或上传图片在 H5 页面中获取相关信息或进行互动。
2025-02-17