Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

一个用llm分析微信聊天记录的智能体案例

Answer

以下为一个用 LLM 分析微信聊天记录的智能体案例相关内容:

在当今大多数现代人工智能应用程序中,检索增强生成(RAG)是标准架构。以 Sana 的企业搜索用例为例,其过程始于应用程序加载和转换无结构文件(如 PDF、幻灯片、文本文件),跨越企业数据孤岛(如 Google Drive 和 Notion),并通过数据预处理引擎(如 Unstructured)转换为 LLM 可查询格式。这些文件被“分块”成更小的文本块,作为向量嵌入并存储在数据库(如 Pinecone)中。

当用户提出问题时,系统会检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM,然后 LLM 合成答复返回给用户。在生产中,AI 应用程序具有更复杂的流程,包含多个检索步骤和“提示链”,不同类型的任务并行执行,最终综合结果生成输出。

“智能体”(Agent)在人工智能和计算机科学领域是指能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并辅以规划、子目标分解、反思完善、记忆(包括短期记忆和长期记忆)、工具使用等关键组成部分。

在开发场景中,有上传客服聊天记录,充当智能客服的案例。此外,还有使用 GPT 的视觉功能和 TTS API 处理和讲述视频、GLM 等大模型外接数据库、开发微信小程序、开发知识库/聊天机器人搭建安全提示词 prompt 等相关案例。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI 智能体:企业自动化的新架构 - Menlo Ventures

设置基线:RAG是当今大多数现代人工智能应用程序的标准架构。让我们以Sana的企业搜索用例为例,了解它在幕后的工作原理。该过程始于应用程序加载和转换无结构文件(如PDF、幻灯片、文本文件)跨越企业数据孤岛,如Google Drive和Notion,转换为LLM可查询格式,通常通过像[Unstructured](https://menlovc.com/portfolio/unstructured/)*这样的数据预处理引擎进行。这些文件现在被"分块"成更小的文本块,以实现更精确的检索,并作为向量嵌入和存储在像[Pinecone](https://menlovc.com/portfolio/pinecone/)*这样的数据库中。当用户向AI应用程序提出问题时(例如,"总结我与公司X会议的所有笔记"),系统会检索语义上最相关的上下文块,并将其折叠到"元提示"中,与检索到的信息一起馈送给LLM。然后,LLM会从检索到的上下文中合成一个整洁的带有项目符号的答复返回给用户。当然,该图仅说明了一个带有一个LLM调用的单一检索步骤。在生产中,AI应用程序具有更复杂的应用程序流程,包含数十甚至数百个检索步骤。这些应用程序通常具有"提示链",其中一个检索步骤的输入馈送到下一步,并且不同类型的任务并行执行多个"提示链"。然后将结果综合在一起,以生成最终输出。[Eve](https://menlovc.com/portfolio/eve/)*法律研究的共同驾驭员,例如,可能会将针对《第七篇》的研究查询分解为专注于预定子主题的独立提示链,如雇主背景、就业历史、《第七篇》、相关案例法和原告案件支持证据。LLMs然后运行每个提示链,为每个生成中间输出,并综合各输出编写最终备忘录。

问:什么是智能体 Agent

智能体是一种自主系统,它可以通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。在LLM支持的自主Agent系统中,LLM充当Agents的大脑,并辅以几个关键组成部分:规划子目标和分解:Agents将大型任务分解为更小的、可管理的子目标,从而能够有效处理复杂的任务。反思和完善:Agents可以对过去的行为进行自我批评和自我反思,从错误中吸取教训,并针对未来的步骤进行完善,从而提高最终结果的质量。记忆短期记忆:所有的上下文学习都是利用模型的短期记忆来学习。长期记忆:这为Agents提供了长时间保留和回忆(无限)信息的能力,通常是通过利用外部向量存储和快速检索来实现。工具使用Agents学习调用外部API来获取模型权重中缺失的额外信息(通常在预训练后很难更改),包括当前信息、代码执行能力、对专有信息源的访问等。

AI 产品案例严选

|标题|简介|作者|分类|前往查看👉|封面|入库时间|<br>|-|-|-|-|-|-|-|<br>|使用GPT的视觉功能和TTS API处理和讲述视频|这个笔记本演示了如何通过视频使用GPT的视觉功能。GPT-4不直接将视频作为输入,但我们可以使用视觉和新的128 K上下文widnow来同时描述整个视频的静态帧。|Kai Chen|开发|[使用GPT的视觉功能和TTS API处理和讲述视频](https://waytoagi.feishu.cn/wiki/SJkowbSUviLECQk9YtecwJVpnpc?table=tblJzotqp5g7xZ2b&view=vewJuuzsne)||2023/11/15|<br>|开发:GLM等大模型外接数据库|可以调整prompt,匹配不同的知识库,让LLM扮演不同的角色<br>上传公司财报,充当[财务分析师](https://www.zhihu.com/search?q=%E8%B4%A2%E5%8A%A1%E5%88%86%E6%9E%90%E5%B8%88&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D)<br>上传客服聊天记录,充当智能客服<br>上传经典Case,充当律师助手<br>上传医院[百科全书](https://www.zhihu.com/search?q=%E7%99%BE%E7%A7%91%E5%85%A8%E4%B9%A6&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A3030429770%7D),充当在线问诊医生||开发|[🔥开发:GLM等大模型外接数据库](https://waytoagi.feishu.cn/wiki/GzFdwwzDMi2ii5kyq13c7Hdxnvh?table=tblJzotqp5g7xZ2b&view=vewJuuzsne)||2023/11/15|<br>|开发:微信小程序|我将手把手教下大家如何利用chatgpt来实现一个微信小程序的搭建。前半部分我们先简单介绍怎么注册小程序,后半部分介绍怎么进行开发上线。||开发|[开发:微信小程序](https://waytoagi.feishu.cn/wiki/IfCcw3ICXiI79Sk3MNJcEvkynPb)||2023/11/15|<br>|开发:知识库/聊天机器人搭建安全提示词prompt|知识库/聊天机器人搭建安全提示词prompt||开发|[开发:知识库/聊天机器人搭建安全提示词prompt](https://waytoagi.feishu.cn/wiki/Xv2EwktakiMSLJk52wZcRiuMnAc?table=tblJzotqp5g7xZ2b&view=vewJuuzsne)||2023/11/15|

Others are asking
llm cookbook 有资源吗
以下是关于 LLM 学习资源和 OpenAI Cookbook 的相关信息: 学习大型语言模型(LLM)开发的资源和路径: 1. 掌握深度学习和自然语言处理基础: 机器学习、深度学习、神经网络等基础理论。 自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: Transformer 模型架构及自注意力机制原理。 BERT 的预训练和微调方法。 掌握相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 大规模文本语料预处理。 LLM 预训练框架,如 PyTorch、TensorFlow 等。 微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 模型压缩、蒸馏、并行等优化技术。 模型评估和可解释性。 模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 OpenAI Cookbook 资源: 如需更多灵感,请访问,其中包含示例代码以及指向第三方资源的链接,例如: 1. 2. 3. 4. 此外,还有 LLM 开源中文大语言模型及数据集集合中的相关资源: HuggingLLM: 地址: 简介:介绍 ChatGPT 原理、使用和应用,降低使用门槛,让更多感兴趣的非 NLP 或算法专业人士能够无障碍使用 LLM 创造价值。 OpenAI Cookbook: 地址: 简介:该项目是 OpenAI 提供的使用 OpenAI API 的示例和指导,其中包括如何构建一个问答机器人等教程,能够为从业人员开发类似应用时带来指导。
2025-01-14
Llm studio 联网搜索
以下是关于 LLM studio 联网搜索的相关内容: Cursor 方面: Cursor 适用于多种编程场景,如问答。在问答场景中,LLM 支持联网功能后,如 Claude、ChatGPT、Perplexity 等平台可咨询技术问题,能自动提炼关键字、联网搜索并总结分析搜索结果返回简洁答案,但答案置信率不高,而 Cursor 的上下文符号引用能力(如@Codebase 符号索引整个仓库)弥补了这一点,其将整个仓库 Embedding 成向量数据库供 LLM 消费,具备极强的私域知识理解能力,还能高效地帮用户分析总结各类项目的底层原理。 LLM Agent 方面: 工作步骤包括接收指令(用户通过文本、语音等方式发出指令或提出问题)、数据处理与理解(利用内部大语言模型解析用户输入,提取关键信息)、生成响应与执行任务(根据用户需求生成回答或采取行动,如查询数据库、搜索网络等)、输出结果(通过文本或语音将生成的结果反馈给用户)。 AIGC Weekly34 方面: 提出将 LLM 与互联网上的高质量内容结合来修复信息生态系统的问题,如 Metaphor 希望恢复搜索的神奇感,发布了 Metaphor API 用于将 LLM 连接到互联网。 介绍了 StarCraft II 作为强化学习环境的相关论文,提出了 AlphaStar Unplugged 基准测试。 提到了名为 Glean 的 AI 搜索工具能帮助用户在工作场景中进行搜索和优化,还讨论了人工智能人格模拟相关内容,如语言模型如何模拟和改变人格等。
2025-01-13
LLM输出的结果一致性如何保证
要保证 LLM 输出结果的一致性,可以采取以下几种策略: 1. Prompt 工程: 明确的待处理内容指引:在构建 Prompt 时,清晰地定义需要处理的文本,并使用标记框起来,让模型准确识别待处理内容范围,从中提取信息。 提供明确字段定义:具体化每个字段的名称、用途及要求,为 LLM 提供明确的提取方向和标准。 异常处理:设置异常处理原则,如规定缺失数据使用默认值填充,特殊数据类型符合标准格式,确保模型输出的完整性和一致性。 要求结构化输出:指示 LLM 以结构化格式(如 JSON)输出数据,便于后续处理和系统集成。 2. 自我一致性增强可靠性:促使 LLM 对同一问题产生多个答案,通过一致性审查衡量其可信度。一致性评估可从内容重叠、语义相似性评估及高级指标(如 BERT 分数或 ngram 重叠)等多方面进行,增强 LLM 在事实核查工具中的可靠性。 3. 衡量和评估不确定性:如牛津大学通过生成一个问题的多个答案,并使用另一个模型根据相似含义分组来衡量 LLM 不确定性。 4. 利用外部工具验证:如 Google DeepMind 推出的 SAFE,通过将 LLM 响应分解为单个事实、使用搜索引擎验证事实以及对语义相似的陈述进行聚类来评估 LLM 响应的真实性。 5. 借助其他 LLM 发现错误:如 OpenAI 推出的 CriticGPT,使用基于大量有缺陷输入数据集训练的 GPT 式 LLM 来发现其他 LLM 生成代码中的错误。 6. 利用 LLM 生成的评论增强 RLHF 的奖励模型:如 Cohere 使用一系列 LLM 为每个偏好数据对生成逐点评论,评估提示完成对的有效性。
2025-01-02
LLM是什么?
LLM(语言逻辑模型)是 LangChain 平台与各种大模型进行交互的核心模型,是一个能够处理语言输入和输出的抽象概念,可以理解为一个黑盒。 其输入是一个字符串,表示用户的请求或问题,输出也是一个字符串,表示模型的回答或结果。LLM 能根据不同输入调用不同大模型来完成不同语言任务,如文本生成、文本理解、文本翻译等。 从大模型的整体架构来看,LLM 处于模型层,例如 GPT 就是一种常见的 LLM,一般使用 transformer 算法实现。 LLM 的工作原理是像输入法的输入联想逻辑一样,一个字一个字地推理生成内容。通过将上下文加入输入,能帮助模型理解下一个字。但存在计算时带入全量数据算力吃不消以及仅算字的概率易被不相干信息干扰的问题,词向量机制和 transformer 模型中的 attention 自注意力机制解决了这些难题。
2025-01-02
如何在本地部署LLM,然后完成某个专业或者主题的专业知识库训练
以下是在本地部署 LLM 并完成某个专业或主题的专业知识库训练的详细步骤: 1. 部署大语言模型: 下载并安装 Ollama:根据电脑系统,点击进入 https://ollama.com/download 下载,下载完成后双击打开,点击“Install”。安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。 下载 qwen2:0.5b 模型:如果是 Windows 电脑,点击 win+R,输入 cmd 点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行粘贴进入并回车,等待自动下载完成。 2. 安装 Docker Desktop: 点击去下载,根据系统进行选择。以 Windows 系统为例,点击 https://docs.docker.com/desktop/install/windowsinstall/ 下载,双击下载项目,点击 ok 加载文件,点击“close and restart”重启电脑。重启后,点击“Accept”,选择第二个,点击"Finish",进入 Docker Desktop。 3. 部署 FastGPT+OneAPI: 在桌面按住“shift”+鼠标右键,选择“在此处打开 Powershell 窗口”,在窗口中一行一行输入并回车。等待上方命令执行完成,下载完成之后。回到桌面,打开 FastGPT 文件夹,右键 dockercompose.yml 文件,选择打开方式为记事本打开,查找并修改相关内容后保存。回到命令行窗口中,继续输入并回车。 4. 配置 OneAPI: 在浏览器中输入:http://localhost:3001 ,进入登录页,账号 root 密码 123456 点击登录。点击【渠道】【添加新的渠道】,类型选择 Ollama,名称设为 qwen2,模型设为 qwen2:0.5b,秘钥设为 sksky,代理设为 http://host.docker.internal:11434 ,点击提交。点击【令牌】【添加新令牌】,名称随意,时间设为永不过期、额度设为无限额度,点击【提交】,点击【令牌】复制 key。 5. 配置 FastGPT: 回到 FastGPT 文件夹里,用记事本打开“dockercompose.yml”文件,查找并修改相关内容后保存。打开 config.json,根据图示修改完成,把相关数值改成 1500 左右。在命令窗口中输入:docker compose down 等待执行完成,再输入:docker compose upd 等待执行完成。在浏览器上输入:http://localhost:3000 ,账号 root 密码 1234 点击进入,设置好后点击确定。发布 API 并创建一个 key。
2025-01-02
关于LLMs文本与图像混合模态训练
以下是关于 LLMs 文本与图像混合模态训练的相关内容: 多模态大模型总结: 1. InstructBLIP 基于预训练的 BLIP2 模型进行训练,在 MM IT 期间仅更新 QFormer。通过引入指令感知的视觉特征提取和相应的指令,能够提取灵活多样的特征。 2. PandaGPT 是一种开创性的通用模型,能够理解 6 种不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。 3. PaLIX 使用混合 VL 目标和单峰目标进行训练,包括前缀完成和屏蔽令牌完成。这种方法对于下游任务结果和在微调设置中实现帕累托前沿都是有效的。 4. VideoLLaMA 引入了多分支跨模式 PT 框架,使 LLMs 能够在与人类对话的同时处理给定视频的视觉和音频内容,使视觉与语言以及音频与语言保持一致。 5. 视频聊天 GPT 是专门为视频对话设计的模型,能够通过集成时空视觉表示来生成有关视频的讨论。 6. Shikra Chen 等人介绍了一种简单且统一的预训练 MMLLM,专为参考对话(涉及图像中区域和对象的讨论的任务)而定制,展示了值得称赞的泛化能力,可以有效处理看不见的设置。 7. DLP 提出 PFormer 来预测理想提示,并在单模态句子数据集上进行训练,展示了单模态训练增强 MM 学习的可行性。 未来发展方向: 最初,多模态融合方法常采用预训练的目标检测器,如 ViLBERT、VisualBERT 和 UnicoderVL,通过提取图像特征和执行交叉模态预训练任务,为后续的图像文本任务奠定基础。随着 ViT 的出现和普及,更多方法开始利用 ViT 作为图像编码器,强调大规模预训练,以提高模型的性能和泛化能力,例如 Flamingo。近期,向多模态 LLMs 的发展趋势是从进行预训练到向指令调整(instruction tuning)转变,例如 LLaVA 和 MiniGPT4,它们通过融合视觉和语言信息,能够更有效地完成视觉理解相关的任务,进一步提升模型对于指令的理解能力,提升零样本性能,使模型能够更好地泛化到未见过的任务和领域。 训练过程: 1. 预训练阶段:通常利用 XText 的数据集来训练输入、输出的 Projector,通过优化损失函数来实现不同模态的对齐,PEFT 有时候用于 LLM Backbone。XText 数据集包含图像文本、视频文本和音频文本,其中图像文本有两种类型:图像文本对和交错图像文本语料库。 2. 多模态微调:是对满足指令微调格式的一系列数据集对预训练好的多模态大模型进行微调。通过这种微调,MMLLM 可以遵循新的指令泛化到没有见过的任务,增强 zeroshot 的能力。MM IT 包括监督微调(SFT)和 RLHF 两部分,目的是为了使得模型符合人类的意图或者偏好,并且增强 MMLLMs 的交互能力。SFT 将 PT 阶段的数据转换为指令aware 的格式,使用 QA 任务作为例子,可采用各种模板。优化目标和预训练相同,SFT 数据可以构造为单轮的 QA 或者多轮的 QA。常用的 SFT 和 RLHF 的数据集见表 4。
2025-01-01
微信超级AI知识助手教学(下)
以下是关于微信超级 AI 知识助手教学(下)的相关信息: 时间:12 月 11 日 20:00 () 内容:个人助手的微信多模态接入教学 讲师:@张梦飞
2025-01-14
ai做微信表情包
以下是关于用 AI 做微信表情包的相关内容: Stuart 介绍了用 LLM 模拟人设来制作三思美女的微信沙雕表情包。先参考前面色卡方式,利用图片知识库,再通过大语言模型作为人设建立器,基于其判断从知识库中选取合适的表情包,从而让 bot 能以接近三思的聊天风格聊天。该 bot 由“七个小扣子团队”共创,成员众多,相关搭建视频可查看特定链接,也可关注公众号或加入成为共建者。 皮皮提到微信虚拟女友李洛云的相关注意事项,包括不应使用括号输出心理或动作,回复要极度简短、口语化,偶尔使用 emoji 表情包和四川话,尽量不反问,可表达负面情绪但不能骂人。还对一些规则进行了解读,并给出了实际测试结果,表明效果与模型有关,不同模型效果排名不同。但李洛云用的不是相关 prompt。
2025-01-13
可以搭建微信小程序的AI有哪些
以下是一些可以用于搭建微信小程序的 AI 相关工具和方法: 1. 通过 Zion 可以以 API 形式链接并搭建,相关教程可参考: 自定义配置方面,变现模版 UI 交互、API、数据库等拓展功能,支持在 Zion 内自由修改,可参考文档配置。支付相关可参考: Zion 支持小程序、Web、AI 行为流全栈搭建,APP 端全栈搭建预计 2025 上线。 2. Coze 变现模板正在全新升级,微信小程序变现模版正在开发中,12 月将会上线。目前实现小程序端可以通过 API 形式搭建,可参考 API 形式。同时有△AI 变现的小程序端案例。
2025-01-13
微信机器人
以下是关于微信机器人的相关知识: 测试和重新配置: 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。若未成功,可检查 config.json 文件中的配置或跳到“第四章,第 3 步”重启服务。 可为 AI 赋予不一样的提示词,可返回“第三章,第 7 步”更改设置。 进行任何更改后,需“返回首页 右上角 点击重启,重启一下服务器”。熟悉 Linux 操作也可通过重启进程的方式来重启服务。然后,在“文件”的【终端】里,直接输入“nohup python3 app.py&tail f nohup.out”重新扫码登录即可。 若想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 帮助:若遇到问题,可先查询社区知识库,或者加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可加 Stuart 个人微信询问。 机器人制作安装问题及解答汇总: 微信机器人无法正常画图,错误提示“{"Success":1,"error":{"code":4008,"message":"The specified key does not exist."}}”,查看/root/chatgptonwechat/run.log 中有相关提示。可能是点链接时多了一个小括号。 扫码后,手机登陆后无机器人反应,可能是配置错误或安装不对,需根据步骤逐一检查或重装。 机器人回答问题时,按照设计输入特定数字后应出现相应内容,但在微信机器人中始终只显示“内容加速生成中,请稍等”的消息,后面内容不出现。这不是问题,COW 本身处理不了,一次只能调取一个对话。有代码能力可直接调整代码实现。 宝塔登录不上去,按下图所示重启服务器,重启时间可能较久,但一定会重启成功,请耐心等待。 零基础模板化搭建 AI 微信聊天机器人: 重点是在复制的 dockercompose.yml 文件中修改配置串联微信号和已创建好的 AI 机器人,配置参考来源:https://docs.linkai.tech/cow/quickstart/config 。 从配置参数解释可知,配置里每个参考名称的全大写描述,如 open_ai_api_key 对应编排模板的 OPEN_AI_API_KEY 等。 私聊或群交流时,最好加上前缀触发机器人回复,如配置的,即对应的配置参数 SINGLE_CHAT_PREFIX,在私聊或群里发消息必须包含 bot 或者@bot 才会触发机器人回复。在群组里,对应配置参数是 GROUP_CHAT_PREFIX,机器人只会回复群里包含@bot 的消息。还有参数 GROUP_NAME_WHITE_LIST 用来配置哪些群组的消息需要自动回复。
2025-01-08
将Agent应用到微信公众号、企业客服
将 Agent 应用到微信公众号和企业客服可以参考以下内容: Dify 接入企业微信的步骤: 1. 在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 2. 下载 Dify on WeChat 项目并安装依赖。 3. 在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 4. 把基础编排聊天助手接入微信,可选择源码部署或 Docker 部署,进行快速启动测试,扫码登录并进行对话测试。 5. 把工作流编排聊天助手接入微信,包括创建知识库、导入知识库文件、创建工作流编排聊天助手应用、设置知识检索节点和 LLM 节点、发布更新并访问 API。 6. 把 Agent 应用接入微信,创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat 一些 Agent 构建平台: 1. Coze:新一代的一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具拓展 Bot 能力边界。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造大模型时代的产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托于钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 基于 COW 框架的 ChatBot 在企业微信的实现步骤: 1. 准备:企微的接入方式是通过企业微信应用完成,只能企业内部人员使用,暂时无法在外部群中使用。需要的资源包括一台服务器(海外服务器,有国内代理接口的话可使用国内服务器)、注册一个企业微信(个人也可注册,只是无法认证),如果是认证的企业微信,还需要一个对应主体备案的域名。 2. 创建企业微信应用:首先在说明。
2025-01-07
微信机器人
以下是关于微信机器人的相关内容: 测试和重新配置: 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复。若未成功,可检查 config.json 文件中的配置或跳到“第四章,第 3 步”重启服务。 可为 AI 赋予不一样的提示词,返回“第三章,第 7 步”更改设置。 进行任何更改后,需“返回首页 右上角 点击重启,重启一下服务器”。熟悉 Linux 操作也可通过重启进程的方式重启服务。然后在“文件”的【终端】里,输入“nohup python3 app.py&tail f nohup.out”重新扫码登录。 若想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 帮助:若遇到问题,可先查询社区知识库,或加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可加 Stuart 个人微信询问。 机器人制作安装问题及解答汇总: 微信机器人无法正常画图,错误提示可能是点击链接时多了一个小括号。 扫码后手机登录无机器人反应,可能是配置错误或安装不对,需逐一检查或重装。 机器人回答问题时,按照设计输入特定数字后应出现相应内容,若在微信中只显示“内容加速生成中,请稍等”,可能是 COW 本身处理限制,有代码能力可调整代码实现。 宝塔登录不上去,可按下图所示重启服务器,重启时间可能较久,请耐心等待。 零基础模板化搭建 AI 微信聊天机器人: 重点是在复制的 dockercompose.yml 文件中修改配置串联微信号和已创建好的 AI 机器人,配置参考来源为 https://docs.linkai.tech/cow/quickstart/config 。 配置参数解释中,名称全大写描述对应编排模板,如 open_ai_api_key 对应 OPEN_AI_API_KEY 等。 私聊或群交流时最好加上前缀触发机器人回复,如配置的,即对应的配置参数 SINGLE_CHAT_PREFIX,在群组里对应配置参数是 GROUP_CHAT_PREFIX,机器人只会回复群里包含@bot 的消息。GROUP_NAME_WHITE_LIST 用来配置哪些群组的消息需要自动回复。
2025-01-05
如何用coze搭建一个总结聊天记录的功能
以下是用 Coze 搭建一个总结聊天记录功能的步骤: 1. 设计 Bot 目的:明确 Bot 的用途,例如作为一个 AI 学习助手,帮助职场专业人士提升在人工智能领域的知识和技能,并提供高效的站内信息检索服务。 2. 了解 Coze 平台常用概念和功能:包括提示词(设定 Bot 的身份和目标)、插件(通过 API 连接集成各种平台和服务)、工作流(设计复杂的多步骤任务)、触发器(创建定时任务)、记忆库(保留对话细节,支持外部知识库)、变量(保存用户个人信息)、数据库(存储和管理结构化数据)、长期记忆(总结聊天对话内容)。 3. 进行 Bot 基础设置:根据机器人的作用,设计人设和回复逻辑,限制机器人的功能使其更专注于 AI 相关的知识回答和服务,还可以加入长期记忆功能来总结聊天对话内容以更好地响应用户消息,以及设计更加美观的 Bot 开场白。 注:Coze 官方使用指南见链接:https://www.coze.cn/docs/guides/welcome ,遇到疑问也可以查官方指南。
2024-11-15
搭建一个总结聊天记录的ai
以下是搭建一个总结聊天记录的 AI 的步骤: 1. 整理聊天记录为数据集: 如果导出了多个人的聊天记录,需手动将文件下的内容汇总到一起。 汇总完成后,保存汇总文件为“train.json”。 在当前文件夹下新建一个文本文档,重命名为“1.py”,用记事本打开并粘贴相应代码。注意标红的地方需要修改。 打开命令行窗口,输入“python 1.py”完成聊天记录整理,此步骤在后续第 31 步会用到。 2. 图文原文处理: 微信无法批量复制聊天内容,多选想要复制的聊天内容,转发到群里或文件传输助手。 收藏批量转发的聊天记录,打开收藏,点进笔记,点右上角三个点,转存为笔记,返回即可全选复制所有内容。 可使用能让电脑设备和手机设备剪切板共享的工具,避免在微信文件传输助手间折腾。 3. GPTs: 若重复做同一件事三次以上,应考虑优化步骤,可创建内容排版大师的 GPTs。 GPTs 链接:https://chat.openai.com/g/gt9dIHp4Ntneirongpaibandashi 。 该 GPTs 已加入 webpilot 的 actions,可直接将文章发给它总结内容。 4. 小卡片软件: 使用的卡片软件是小作卡片 app,官网链接:https://kosaku.imxie.club/ 。 操作步骤:打开软件,点击「自制卡片」,在「记录些什么...」中粘贴 AI 生成文本内容,点击右下角保存图标即可导出。
2024-11-15
分析微信聊天记录的智能体
以下是关于分析微信聊天记录的智能体的相关信息: 从维度转换能力的角度来看,将各种问题、业务数据等转化为语言信息与语言模型交流能提高效率,但要注意对维度的理解,避免因语言的一维性导致交流偏差。 在业务助手中,主要有助手方式和业务环方式。助手方式是进行工作辅助,大模型负责优化、检索、启发等;业务环方式是大模型作为主业务流程中的一环,自动处理内容并生成结果。 像 Coze 这样的 Bot 智能体,可以实现多模态资讯的跨平台推送。其初衷是让用户拥有专属助手,精准筛选有价值信息。它以扣子为中心平台,通过自研插件、工作流和 API 链接微信群、企业微信群、飞书云文档多维表格等,能根据用户需求抓取热点资讯,分析处理并以多模态形式自动推送到不同平台。 在基于百川大模型的创作中,可将聊天记录的上下文转换为问答对,并对相邻信息做合并处理,还能根据需求筛选指定群或聊天对象的记录。聊天上下文窗口大小可依场景设置。
2024-09-30
消费行业ai案例
以下是一些消费行业的 AI 案例: 《2024 生成式 AI 商业落地白皮书》由火山引擎、RollingAI 和 InfoQ 研究中心联合发布,为 CXO 提供 AI 转型战术指南。书中通过 240 个应用场景地图,展示了 AI 在消费零售等行业的落地案例,探讨了 AI 基础设施构建、项目落地准备和快速补齐能力差距等关键问题,并提出了八步实施大模型接入的方法论。 关于 AI 的最强大之处之一是它能使产品个性化用户体验。这方面的早期应用已经出现在教育科技和搜索中,预计这种定制将是许多 AI 启用产品的核心价值主张。 此外,人工智能在汽车行业也有广泛应用: 自动驾驶技术:利用 AI 进行图像识别、传感器数据分析和决策制定,自动驾驶汽车能够自主导航和驾驶。 车辆安全系统:AI 被用于增强车辆的安全性能,如自动紧急制动、车道保持辅助和盲点检测系统。 个性化用户体验:AI 可以根据驾驶员的偏好和习惯来调整车辆设置。 预测性维护:通过分析车辆的实时数据,AI 可以预测潜在的故障和维护需求。 生产自动化:在汽车制造过程中,AI 被用于自动化生产线,提高生产效率和质量控制。 销售和市场分析:汽车公司使用 AI 来分析市场趋势、消费者行为和销售数据。 电动化和能源管理:AI 在电动汽车的电池管理和充电策略中发挥作用。 共享出行服务:AI 支持的共享出行服务,使用 AI 来优化路线规划、调度车辆和定价策略。 语音助手和车载娱乐:AI 驱动的语音助手允许驾驶员通过语音命令控制车辆功能、获取信息和娱乐内容。 车辆远程监控和诊断:AI 系统可以远程监控车辆状态,提供实时诊断和支持。
2025-01-14
使用 AI 生成的案例研究或模拟场景
以下是一些使用 AI 生成的案例研究或模拟场景: 在 3D 模型生成中,AI 可直接完成可调整的 3D 粗模,提升美术工作流效率。 在游戏测试环节,AI 存在 3 大模拟场景,包括 AI 玩家模拟、AI NPC 和 AI 游戏模型测试,在优化环节承担改善角色动画等功能。 在游戏设计中,AI 依托自然语言生成用法生成角色与故事,训练智能 NPC。 在音乐与音效方面,AI 生成音乐有基于乐理规则的符号生成模型和基于音频数据的音频生成模型两种主流技术路线,可用于游戏制作。 在测试用例方面,基于模型的测试生成有状态模型和场景模拟,如 GraphWalker、Spec Explorer 等工具,以及 Testim、Test.ai 等平台的应用示例。 在 AI+游戏场景中,有“从游戏截图升级到 KV 品质,AI 居然可以这样用!”“《LORA 模型训练超入门级教程》人人都可以当炼金术士”“人人可以做原画,如何运用 Midjourney+Stable Diffusion 进行角色原画设计”等案例。
2025-01-13
AI数据分析的案例
以下是一些 AI 数据分析的案例: ChatGPT 助力数据分析 在 AI 爆炸的时代,ChatGPT 与数据分析结合有多种应用方式。 实现方式: 1. SQL 分析:分析平台自身的使用情况,例如图表配置化平台,输入一句话可分析用户配置图表相关的数据。 2. 个性化分析:平台上支持上传数据,可提供数据信息(非必填),以此自定义分析用户自己上传的数据。 流程: 1. SQL 分析:用户描述想分析的内容,后台连接 DB,附带表结构信息让 AI 输出 SQL 语句,校验是 SELECT 类型的 SQL,其他操作如 UPDATE/DELETE 绝不能通过!校验通过后执行 SQL 返回结果数据。再将数据传给 ChatGPT(附带上下文),让其学习并分析数据,最后输出分析结论和建议,和结果数据一起返回给前端页面渲染图表、展示分析结论。目前已实现两张表关联查询。 2. 个性化分析:用户上传文件,如有需要可以简单描述这是什么数据、字段意义或作用辅助分析。前端解析用户上传的文件,再传给 ChatGPT 分析数据,后续步骤与 SQL 分析一致。 专利审查方面的 AI 1. 专利趋势分析和预测:AI 可以分析大量的专利数据,识别技术发展趋势和竞争情报,帮助企业和研究机构制定战略决策。 示例平台: Innography:利用 AI 技术分析专利数据,提供技术趋势分析和竞争情报。 PatSnap:AI 驱动的平台,分析专利数据和技术趋势,提供全面的专利情报和市场分析。 2. 具体 AI 应用示例: Google Patents:使用 AI 技术进行专利文献的全文检索和分析。通过机器学习算法,系统可以理解专利文献的内容,并提供相关性更高的检索结果。优点是提高了专利检索的准确性和效率,用户可以快速找到相关的专利文献。 IBM Watson for IP:利用 NLP 和机器学习技术,自动化地进行专利检索、分类和分析。系统可以自动提取专利文献中的关键信息,并对专利的技术内容进行分类和评估。优点是减少了人工工作量,提高了专利审查的效率和准确性。 使用这些平台的步骤: 1. 注册和登录:在对应的平台上注册账户并登录。 2. 上传专利文献:上传待审查的专利文献或输入检索关键词。 3. 选择分析功能:根据需要选择专利检索、分析、评估或生成功能。 4. 查看结果和报告:查看 AI 生成的检索结果、分析报告和评估结果。 5. 进一步处理:根据分析结果进行进一步的人工审查和处理,或者直接生成专利申请文件。 总结:AI 技术在专利审查领域的应用,可以极大地提高工作效率,减少人工工作量,提高专利检索、分类和分析的准确性和效率。上述平台和工具展示了 AI 在专利审查各个环节的具体应用,帮助专利审查员和申请人更高效地处理专利相关事务。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-09
AiGc动画案例分享
以下为一些 AIGC 动画的案例分享: 伊利 QQ 星 AI 动画项目: 项目前期:进行沟通报价、确定方向和内容并写脚本,脚本创作可借助 AI 但要有自己想法。 项目中期:根据脚本出图,采用 MJ、SD、GPT 出图,涉及产品融入、合成等操作,同时进行剪辑、配乐等工作,还提及配音等相关经验。 项目后期:做项目总结,复盘优缺点。 AIGC 商业广告: 制作前期:先定框架,包含定向、写脚本,确定内容呈现形式、调性、风格和人物设定等。 制作中期:根据脚本出图,同步剪辑,收集音效配音,如遇到跑图中带文字乱掉等问题可进行 AI 处理和产品跟踪。 制作后期:对现有视频进行优化,做字体包装和跟踪字体。 ANIME ROCK, PAPER, SCISSORS 动画: 这是一个通过绿幕动作捕捉,在虚幻中制作虚拟场景,然后通过 Stable Diffusion 生成的动漫。120 个视觉特效镜头由一个 3 人小组在一秒钟内完成。 制作过程中使用的主要工具为:Stable Diffusion 模型+DreamBooth 微调、虚幻引擎+资产存储 3D 模型、Img2Img+DeFlickering 效果、大量的老式的 VFX 合成。 视频的制作步骤包括:训练模型复制特定风格、训练一个 LoRA 模型来认识一个角色、通过 img2img 处理绿屏动捕的视频、使用 Deflicker 插件减少闪烁、在虚幻 5 中添加 3D 元素、在 Resolve 中进行最终 VFX 合成/编辑。为了最后的打磨,添加了大量老式视觉特效,如强调运动的速度线、模拟电影摄像机/单元格动画的发光体、虚幻中的动态元素(如蜡烛)、设置室内气氛的体积光射线、编辑和设计声音。 在配音方面,商业片子做好配音很重要,普通话不标准时花钱找人配音比 AI 配音效果好。在字体方面,字体包装在视频中很重要,很多人在这方面常犯错,如温馨画面加黑色描边字体。在 AI 动态的后期包装与剪辑技巧方面,后期包装思路可通过添加光效渲染氛围,对素材进行跟踪以替换产品,还可进行素材叠加。剪辑在 AI 动画中占比 45%,好的剪辑师能将素材处理得更好,不成熟的剪辑师可能会把好素材搞砸。镜头主接需注意景别丰富,如全景、中景、特写、近景等。在空间关系中存在轴线问题,如人物位置突然变化会导致视觉跳跃,还有关系轴线和运动轴线,越轴会让观众观感不适。AI 动画的调色流程方面,对色彩有特别要求可在达芬奇里完成剪辑调色流程,简单调色可在剪映中通过肉眼大致判断校正颜色,剪映中有色轮和曲线可用于调色。
2025-01-08
有没有ai制作海报的软件或者网站,最好能理解案例图片的
以下是一些可以用 AI 制作海报的软件和网站,并为您附上相关案例和使用方法: 1. 无界 AI: 网址:https://www.wujieai.cc/ 做图逻辑类似于 SD,优势在于国内网络即可稳定使用,有免费出图点数,支持中文关键词输入,无需额外下载风格模型,可直接取用。 应用场景示例:朋友圈 po 图,画幅比例选择 1:1。 皮克斯卡通模型位置:二次元模型》模型主题》皮克斯卡通。 关键词类别:场景(如向日葵花田、面包店等)、氛围(如温馨、温暖等)、人物(如父亲和女儿、父亲和儿子)、造型(如发型、发色、服饰、配饰)、情绪(如笑得很开心、大笑、对视等)、道具(如童话书等)、构图(如半身、中景等)、画面(色彩明艳)。 2. Canva(可画): 网址:https://www.canva.cn/ 是一个非常受欢迎的在线设计工具,提供大量模板和设计元素,用户可通过简单拖放操作创建海报,其 AI 功能可帮助选择合适颜色搭配和字体样式。 3. 稿定设计: 网址:https://www.gaoding.com/ 稿定智能设计工具采用先进人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 4. VistaCreate: 网址:https://create.vista.com/ 简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,智能建议功能可帮助快速找到合适设计元素。 5. Microsoft Designer: 网址:https://designer.microsoft.com/ 通过简单拖放界面,用户可快速创建演示文稿、社交媒体帖子和其他视觉内容,还集成丰富模板库和自动图像编辑功能,如智能布局和文字优化,大大简化设计流程。 此外,还有东阿阿胶的海报设计案例分享: 1. 拆解步骤:得到需求 提取元素 绘制线稿 用 controlnet 转绘上色 ps 优化 定稿。 2. 需求元素:风格要潮流插画,还要有唐代元素和国潮(前期基本上是沟通成本,主要定线稿)。 3. 提取元素:获取的信息需要体现产品图,需要体现唐代元素,需要 logo 在中心位置,按照需求开始绘制线稿。 4. 线稿绘制:沟通的元素是牡丹花,驴子(最后换成了琵琶),人参和产品图和 logo,所以进行线稿调整绘制(中间很多细节沟通)最终定下线稿(里面很多元素都是拼接的)。 5. 拆分元素线稿:这一步非常重要,因为会涉及到后续元素替换等问题,比如单个 logo,产品等,提取出单独元素,进行绘制,最后进行替换。 6. 单个元素绘制:这样会让单个元素更加精致,也方便后期替换。 7. 然后利用拼接好的线稿进行大量跑图抽卡,选出一张最合适的进行 ps 优化。 8. 整体拼接上色后的效果(将单独跑的元素在 ps 里替换优化,再过一遍 sd 进行溶图放大)得到以下效果。 9. 最终客户把驴子去掉了,换成了一把琵琶,也是同产品图一样的做法,最后把琵琶替换掉驴子,得到定稿图。 上色运用的大模型:GhostMix 鬼混_V2.0 lora 模型:"盒子系列——平面国潮插画_v1.0:182ba9e2f576 controlnet 模型:"Module:lineart_coarse,Model:contr"
2025-01-07
最近Agent方面的场景案例
以下是一些关于 Agent 方面的场景案例: 1. 吴恩达最新演讲中提到的四种 Agent 设计范式: Reflection(反思):例如让用 Reflection 构建好的 AI 系统写代码,AI 会把代码加上检查正确性和修改的话术再返回给自己,通过反复操作完成自我迭代,虽不能保证修改后代码质量,但效果通常更好。 Tool Use(工具使用):大语言模型调用插件,极大拓展了 LLM 的边界能力。 Planning(规划):属于比较新颖且有前景的方式。 Multiagent(多智能体):也具有发展潜力。 2. Ranger 文章中的相关内容: Agent 被认为是大模型未来的主要发展方向。 中间的“智能体”通常是 LLM 或大模型,通过为其增加工具、记忆、行动、规划这四个能力来实现。 行业里主要用到的是 langchain 框架,它在 prompt 层和工具层完成主要的设计,将 LLM 与 LLM 以及 LLM 与工具进行串接。 3. 从词源和历史变迁来看: 在不同时期,“Agent”在商业、政府、情报、娱乐、体育等领域都有重要角色,涵盖贸易代理、公司代理商、情报特工、艺人经纪人等多种职业。 “Agent”一词具有行动和替身的含义,多数情况下指“拥有行动的替身,替代他人做某事”。
2025-01-07