Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

ai agent 框架有哪些

Answer

目前常见的 AI Agent 框架主要有以下几种:

  1. LangChain 的 LangGraph:通过简化标准底层任务,如调用 LLM、定义和解析工具、链接调用等,使入门变得容易,但可能创建额外抽象层,增加调试难度。
  2. 亚马逊 Bedrock 的 AI Agent 框架。
  3. Rivet:拖放式 GUI 的 LLM 工作流构建器。
  4. Vellum:用于构建和测试复杂工作流的 GUI 工具。

此外,行业里常用于为 LLM 增加工具、记忆、行动、规划等能力的框架是 LangChain,它把 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。AutoGPT 被描述为使 GPT-4 完全自主的实验性开源尝试,也是一种重要的框架。但需要注意的是,当前大多数代理框架都处于概念验证阶段,还不能可靠、可重现地完成任务。

Content generated by AI large model, please carefully verify (powered by aily)

References

小七姐:来自 Anthropic 的建议:构建高效智能体

在构建基于LLM的应用时,我们建议先寻找最简单的解决方案,只在必要时增加复杂度。这可能意味着完全不使用智能系统。智能系统通常会以延迟和成本为代价来换取更好的任务表现,开发者需要考虑这种权衡是否合理。当需要更复杂的解决方案时,工作流适合需要可预测性和一致性的明确任务,而智能体则更适合需要灵活性和模型驱动决策的大规模场景。然而,对于许多应用来说,优化单个LLM调用(配合检索和上下文示例)通常就足够了。[heading3]什么时候以及如何使用框架[content]目前有许多框架可以简化智能系统的实现,包括:LangChain的LangGraph亚马逊Bedrock的AI Agent框架Rivet(一个拖放式GUI的LLM工作流构建器)Vellum(另一个用于构建和测试复杂工作流的GUI工具)这些框架通过简化标准的底层任务(如调用LLM、定义和解析工具、链接调用等)使入门变得容易。但它们往往会创建额外的抽象层,这可能会使底层提示词和响应变得难以调试。它们也可能诱使开发者在简单设置就足够的情况下增加不必要的复杂性。我们建议开发者先直接使用LLM API:许多模式只需要几行代码就能实现。如果确实要使用框架,请确保理解底层代码。对底层机制的错误假设是客户常见的错误来源。详细示例请参考我们的实践指南。https://github.com/anthropics/anthropic-cookbook/tree/main/patterns/agents[heading3]构建模块、工作流和智能体[content]在这一部分,我们将探讨我们在生产环境中观察到的智能系统常用模式。我们将从基础构建模块——增强型LLM开始,逐步增加复杂度,从简单的组合工作流到自主智能体。

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

agent算是从年前到现在,比较火的一个概念了,也被很多人认为是大模型的未来的一个主要发展方向。首先我们看这个很经典的一张图看起来还是蛮复杂的,然后市面上的很多描述agent的文章写的也比较复杂,说智能体是啥智能的最小单元,相较于copilot,是可以给他设定一个目标后主动完成任务的等等。当然这些说法都没错,但是我觉得还是有些不好理解的。所以我们依然先从原理着手去理解下,agent是个什么东西。首先这张图里,中间的“智能体”,其实就是llm,或者说大模型。四个箭头,分别是我们为llm增加的四个能力。工具、记忆、行动、规划。那么这个是怎么新增的呢?目前行业里主要用到的是一个叫langchain的框架,这个框架可以简单理解为,他把llm和llm之间,以及llm和工具之间,通过代码或prompt的形式,进行了串接。这个其实也像是在rag的基础上再进了一步。因为我们知道rag其实是给了大模型一个浏览器工具来使用嘛,那agent,其实就是给了大模型更多的工具。比如像是长期记忆,其实就是给了大模型一个数据库工具让其往里记录重要信息。规划和行动,其实就是在大模型的prompt层做的些逻辑,比如让其将目标进行每一步的拆解,拆解完成后,每一步去输出不同的固定格式action指令,给到工具作为输入。当然langchain或者说agent还不止这些,也会有很多其他的代码逻辑体现在其中,不过其主要的主干逻辑,其实还是在prompt层和工具层,完成的设计。

LLM 应用程序的新兴架构

此参考架构中缺少的最重要组件是AI代理框架。[AutoGPT](https://github.com/Significant-Gravitas/Auto-GPT)被描述为“使GPT-4完全自主的实验性开源尝试”,是今年春天[历史上增长最快的Github项目](https://twitter.com/OfficialLoganK/status/1647757809654562816),实际上今天的每个AI项目或初创公司都包含某种形式的代理。与我们交谈的大多数开发人员都对代理的潜力感到非常兴奋。我们在这篇文章中描述的上下文学习模式可有效解决幻觉和数据新鲜度问题,以便更好地支持内容生成任务。另一方面,代理为人工智能应用程序提供了一组全新的功能:解决复杂的问题,解决复杂问题,对外界采取行动,以及在部署后从经验中学习。他们通过高级推理/规划、工具使用、记忆/递归/自我反思的组合来实现这一点。因此,代理有可能成为LLM应用程序架构的核心部分(如果您相信递归自我改进,甚至可以接管整个堆栈)。像LangChain这样的现有框架已经包含了一些代理概念。只有一个问题:代理还没有真正起作用。今天的大多数代理框架都处于概念验证阶段——能够进行令人难以置信的演示,但还不能可靠、可重现地完成任务。我们正在密切关注它们在不久的将来会如何发展。[heading2]展望未来[content]预训练的AI模型代表了自互联网以来软件架构的最重要的变化。他们使得个人开发者能够在几天内构建出令人难以置信的AI应用,这些应用超过了大团队花费几个月时间构建的监督机器学习项目。我们在此处列出的工具和模式可能是集成LLM的起点,而不是终点。我们将在发生重大变化时更新此信息(例如,转向模型训练)并在有意义的地方发布新的参考架构。如果您有任何反馈或建议,请联系我们。

Others are asking
如何利用多轮对话做Agent问答
利用多轮对话做 Agent 问答可以从以下几个方面考虑: 1. 从产品角度: 思考用户为何想使用,例如通过探索历史新闻让用户更好地了解自身背景、成长环境,从中学习成长并获得有趣互动体验。 明确 Agent 是谁及其性格,比如设定为知识渊博、温暖亲切、富有同情心的历史新闻探索向导,负责新闻解析和历史背景分析。 确定提供新闻的时间,如用户出生那天及那一周的重要新闻事件。 规划除新闻外的能力,如提供历史背景分析、相关画作、生活方式分析,甚至加入神秘主义者和心理学家角色回应用户。 设计多 Agent 出场顺序和使用方式,通过多角色互动设计,让用户体验多层次对话,从基本问答到深度讨论,逐步引导用户探索。 2. 基于 LLM 的大脑模块: 自然语言交互方面:LLM 应具备多轮对话能力,能理解自然语言并生成连贯、上下文相关的回复,还应具备出色的生成能力和意图理解能力,但要注意模糊指令可能带来的挑战。 知识方面:包括语言知识(词法、句法、语义学和语用学)、常识知识(如药和伞的用途)、专业领域知识(如编程、医学),但要注意知识可能过时或错误,需通过重新训练或编辑 LLM 解决。 记忆方面:具备记忆机制,存储过去的观察、思考和行动,通过提高输入长度限制、记忆总结、用向量或数据结构压缩记忆等策略提升记忆,Agent 能检索记忆以访问相关信息,包括自动检索和交互式记忆对象。 推理和规划方面:基于证据和逻辑进行推理,这对解决问题和决策至关重要。
2025-01-08
小红书配图建议的 Agent
以下是为您提供的关于小红书配图建议的相关内容: 彬子在基于 ComfyUI 做油管封面的分享中提到,他是 ComfyUI 新人,之前更多使用 Coze 做 Agent,涉及绘图功能会调用 Coze 的图像流。Glif 提供的云端 ComfyUI 带来更多图像玩法,Coze 的工作流和 ComfyUI 的图像流代表了 Agent 内部两个子领域的领先水平,但大多数同学专注其一领域精进,好处是能做出落地的 Agent,短板是依赖平台或社区弥补。例如,熟悉 Coze 的同学开发助理类 Bot 便捷但出图自由度不高,熟悉 ComfyUI 的同学能完成高水平图像、视频流但流程中 Agent 含量不高。只要从擅长的阵地多迈出一步,就能更好把控在一个 Agent 中如何设计和运用各种节点。 彬子还在 2024 AI 年度小记中提到,其小红书主页为 ,发小红书除记录外希望找到更多探索的朋友,会有企业人员咨询或求助,但当时个人面向企业挣钱难,大企业决策链长,小企业信息化和文档沉淀不足。7 8 月小红书更新进入瓶颈,后参与 WaytoAGI 社区的 Coze 活动。 此外,还有教程“11_小暑”,作者为三思,可复制版本:https://mp.weixin.qq.com/s/mqT00X85iCR27KFiZazUoQ ,访问 ,并推荐特别适合做夏日的 lora—夏日白莲/咖菲猫咪,https://www.liblib.art/modelinfo/c7990c5616054e28825a44378637d71c?from=personal_page ,但这套效果不稳定,需更新调整关键词和参数。
2025-01-08
最近Agent方面的场景案例
以下是一些关于 Agent 方面的场景案例: 1. 吴恩达最新演讲中提到的四种 Agent 设计范式: Reflection(反思):例如让用 Reflection 构建好的 AI 系统写代码,AI 会把代码加上检查正确性和修改的话术再返回给自己,通过反复操作完成自我迭代,虽不能保证修改后代码质量,但效果通常更好。 Tool Use(工具使用):大语言模型调用插件,极大拓展了 LLM 的边界能力。 Planning(规划):属于比较新颖且有前景的方式。 Multiagent(多智能体):也具有发展潜力。 2. Ranger 文章中的相关内容: Agent 被认为是大模型未来的主要发展方向。 中间的“智能体”通常是 LLM 或大模型,通过为其增加工具、记忆、行动、规划这四个能力来实现。 行业里主要用到的是 langchain 框架,它在 prompt 层和工具层完成主要的设计,将 LLM 与 LLM 以及 LLM 与工具进行串接。 3. 从词源和历史变迁来看: 在不同时期,“Agent”在商业、政府、情报、娱乐、体育等领域都有重要角色,涵盖贸易代理、公司代理商、情报特工、艺人经纪人等多种职业。 “Agent”一词具有行动和替身的含义,多数情况下指“拥有行动的替身,替代他人做某事”。
2025-01-07
如何设计问答agent
设计问答 Agent 可以从以下几个方面考虑: 1. 明确 Agent 的身份和性格: 身份:例如将其设定为历史新闻探索向导。 性格:如知识渊博、温暖亲切、富有同情心。 为使角色更生动,可设计简短背景故事,比如曾是历史学家,对重大历史事件了如指掌,充满热情并愿意分享知识。 2. 写好角色个性: 角色背景和身份:编写背景故事,明确起源、经历和动机。 性格和语气:定义性格特点,如友好、幽默、严肃或神秘;确定说话方式和风格。 角色互动方式:设计从基本问答到深入讨论的对话风格。 角色技能:明确核心功能,如提供新闻解析、历史背景分析或心理分析;增加附加功能以提高吸引力和实用性。 3. 一些好的 Agent 构建平台包括: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具拓展 Bot 能力。 Mircosoft 的 Copilot Studio:主要功能有外挂数据、定义流程、调用 API 和操作,以及部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景方面表现出色。 请注意,以上信息由 AI 大模型生成,请仔细甄别。
2025-01-07
部署Agent专属的web端应用
以下是关于部署 Agent 专属的 web 端应用的相关内容: 在 Linux 上部署较为简单,前提是您有一张 4G 以上显存的 GPU 显卡。步骤如下: 1. 下载代码仓库。 2. 安装依赖(注意有两个依赖未放在 requirements.txt 里)。 3. 启动 webui 的 demo 程序,然后用浏览器登陆服务器的 ip:8080 就能试玩。此 demo 提供了 3 个参数: server_name:服务器的 ip 地址,默认 0.0.0.0。 servic_port:即将开启的端口号。 local_path:模型存储的本地路径。 4. 第一次启动生成语音时,需查看控制台输出,会下载一些模型文件,可能因网络问题失败,但首次加载成功后后续会顺利。 5. 基于此基础可拓展,比如集成到 agent 的工具中,结合 chatgpt 做更拟人化的实时沟通。 6. webui 上可设置的几个参数说明: text:指需要转换成语音的文字内容。 Refine text:选择是否自动对输入的文本进行优化处理。 Audio Seed:语音种子,是一个用于选择声音类型的数字参数,默认值为 2,是很知性的女孩子的声音。 Text Seed:文本种子,是一个正整数参数,用于 refine 文本的停顿,实测文本的停顿设置会影响音色、音调。 额外提示词(可写在 input Text 里):用于添加笑声、停顿等效果,例如。 以下是一些 Agent 构建平台: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具拓展 Bot 能力边界。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据需求打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,提供环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 以上信息仅供参考,您可根据自身需求选择适合的平台。
2025-01-07
将Agent应用钉钉平台
将 Agent 应用于钉钉平台的步骤如下: 1. 首先,您可以参考 Dify 接入微信的相关教程。在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 2. 下载 Dify on WeChat 项目并安装依赖。 3. 在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 4. 把基础编排聊天助手接入微信,可选择源码部署或 Docker 部署,进行快速启动测试,扫码登录,进行对话测试。 5. 把工作流编排聊天助手接入微信,创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 6. 把 Agent 应用接入微信,创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。 以下是一些 Agent 构建平台供您参考: 1. Coze:新一代一站式 AI Bot 开发平台,适用于构建各类问答 Bot,集成丰富插件工具。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于多种场景,提供多种成熟模板。 6. 钉钉 AI 超级助理:依托钉钉强大的场景和数据优势,在处理高频工作场景表现出色。 如果您想零基础模板化搭建 AI 微信聊天机器人,添加各种自定义 COW 插件到微信机器人,部署 COW 插件的步骤如下: 1. 直接点击 Apilot 平台以下位置来复制保存好 Apilot 的 API 令牌。 2. 在宝塔服务器创建一个 config.json 文件,将相关内容复制到文件中,注意更新 sum4all 和 Apilot 的两个 API 令牌。 3. 重新删掉之前正在跑的机器人服务,重新使用新的编排模板来跑微信机器人。 4. 运行过程中如需修改 config.json 文件里的配置,可在文件位置进行内容修改,修改保存后,在容器板块中对应在跑的机器人服务点击重启即可。 更多详细内容请访问相关原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat
2025-01-07
我想了解下目前AI数字人的发展情况
AI 数字人是运用数字技术创造出来的,虽现阶段未达科幻作品中的高度智能,但已在生活多场景中出现且应用爆发。目前业界对其无准确定义,一般可分真人驱动和算法驱动两类。 真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要用于影视、直播带货等,表现质量与建模精细度和动捕设备精密程度有关,现视觉算法进步,无昂贵设备也能通过摄像头捕捉关键信息达到不错效果。 数字人未来有很多应用场景,如家庭中的数字人管家、学校里的数字人老师、商场中的数字人导购等。未来还会有技术突破,如将五感数据和躯壳控制参数作为输入,算法能自我迭代升级等。 其类型和应用场景包括二维/三维虚拟人用于游戏、IP 品牌、内容创作等;真人形象数字人用于直播卖货、营销/投流广告视频录制、语言学习等。 价值在于代替人说话,提升表达和营销效率,如能 24 小时直播;创造真实世界无法完成的对话或交流。 但面临一些问题,如平台限制,数字人水平参差不齐,平台有打压限制;技术限制,智能水平依赖大模型技术提升;需求限制,直播带货是落地场景但不刚,刚需场景受限,更多是体验新鲜感;伦理/法律限制,涉及声音、影像版权等。
2025-01-09
数据解读类的AI大模型
以下是关于数据解读类的 AI 大模型的相关知识: 大模型的整体架构可以分为以下几层: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:这里的数据层不是用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型,例如 GPT,一般使用 transformer 算法来实现)或多模态模型(如市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集)。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,是用户实际看到的地方。 相关技术名词及概念: 1. 生成式 AI 生成的内容叫做 AIGC。 2. AI 即人工智能。 3. 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗。 4. 深度学习是一种参照人脑有神经网络和神经元(因有很多层所以叫深度)的方法,神经网络可以用于监督学习、无监督学习、强化学习。 5. 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 6. LLM 是大语言模型,对于生成式 AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN),Transformer 比 RNN 更适合处理文本的长距离依赖性。
2025-01-09
AI数据分析的案例
以下是一些 AI 数据分析的案例: ChatGPT 助力数据分析 在 AI 爆炸的时代,ChatGPT 与数据分析结合有多种应用方式。 实现方式: 1. SQL 分析:分析平台自身的使用情况,例如图表配置化平台,输入一句话可分析用户配置图表相关的数据。 2. 个性化分析:平台上支持上传数据,可提供数据信息(非必填),以此自定义分析用户自己上传的数据。 流程: 1. SQL 分析:用户描述想分析的内容,后台连接 DB,附带表结构信息让 AI 输出 SQL 语句,校验是 SELECT 类型的 SQL,其他操作如 UPDATE/DELETE 绝不能通过!校验通过后执行 SQL 返回结果数据。再将数据传给 ChatGPT(附带上下文),让其学习并分析数据,最后输出分析结论和建议,和结果数据一起返回给前端页面渲染图表、展示分析结论。目前已实现两张表关联查询。 2. 个性化分析:用户上传文件,如有需要可以简单描述这是什么数据、字段意义或作用辅助分析。前端解析用户上传的文件,再传给 ChatGPT 分析数据,后续步骤与 SQL 分析一致。 专利审查方面的 AI 1. 专利趋势分析和预测:AI 可以分析大量的专利数据,识别技术发展趋势和竞争情报,帮助企业和研究机构制定战略决策。 示例平台: Innography:利用 AI 技术分析专利数据,提供技术趋势分析和竞争情报。 PatSnap:AI 驱动的平台,分析专利数据和技术趋势,提供全面的专利情报和市场分析。 2. 具体 AI 应用示例: Google Patents:使用 AI 技术进行专利文献的全文检索和分析。通过机器学习算法,系统可以理解专利文献的内容,并提供相关性更高的检索结果。优点是提高了专利检索的准确性和效率,用户可以快速找到相关的专利文献。 IBM Watson for IP:利用 NLP 和机器学习技术,自动化地进行专利检索、分类和分析。系统可以自动提取专利文献中的关键信息,并对专利的技术内容进行分类和评估。优点是减少了人工工作量,提高了专利审查的效率和准确性。 使用这些平台的步骤: 1. 注册和登录:在对应的平台上注册账户并登录。 2. 上传专利文献:上传待审查的专利文献或输入检索关键词。 3. 选择分析功能:根据需要选择专利检索、分析、评估或生成功能。 4. 查看结果和报告:查看 AI 生成的检索结果、分析报告和评估结果。 5. 进一步处理:根据分析结果进行进一步的人工审查和处理,或者直接生成专利申请文件。 总结:AI 技术在专利审查领域的应用,可以极大地提高工作效率,减少人工工作量,提高专利检索、分类和分析的准确性和效率。上述平台和工具展示了 AI 在专利审查各个环节的具体应用,帮助专利审查员和申请人更高效地处理专利相关事务。但请注意,内容由 AI 大模型生成,请仔细甄别。
2025-01-09
AI创作新手入门步骤
以下是为 AI 创作新手提供的入门步骤: 一、了解基本概念 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 二、开始学习之旅 在「」中,能找到为初学者设计的系列课程,特别推荐李宏毅老师的课程。还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程按自己节奏学习,并争取获得证书。 三、选择感兴趣模块深入学习 AI 领域广泛,涵盖图像、音乐、视频等。可根据自身兴趣选择特定模块深入学习,同时一定要掌握提示词技巧,因其上手容易且实用。 四、实践和尝试 理论学习后,实践是巩固知识的关键。尝试使用各种产品进行创作,并在知识库分享实践后的作品和文章。 五、体验 AI 产品 与现有的 AI 产品互动,如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人,了解其工作原理和交互方式,获得实际应用中的第一手体验,激发对 AI 潜力的认识。 六、具体案例 1. 对于编程方面,可参考元子的 30min Cursor AI 编程上手步骤。 突破对“不会编程”的限制,不断探索与 AI 的边界。 作者将更新多篇相关文章,如第一弹“一点小小的震撼——cursor 黑客松”等。 可通过与作者交流。 2. 对于 AI 3D 创作,可参考 Tripo AI 入门手册。 注册/登录:点击下方网址免费体验(国内可访问),输入邮箱地址获取验证码完成注册登录,或使用谷歌账户直接登录。登录后可查看用户名和拥有的点数。 界面介绍:Tripo 的界面简洁,上方是工具导航栏,中间是公共作品展示区,底部是生成模型的工作区域,包括输入框和创建按钮。其中「Create」是创作主战场,「My Models」是个人作品库,「Favorite」是私人收藏列表。 希望以上步骤和内容能帮助您顺利入门 AI 创作。
2025-01-09
小白如何学习AI
对于小白学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,比如图像、音乐、视频等,可根据自己的兴趣选择特定模块深入学习,同时掌握提示词的技巧。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。知识库中有很多实践后的作品、文章分享。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人互动,了解其工作原理和交互方式。 6. 持续学习和跟进: AI 发展迅速,新成果和技术不断涌现。关注 AI 领域的新闻、博客、论坛和社交媒体,保持对最新发展的了解。 考虑加入 AI 相关的社群和组织,参加研讨会、工作坊和会议,与其他爱好者和专业人士交流。 此外,还可以参考《雪梅 May 的 AI 学习日记》,其适合纯 AI 小白,学习模式为输入→模仿→自发创造。但其中的学习内容可能因 AI 发展而变化,可去 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新内容。该日记中的学习资源免费开源,且学习时间灵活,不必有压力,能学多少算多少。
2025-01-09
Use what AI tool to do ppt
以下是一些可以用于制作 PPT 的 AI 工具: 1. Gamma:这是一个在线 PPT 制作网站,允许用户通过输入文本和想法提示快速生成幻灯片。它支持嵌入多媒体格式,如 GIF 和视频,以增强演示文稿的吸引力。网址:https://gamma.app/ 2. 美图 AI PPT:由知名图像编辑软件“美图秀秀”的开发团队推出,允许用户通过输入简单的文本描述来生成专业的 PPT 设计。可能包含丰富的模板库和设计元素,用户可根据需求选择不同风格和主题的模板,适用于多种场合。网址:https://www.xdesign.com/ppt/ 3. Mindshow:一款 AI 驱动的 PPT 辅助工具,提供一系列智能设计功能,如自动布局、图像选择和文本优化等,以帮助用户更高效地创建演示文稿。网址:https://www.mindshow.fun/ 4. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用在语音识别和自然语言处理领域的技术优势,提供智能文本生成、语音输入、文档格式化等功能。网址:https://zhiwen.xfyun.cn/ 此外,还有一些组合使用的方式,如 Claude+Gamma.app 可以帮助快速寻找符合条件的论文、提取精炼论文中某部分信息、找到适合的 PPT 制作工具并教会使用。另外,GPT4、WPS AI 和 chatPPT 组合使用也能完成 PPT 制作任务。
2025-01-09
提示词框架
以下是关于提示词框架的相关内容: 视频模型中的提示词框架: 基本构成: 提示词基础架构包括主体/场景、场景描述、环境描述、艺术风格/媒介。需调整句式和语序,避免主体物过多/复杂、模糊术语表达,使用流畅准确的口语化措辞,丰富、准确和完整的描述以生成特定艺术风格、满足需求的视频。 提示词与画面联想程度:以单帧图像为例,通过具体详实的位置描述/环境描述和艺术风格描述等,构建画面的基本呈现效果和统一画面风格。 示例:基础词“玻璃桌上的咖啡杯,杯子外面写着单词LOVE”,适度联想扩充为“花园里的透明玻璃桌上的咖啡杯,杯子外面写着单词LOVE,周围满是盛开的鲜花,和煦的阳光洒满整个花园,Claude Monet,印象派风格”。 AI 提示词工程师中的提示词框架: 提示词工程师是专门负责为大语言模型设计、优化和实施 Prompt 的技术角色,不仅编写 Prompt,还需测试和优化以确保输出内容质量,善于发现需求、解析需求并解决问题。 发展出多种提示词框架,如 ICIP 框架(包括指令、背景信息、输入数据、输出指示器)、BROKE 框架(包括背景、角色定义、目标设定、关键成果展示、持续的试验与优化)、CRISPE 框架(包括上下文、角色、说明、主题、预设、例外),还有定制化提示词编写服务。 RAG 提示工程中的提示词框架: 在输入环节构建全面的提示词框架,包含伦理审查及针对不同类型攻击的审查规则,划分为关键部分,融入人格设定元素,利用大型模型的注意力机制加固输入防护的审核能力和人格设定的稳定性。
2025-01-08
是否有推荐的RAG 框架
以下为您推荐常用的 RAG 框架: LangChain 是一个为简化大模型应用开发而设计的开源框架。它通过提供一套模块化的工具和库,允许开发者轻松集成和操作多种大模型,使开发者能将更多精力投入到创造应用的核心价值上。其设计注重简化开发流程,支持广泛的模型,具有良好的可扩展性,以适应不断变化的业务需求。作为一个得到社区广泛支持的开源项目,LangChain 拥有活跃的贡献者和持续的更新,同时提供了全面的文档和示例代码帮助新用户快速掌握。此外,LangChain 在设计时充分考虑了应用的安全性和用户数据的隐私保护,是一个多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-01-08
那个框架特别适用于RAG,比如LlamaIndex、LangChain等
LlamaIndex 是一个专为构建大型语言模型(LLM)应用而设计的开发框架,为开发人员提供了强大且灵活的工具,能更有效地理解和处理文本数据。对于熟悉 LangChain 的开发者而言,它并不陌生。 其核心优势在于对大型语言模型的深度支持,允许开发者利用如 GPT3.5 Turbo 等模型执行多种文本处理任务,如文档问答、文章生成和自动翻译等。特别地,它提供了构建文档问答系统的功能,能自动从大量文档中检索相关信息并生成答案,这在处理大量知识信息的领域极具价值。 LlamaIndex 还允许对嵌入模型进行微调以适应特定任务需求,提升文档问答系统的性能。它支持连接结构化、半结构化和非结构化等不同类型的数据源,为应用程序提供全面信息。 此外,其设计注重简化开发流程,即使复杂的 NLP 任务也能通过少量代码实现,无需深入了解底层复杂性。这种设计哲学不仅降低了开发大型语言模型应用的门槛,还极大提升了开发效率和应用性能。 LlamaIndex 的 GitHub 地址:https://github.com/runllama/llama_index/
2025-01-07
目前的 rag 框架都有哪些
目前常用的 RAG 框架有 LangChain。 LangChain 是一个为简化大模型应用开发而设计的开源框架。它具有以下特点: 1. 提供一套模块化的工具和库,便于开发者轻松集成和操作多种大模型。 2. 设计注重简化开发流程,能让开发者将更多精力投入到创造应用的核心价值上。 3. 支持广泛的模型,具备良好的可扩展性,以适应不断变化的业务需求。 4. 作为得到社区广泛支持的开源项目,拥有活跃的贡献者和持续的更新。 5. 提供了全面的文档和示例代码,有助于新用户快速掌握。 6. 在设计时充分考虑了应用的安全性和用户数据的隐私保护。 7. 是一个多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-01-07
微调训练框架的选择
以下是关于微调训练框架选择的相关内容: 在 Stable Diffusion 中: 首先,config 文件夹中有两个配置文件 config_file.toml 和 sample_prompt.toml,分别存储着训练超参数与训练中的验证 prompt。 config_file.toml 文件主要包含了 model_arguments、optimizer_arguments、dataset_arguments、training_arguments、sample_prompt_arguments 以及 saving_arguments 六个维度的参数信息。 v2 和 v_parameterization:两者同时设置为 true 时,开启 Stable Diffusion V2 版本的训练。 pretrained_model_name_or_path:读取本地 Stable Diffusion 预训练模型用于微调训练。 optimizer_type:有七种优化器可以选择。不进行选择时默认启动 AdamW 优化器;显存不太充足时,可选择 AdamW8bit 优化器,但会有轻微性能损失;Lion 优化器是较新的版本,性能优异,但学习率需设置较小,比如为 AdamW 优化器下的 1/3。 learning_rate:单卡推荐设置 2e6,多卡推荐设置 1e7。 除了上述的训练环境参数传入,还需将配置好的 config_file.toml 和 sample_prompt.txt 参数传入训练脚本中。 当设置 1024 分辨率+FP16 精度+xformers 加速时,SD 模型进行 Batch Size=1 的微调训练需要约 17.1G 的显存,进行 Batch Size=4 的微调训练需要约 26.7G 的显存,所以最好配置一个 24G 以上的显卡。 微调训练完成后,模型权重会保存在之前设置的 output_dir 路径下。可以使用 Stable Diffusion WebUI 作为框架加载模型进行 AI 绘画,需将训练好的模型放入/models/Stablediffusion 文件夹下。 在 OpenAI 中: 使用 OpenAI CLI 开始微调工作,需指定从哪个 BASE_MODEL 开始(ada、babbage、curie 或 davinci),还可使用后缀参数自定义微调模型的名称。 运行命令后会上传文件、创建微调作业并流式传输事件直到作业完成。 每个微调工作都从一个默认为 curie 的基本模型开始,模型的选择会影响性能和成本。 开始微调作业后,可能需要几分钟或几小时才能完成,工作完成后会显示微调模型的名称。此外,还可以列出现有作业、检索作业状态或取消作业。
2025-01-06
微调训练框架的选择
以下是关于微调训练框架选择的相关内容: 对于 Stable Diffusion 的微调训练: 1. 配置文件: 在 config 文件夹中有 config_file.toml 和 sample_prompt.toml 两个配置文件,分别存储着训练超参数与训练中的验证 prompt。 config_file.toml 文件包含 model_arguments、optimizer_arguments、dataset_arguments、training_arguments、sample_prompt_arguments 以及 saving_arguments 六个维度的参数信息。 例如,v2 和 v_parameterization 同时设置为 true 时开启 Stable Diffusion V2 版本的训练;pretrained_model_name_or_path 用于读取本地 Stable Diffusion 预训练模型用于微调训练;optimizer_type 可选择多种优化器,如 AdamW(默认)、AdamW8bit(显存不足时可选,会有轻微性能损失)、Lion(最新版本,性能优异但学习率需设置较小)等;学习率方面,单卡推荐设置 2e6,多卡推荐设置 1e7。 2. 训练启动: 将配置好的 config_file.toml 和 sample_prompt.txt 参数传入训练脚本中。 在命令行输入相应命令即可开始训练,训练脚本启动后会打印出 log 方便查看训练过程节奏。 1024 分辨率+FP16 精度+xformers 加速时,SD 模型进行 Batch Size=1 的微调训练约需 17.1G 显存,Batch Size=4 的微调训练约需 26.7G 显存,因此最好配置 24G 以上显卡。 3. 模型使用: 微调训练完成后,模型权重保存在之前设置的 output_dir 路径下。 使用 Stable Diffusion WebUI 框架加载模型进行 AI 绘画,需将训练好的模型放入/models/Stablediffusion 文件夹下,并在 Stable Diffusion WebUI 中选用。 对于 OpenAI 的微调训练: 1. 准备训练数据后,使用 OpenAI CLI 开始微调工作。 2. 指明从哪个基本模型(ada、babbage、curie 或 davinci)开始,可使用后缀参数自定义微调模型名称。 3. 运行命令后会上传文件、创建微调作业并流式传输事件直到作业完成,通常需要几分钟,也可能因作业排队或数据集大小等因素需要数小时。 4. 每个微调工作都从默认为 curie 的基本模型开始,模型选择会影响性能和成本。 5. 开始微调作业后,可能需要排队等待,完成后会显示微调模型的名称。还可以列出现有作业、检索作业状态或取消作业。
2025-01-06