Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

简单介绍一下prompt和agent的关系

Answer

Prompt 在激活和运用 AI Agent 的“大脑模块”中起着关键作用,在角色定义、知识处理和逻辑规划等环节都不可或缺。但 Prompt 并非完美无缺,其缺点是使用的 Prompt 越长,消耗的 Token 越多,推理成本可能很高。

对于拟人化程度不高的情况,单纯通过 Prompt 来构建大脑模块(Prompt-tuning)较为适合;而对于“有趣的灵魂”,目前最直接的解决方式是通过微调一个定向模型,微调过程能将信息直接“记忆”在 AI 的“大脑模块”中,提高信息提取效率,减少处理数据量,优化性能和成本。一般创建方式是将 Prompt-tuning 和 Fine-tuning 相结合。

此外,还有如 PromptAgent 这样的优化方法,它将提示词优化视为策略性规划问题,采用基于蒙特卡洛树搜索的规划算法,能自主设计出与专家手工制作同等质量的提示词,并应用于多个实际领域的任务且效果显著。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI-Agent系列(一):智能体起源探究

图10.1.1创建AI Agent的两种手段(来自李博杰的个人博客)不过,虽然Prompt在激活和运用AI Agent的“大脑模块”中扮演着关键角色,但它并非没有缺点。一个很直观的问题是:使用的Prompt越长,消耗的Token也就越多。一个公众人物公开披露的个人信息(身份、言行等),转换成Token数可能高达数百万。这还不考虑模型是否能够处理这么多Token的问题,仅仅是每次推理所需支付的成本——无论是金钱还是时间——都可能非常高昂。所以,单纯通过Prompt来构建大脑模块(Prompt-tuning),一般适合“无趣的灵魂”,即拟人化不是那么重的情况。紧接上面的总结,那”有趣的灵魂"咋办呢?目前,针对"有趣的灵魂"最直接的解决方式就是通过微调一个定向模型来达到上述效果。与Prompt相比,基于微调的方法可以视为将信息直接“记忆”在AI的“大脑模块”中。微调过程本质上是一个信息压缩和整合的过程,它能将例如三万条推特中的零散信息有效地整理并嵌入到大型模型的权重中,且权重占比不到1%。这种方法不仅提高了信息提取的效率,还减少了每次查询或应用时所需处理的数据量,从而优化了性能和成本。"面对有趣的灵魂",一般创建方式是两种结合,即Prompt-tuning +Fine-tuning。

AI-Agent系列(一):智能体起源探究

图10.1.1创建AI Agent的两种手段(来自李博杰的个人博客)不过,虽然Prompt在激活和运用AI Agent的“大脑模块”中扮演着关键角色,但它并非没有缺点。一个很直观的问题是:使用的Prompt越长,消耗的Token也就越多。一个公众人物公开披露的个人信息(身份、言行等),转换成Token数可能高达数百万。这还不考虑模型是否能够处理这么多Token的问题,仅仅是每次推理所需支付的成本——无论是金钱还是时间——都可能非常高昂。所以,单纯通过Prompt来构建大脑模块(Prompt-tuning),一般适合“无趣的灵魂”,即拟人化不是那么重的情况。紧接上面的总结,那”有趣的灵魂"咋办呢?目前,针对"有趣的灵魂"最直接的解决方式就是通过微调一个定向模型来达到上述效果。与Prompt相比,基于微调的方法可以视为将信息直接“记忆”在AI的“大脑模块”中。微调过程本质上是一个信息压缩和整合的过程,它能将例如三万条推特中的零散信息有效地整理并嵌入到大型模型的权重中,且权重占比不到1%。这种方法不仅提高了信息提取的效率,还减少了每次查询或应用时所需处理的数据量,从而优化了性能和成本。"面对有趣的灵魂",一般创建方式是两种结合,即Prompt-tuning +Fine-tuning。

小七姐:PromptAgent 论文精读翻译

高效的、针对特定任务的提示词往往由专家精心设计,整合详细的指令和领域见解,这基于对大型语言模型(LLM)的本能和目标任务的复杂性的深入了解。然而,如何自动化地生成这样的专家级提示词仍然是一个挑战。现有的提示词优化方法往往忽视领域知识的深度,且难以高效地探索专家级提示词的巨大空间。为了解决这一问题,我们提出了PromptAgent,这是一种优化方法,可以自主地设计与专家手工制作的同等质量的提示词。PromptAgent的核心观点是将提示词优化视为一个策略性规划问题,并采用一种基于蒙特卡洛树搜索的原则性规划算法,策略性地导航专家级提示词空间。受到人类试错探索的启发,PromptAgent通过反思模型的错误并生成有建设性的错误反馈,诱导出精确的专家级见解和深入的指令。这种新颖的框架允许智能体迭代地检查中间提示词(状态),基于错误反馈(行为)对其进行细化,模拟未来的回报,并寻找通往专家提示词的高回报路径。我们将PromptAgent应用于跨越三个实际领域的12个任务:BIG-Bench Hard(BBH)、特定领域的NLP任务以及通用的NLP任务,结果显示它显著地超越了强大的Chain-of-Thought以及最近的提示词优化基线。深入的分析强调了其制定专家级、详细和富有领域洞察力的提示词的高效性和普适性。

Others are asking
agent 打通应用之间的协议?
在 AI 领域中,Agent 是连接模型与应用的关键。端侧 Agents 是在终端设备上自主运行的智能代理程序,具备感知、决策、执行的闭环能力。 Agent 之所以重要,原因包括:端侧资源约束要求最优化使用,任务具有复杂性,生态存在多样性,双系统路线更适合端侧。 Agent 创造价值的方式体现在双重价值实现:一是资源优化,包括任务分解、按需调用;二是生态连接,比如跨应用协作、UI 理解。 其发展趋势包括:技术上从单一模型到多智能体协作;生态上从封闭应用到开放服务;交互上从指令执行到场景理解。 在技术层面,AI Agent 的发展出现了两条技术路线:一是以自主决策为核心的 LLM 控制流,二是以工作流(Workflow)编排为重点的工具集成系统。 特别值得关注的是 Anthropic 提出的 MCP(Model Context Protocol),它的本质是一个通用接口协议,试图解决让 AI 模型能够以标准化、可扩展的方式与外部世界交互的问题。 此外,还有 Agent Protocol 这种用于与 AI 代理进行通信的统一接口,它提供了一种 API 规范,任何代理开发者都可以实现该协议,设计简单且不依赖特定技术栈,有助于生态系统发展和简化集成,并提供了不同语言的 SDK 供开发者使用。
2025-03-09
做一个每日收集兴趣信息的工具,如收集agent,从微信公众号上收集,应该怎么做
以下是一种通过文章链接订阅公众号,定时推送情报消息,并实现情报 CoT 问答的方式来做每日收集兴趣信息的工具: 1. 安装 Docker(假设已经装上) 浏览器打开:http://127.0.0.1:4000 或 http://wewerss 服务的 IP:端口(为上面设置的外部端口) 点开后,输入 Dash 管理页面密码 先点帐号管理,然后点“添加读书帐号”(即使用微信读书来实现公众号订阅),扫码添加帐号 然后在公众号源上,点添加 将您想订阅的公众号的一篇文章链接粘贴并点确定即可订阅公众号文章。但建议不要短时间订阅太多公众号(最好不超 40 个),然后在本地 data/目录会生成一个 SQLite 数据库文件 wewerss.db 2. 关于 Coze 工作流和 Bot 因为前面需要对多维表格操作,所以要先在 http://open.feishu.cn 上建一个飞书机器人,并添加知识库或多维表格编辑权限,具体可参考飞书文档。得到机器人的 app_id 和 app_secret 即可获得租用 token:tenant_access_token 来获取多维表格数据和编辑能力。 工作流一:通过微信文章链接进行文章解读成摘要报告。通过 LLM 能力,开源提示词如下。由于 Coze 使用 LLM 和批量执行任务延时的约束,建议不要同时处理太多文章(如 6 篇左右)。这样执行后,将多维表格的文章状态转换成“已通知”并生成简报。 消息情报官 Bot:最后可以通过 Coze,建定时任务,执行工作流二,并添加其他如分析文章和搜索文章的能力,即可变成一个消息情报官的 Agent,我们即可以获得想要的领域或行业情报,也可以深入挖掘相关情报的信息。然后发布到想要的平台,如:Coze 商店、豆包、飞书、微信、微信公众号、微信小程序等,即可使用。可以构建多个分身,就能收集整理不同领域和行业的情报信息。 如感兴趣欢迎联系交流合作。
2025-03-08
AI Agent MANUS个人助手是否可以本地私有化部署
目前没有明确的信息表明 AI Agent MANUS 个人助手可以本地私有化部署。 Manus 是一款由中国团队研发的全球首款通用型 AI 代理工具,于 2025 年 3 月 5 日正式发布。它区别于传统聊天机器人,具备自主规划、执行复杂任务并直接交付完整成果的能力。其技术架构主要基于多智能体架构,运行在独立的虚拟机中,核心功能由多个独立模型共同完成,包括规划、执行和验证三个子模块,还包括虚拟机、计算资源、生成物、内置多个 agents 等关键组件,并采用了“少结构,多智能体”的设计哲学。 但对于其是否能本地私有化部署,现有资料未给出确切说明。在构建高质量的 AI 数字人方面,由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,算法一般会部署到额外的集群或者调用提供出来的 API。而在本地部署资讯问答机器人方面,有相关案例,但未提及与 AI Agent MANUS 个人助手的直接关联。
2025-03-07
AI Agent MANUS个人助手
AI Agent MANUS 个人助手是一种真正自主的 AI 代理。它区别于传统的 AI 助手,能够自主完成复杂任务,不仅生成想法,还能直接执行并交付结果。其核心亮点包括: 1. 自主执行:可直接执行任务,而非仅提供建议。 2. 类人工作模式:能解压文件、浏览网页、阅读文档、提取关键信息等。 3. 云端异步运行:在后台执行任务,完成后自动通知用户。 4. 持续学习和记忆:从用户反馈中学习,提高未来任务的准确性。 5. “心智与手”理念:象征着实际执行能力。 在构建高质量的 AI 数字人时,涉及到为数字人构建灵魂,使其具备各种智能,充当个人助手等。其中在构建数字人灵魂方面,有以下几个工程关键点: 1. AI Agent:要让数字人像人一样思考,需要编写一个像人一样的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建存在挑战。 2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式视躯壳部分的实现而定。但包含情绪的语音表达以及保证躯壳的口型、表情、动作和语音的同步及匹配存在困难,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但闭源。 3. 实时性:由于数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,算法一般会部署到额外的集群或者调用提供出来的 API,会涉及到网络耗时和模型推理耗时,低延时是亟需解决的问题。 4. 多元跨模态:仅仅语音交互的数字人远远不够,可根据实际需求添加其他感官,如通过添加摄像头数据获取视觉信息,再通过系列 CV 算法做图像解析等。 5. 拟人化场景:正常与人交流时并非线性对话,会有插话、转移话题等情况,这些情景的工程处理需要优化。 在人工智能的发展历程中,Agent(智能代理)一直是令人着迷的概念之一。2024 年,Agent 技术实现了从概念到实践的关键突破。例如,当对手机下达指令“帮我给同事的朋友圈点赞”,AI 就能识别屏幕并完成操作。这种进化展示了 AI 不仅能“听懂”,还能“思考”和“行动”,会分析任务、规划步骤、选择工具,甚至在遇到问题时及时调整策略。2024 年,Anthropic 的 Computer Use、智谱 AI 的 AutoGLM 以及 Google 的 Gemini 2.0 等都展示了 AI Agent 的突破性进展。这种接近成型的工程化的 Agent 核心在于四个关键能力的进展,但在过往,类似的 Agent 能力存在成功率不高、泛化能力不够强等问题,训练模型识别所有 App 的 UI 很难,模型进行自主操作也是难点。
2025-03-07
如何使用AI agent
使用 AI Agent 主要包括以下几个方面: 1. 理解工具:AI Agent 有效使用工具的前提是全面了解其应用场景和调用方法。利用 LLM 的 zeroshot learning 和 fewshot learning 能力,可通过描述工具功能和参数的 zeroshot demonstration 或特定工具使用场景和相应方法演示的少量提示来获取工具知识。面对复杂任务,AI Agent 应先将其分解为子任务,再组织和协调,这依赖于 LLM 的推理和规划能力及对工具的理解。 2. 使用工具:AI Agent 学习使用工具的方法主要包括从 demonstration 中学习和从 reward 中学习(清华有相关从训练数据中学习的文章)。这包括模仿人类专家行为,了解行为后果,并根据环境和人类反馈(包括行动结果反馈、环境状态变化的中间反馈、显性评价和隐性行为如点击链接)做出调整。 3. 具身智能:在追求 AGI 的过程中,具身 Agent 成为核心研究范式,强调智能系统与物理世界紧密结合。与传统深度学习模型不同,LLMbased Agent 能主动感知和理解物理环境并互动,利用内部知识库决策并产生行动改变环境,此系列行为称为“具身行动”。 此外,AI Agent 还包括以下概念: 1. Chain:通常一个 AI Agent 可能由多个 Chain 组成,一个 Chain 视作一个步骤,可接受输入变量并产生输出变量,大部分 Chain 是大语言模型完成的 LLM Chain。 2. Router:可使用判定(甚至用 LLM 判定)让 Agent 走向不同的 Chain,如根据输入是图片还是其他进行不同处理。 3. Tool:Agent 上的一次工具调用,如互联网搜索、数据库检索。 同时,还需要三个 Agent: 1. Responser Agent:主 agent,用于回复用户(伪多模态)。 2. Background Agent:背景 agent,用于推进角色当前状态,如进入下一个剧本,抽检生成增长的记忆体等。 3. Daily Agent:每日 agent,用于生成剧本、配套图片及每日朋友圈。Background Agent 每隔一段时间运行一次(默认 3 分钟),分析期间的历史对话,变更人物关系、反感度,抽简对话内容提取信息成为“增长的记忆体”,按照时间推进人物剧本,有概率主动聊天(与亲密度正相关,跳过夜间时间)。
2025-03-07
agent有哪些文章推荐?
以下是为您推荐的关于 agent 的文章: 从下往上看,一个一个点进去,都有视频。共学都有视频,都是手把手从注册开始的教学,不会就多看几遍,基本保障一个工具能调通、一个 Agent 能搭好。 注意事项:确实内容有点多,点进去看看哪个工具您听过就从哪个工具开始吧,不然太累啦。 看了一些视频之后,您就知道您要看理论还是应用了,找到导航,想看哪里点哪里。 备注:智能千帆、阿里云百炼都是有视频的,其余没有视频。 注意事项:确实内容有点多,您如果都看到这里了,就要考虑聚焦了,先挑一个,开始手把手一起做起来,看看能不能持续用起来,只要您开始用起来,这事儿就成啦! 增加了 AI Agent 图谱,由共建者缱绻怡然制作。 》,作者孔某人,主要讨论基于 LLM 的复杂 Agent 的实现。 《》,来自有新 Newin,Essential AI 由两位谷歌重要研究论文的作者 Ashish Vaswani 和 Niki Parmar 创立,2017 年在谷歌工作时与他人一起共同撰写了具有重要影响力的论文《Attention Is All You Need》。Essential AI 正在开发全栈 AI 产品,这些产品具备快速学习能力,能够通过自动化繁琐且耗时的工作流程来提高生产力。 Tesla 发布 Optimus Gen2 机器人,现在拥有更加精致的外观,并且比 5 月份特斯拉展示 Optimus Gen1 时的速度快了 30%,。 《》是微软亚洲研究院、华为天才少年李博杰的一篇文章,虽然目前的大模型技术已经非常强大,应付日常的 chat 并不难,但做一个有多模态能力、有记忆、能解决复杂任务、会利用工具、有性格、有情感、有自主性、低成本、高可靠的 AI Agent 并不容易。如果说 Chat 是大模型的第一个应用场景,也许 Agent 才是大模型真正的 killer app。 《》的 GitHub 地址,收集了多模态大型语言模型的最新论文和数据集及其评估。 《》是知识库的好友「INDIGO 的数字镜像」万字长文,本探讨在新一轮的 AI 变革之下,如何用新工具来帮助扩展大脑思维与记忆的边界,以及知识工作流的新方法,激发潜能,构建外脑!强烈推荐阅读。 《》是波士顿咨询的一篇新文章,讲述 CEO 抓住机遇和应对挑战,他们必须在三个关键支柱上做出选择:潜力、人员和政策。 收集群友的每日创作。
2025-03-07
怎么写好prompt
写好 prompt 是一个关键且重要的步骤,它决定了 AI 模型如何理解并生成文本或视频。以下是一些编写 prompt 的建议和方法: 编写 prompt 的建议: 1. 明确任务:清晰地定义任务,如写故事时包含故事背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,提供足够信息。 3. 使用清晰语言:用简单、清晰的语言描述,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在 prompt 中明确指出。 5. 使用示例:若有特定期望结果,提供示例帮助 AI 理解需求。 6. 保持简洁:避免过多信息,以免 AI 模型困惑。 7. 使用关键词和标签:有助于 AI 模型理解任务主题和类型。 8. 测试和调整:生成文本后检查结果,根据需要调整 prompt,可能需多次迭代。 优化和润色 prompt 的方法: 1. 明确具体描述:使用更具体、细节的词语和短语,而非笼统词汇。 2. 添加视觉参考:插入相关图片参考,提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:用合适的形容词、语气词等调整整体语气和情感色彩。 4. 优化关键词组合:尝试不同搭配和语序,找到准确表达需求的描述方式。 5. 增加约束条件:添加限制性条件,如分辨率、比例等,避免意外输出。 6. 分步骤构建 prompt:将复杂需求拆解为子 prompt,逐步引导生成。 7. 参考优秀案例:研究有效的范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:多次尝试不同写法,根据输出效果反馈持续完善。 在即梦 AI 视频生成中,prompt 是直接描述或引导视频生成的文本或指令,类似给 AI 的提示,包含主体、运动、风格等信息,借此控制和指导生成内容,作用十分重要,是表达需求的方式,影响视频内容和质量。您可以将其理解为:将输入的文字变成对应的画面和运动形式。图片生视频和文本生视频的 prompt 输入位置也有所不同。 需要注意的是,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-09
Prompt提示词
以下是关于 Prompt 提示词的相关知识: 一、如何编写提示词 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,提供足够信息。 3. 使用清晰语言:用简单、清晰的语言描述,避免模糊或歧义词汇。 4. 给出具体要求:明确格式、风格等要求。 5. 使用示例:如有特定期望结果,提供示例。 6. 保持简洁:避免过多信息导致模型困惑。 7. 使用关键词和标签:帮助模型理解任务主题和类型。 8. 测试和调整:生成文本后检查结果,根据需要调整。 二、如何润色或优化提示词 1. 明确具体描述:使用更具体、细节的词语和短语。 2. 添加视觉参考:插入相关图片参考。 3. 注意语气和情感:用合适的形容词、语气词调整整体语气和情感色彩。 4. 优化关键词组合:尝试不同搭配和语序。 5. 增加约束条件:如分辨率、比例等,避免意外输出。 6. 分步骤构建:将复杂需求拆解为子提示词,逐步引导生成。 7. 参考优秀案例:研究有效的范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:多次尝试不同写法,根据效果反馈完善。 三、PixVerse V2.5 提示词技巧(基础篇) 1. 提示词在文生视频、图生视频和角色生视频中广泛使用,准确编写可减少试错成本。 2. 什么是提示词:在 AI 视频生成中,是用于指导或引导模型生成特定视频内容的描述性文本或指令,需描述想要生成的视频画面,一般包含描述性文字、指令参数、情感氛围、参考风格。 3. 提示词语言:推荐使用英文输入,效果最佳,若不熟悉英文,也可用其他语言,模型可处理任何语言输入。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-08
Prompts(提示词)| 社区内prompt框架课程收录
以下是关于 Prompt(提示词)的相关内容: 一、Prompt 之道:清晰表达 1. 如何清晰表达 各种框架能帮助您将脑海中的想法通过特定角度描述出来,比如明确要做的事情、背景、目标、任务、数据和输出等。这些框架虽表述不同,但作用相似,能比空想更高效。 您可以在使用框架时,换不同预设角度描述同一物体。例如,去年有人用 langGPT 的框架模拟善解人意的老师讲解任何学科的概念。 2. 拓展阅读 :社区内 prompt 框架课程收录 :各个场景提示词收录 此外,还有李继刚关于文生文中 prompt 的道、术、用的万字说明,相关链接如下: https://mp.weixin.qq.com/s/R8UbrixkKHXE4dnVt0VMvw 豆包网页端:https://www.doubao.com/chat/?channel=browser_landing_page 豆包桌面客户端:
2025-03-06
Prompt 有哪些范式
以下是关于 Prompt 范式的相关内容: 基础篇: 起手式因人而异,可根据不同作图需求尝试不同场景下的“范式”,如面向人像、风景、物品生成等。 人像生成的反向提示词包括不要出色色、不要出错手错脚错身体、不要低质量图、不要水印等,也鼓励自行梳理。 其他注意事项:越重要的 tag 越往前放;同类型 tag 放在一起;控制 tag 总数在 75 个以内;无关紧要的 tag 不要留。 原理与应用: 简单来说,Prompt 是和大模型交互的语言模板,用于输出对大模型响应的指令,提升回答准确性。 从专业角度,Prompt 给大模型提供模板,包括要求、输入和输出限制,让大模型在限制下得出概率最大的答案。 法律人视角: Prompt 指给人工智能系统提供的信息或问题,引导其产生特定回答或执行特定任务。 建议框架及格式:CRISPE,包括 Capacity and Role(能力与角色)、Insight(洞察)、Statement(陈述)、Personality(个性)、Experiment(举例)。并分别举例说明了每个部分的具体内容。
2025-03-05
我需要一套帮我总结论文,阅读论文的最佳prompt
以下是为您提供的一套帮助总结和阅读论文的最佳 prompt 相关内容: 一、李继刚等的 prompt 最佳实践 对于给定的论文链接,总结如下: 1. 提出了基于 GPT3 的无代码聊天机器人设计工具 BotDesigner。 2. 创建了 Conversation 视图和 Error Browser 视图。 3. 观察了 10 名非专家提示设计师执行聊天机器人设计任务的行为,得出相关结论,如参与者能够进行机会性的提示迭代设计,但在生成、评估提示有效性和解释提示效果方面存在困难,倾向于过度推广和从人类交流角度过滤提示设计等。 二、小七姐的 Prompt 喂饭级系列教程小白学习指南(二) 1. 让 AI 帮您阅读文档时,可使用简单的 Prompt,如:于是这个提示词解决了你自己,和任何收到你 Prompt 的人微调几个关键信息就能自动让 GPT 或者 Kimi 帮你阅读一篇论文而且生成不错的总结啦! 2. 结合自己的生活或工作场景想一个能简单自动化的场景,例如自动给班级里的每个孩子起个昵称、自动排版微信群经常发的运营小文案等。 3. 选择一个好上手的提示词框架,如情境。 三、学术场景数据处理 1. 论文总结:GLM4Plus 结合良好的提示词能够帮助学生快速总结论文内容,提高论文梳理的效率。 2. 论文翻译:GLM 结合良好的提示词能够帮助学生快速翻译论文内容,提高论文阅读效率。 3. 论文内容扩写润色:精心设计的润色提示词可以根据特定场景进行调整,以便生成与特定平台风格相匹配的多样化润色结果。例如针对小红书的使用场景,调整提示词以匹配其特有的口语化、轻松愉快的氛围,将论文中的结论部分润色成适合在小红书上分享的生活化内容。
2025-03-05
裁判模型prompt
裁判模型的 prompt 相关内容如下: 在 2023 年度中文大模型基准测评报告中,对 OPT 主要测评选择题,构造了统一的 prompt 供模型使用,要求模型选取 ABCD 中唯一的选项。多轮简答题 OPEN 更能反应模型真实能力,故权重设置提高。包括 1060 道多轮简答题(OPEN)和 3213 道客观选择题(OPT)。 Prompt 是给到大模型输入的一段原始输入,能够帮助模型更好地理解用户的需求并按照特定的模式或规则进行响应。比如可以设定“假设你是一位医生,给出针对这种症状的建议”,还可以在 prompt 的设定中,要求模型按照一定的思路逻辑去回答,如思维链(cot),也可以让模型按照特定格式的 json 输出等。 在质证意见 prompt 各大模型评测中,Claude 2.0 输入 prompt 后欢迎语按指示输出,输入 4 份简单证据后输出质证意见书,在格式和内容的真实性、合法性、关联性、证明力等方面进行质证,总结得 5.5 分,结束语没问题。文心一言 3.5 输入 prompt 后欢迎语按指示输出,输入 4 份证据后进行专业分析,在格式和内容各方面的质证都非常专业,总结得 8 分,结束语没问题,提示签署委托代理协议的回复也很棒。
2025-03-05
RAG内LLM的主要作用,简单概括
RAG(检索增强生成)中LLM(大语言模型)的主要作用包括: 1. 利用外部检索到的知识片段生成更符合要求的答案。由于LLM无法记住所有知识,尤其是长尾知识,且知识容易过时、不好更新,输出难以解释和验证,容易泄露隐私训练数据,规模大导致训练和运行成本高,通过RAG为LLM提供额外且及时更新的知识源,有助于生成更准确和有用的回答。 2. 在RAG的工作流程中,LLM接收整合后的知识片段和特定指令,利用其推理能力生成针对用户问题的回答。 3. 事实性知识与LLM的推理能力相分离,LLM专注于运用推理能力处理外部知识源提供的信息。
2025-03-08
RAG是什么,简单概括
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 简单来说,它通过检索的模式为大语言模型的生成提供帮助,使大模型生成的答案更符合要求。 RAG 对于 LLM 来说很重要,因为 LLM 存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。 而 RAG 具有一些优点,如数据库对数据的存储和更新稳定,数据更新敏捷且可解释,能降低大模型输出出错的可能,便于管控用户隐私数据,还能降低大模型的训练成本。 RAG 概括起来是知识检索+内容生成,可以理解为大模型的开卷考试,其主要组成依次是数据提取、embedding(向量化)、创建索引、检索、自动排序(Rerank)、LLM 归纳生成。其核心在于能否将内容检索得又快又准。 推荐阅读: 如何让 LLM 应用性能登峰造极:https://mp.weixin.qq.com/s/Kr16ub_FN6pTF6acse6MA 大模型主流应用 RAG 的介绍——从架构到技术细节: https://luxiangdong.com/2023/09/25/ragone/ 高级 RAG 技术:图解概览: https://baoyu.io/translations/rag/advancedragtechniquesanillustratedoverview
2025-03-08
请你用简单易懂的语言告诉我comfyui和SD的区别
ComfyUI 和 SD(Stable Diffusion)主要有以下区别: 1. UI 界面:SD WebUI 的 UI 更接近传统产品,有很多输入框和按钮;ComfyUI 的 UI 界面复杂,除输入框外,还有很多块状元素和复杂的连线。 2. 学习成本:ComfyUI 的学习成本比 SD WebUI 高。 3. 工作流方式:ComfyUI 主要通过连线搭建自动化工作流,从左到右依次运行;SD WebUI 则通过输入框和按钮配置参数。 4. 灵活性和拓展性:ComfyUI 具有更高的自由和拓展性,可以根据自身需求搭建、调整甚至改造工作流,无需依赖开发者,还能开发并改造节点;SD WebUI 在这方面相对较弱。 5. 功能实现:从功能角度看,两者提供的功能本质相同,但 ComfyUI 通过改变节点方式能实现不同功能,如一个节点是直接加载图片,另一个是通过画板绘制图片,从而实现导入图片生图和绘图生图等不同功能。
2025-03-08
求AI大模型基础原理课程,讲的简单通俗
以下是关于 AI 大模型基础原理的简单通俗课程: 1. 概念 生成式 AI 生成的内容称为 AIGC。 2. 概念与关系 AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:使用有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类,例如让模型将一堆新闻文章根据主题或内容特征分成相似组。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 深度学习是一种参照人脑的方法,具有神经网络和神经元(因层数多称为深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),像上下文理解、情感分析、文本分类。 3. 技术里程碑 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出 Transformer 模型,它完全基于自注意力机制(SelfAttention)处理序列数据,不依赖循环神经网络(RNN)或卷积神经网络(CNN)。
2025-02-27
请向中老年人自媒体博主推荐常用有效、简单便捷的几个AI工具
以下是为中老年人自媒体博主推荐的常用有效、简单便捷的 AI 工具: 1. 创作方面: AI 研究工具:Claude、ChatGPT、Bing Chat、Perplexity。 图片处理:DallE、Leonardo、BlueWillow、Midjourney。 版权写作:Rytr、Copy AI、Wordtune、Writesonic。 设计:Canva、Clipdrop、Designify、Microsoft Designer。 网站搭建:10Web、Framer、Hostinger、Landingsite。 视频处理:Klap、Opus、Invideo、Heygen。 音频处理:Murf、LovoAI、Resemble、Eleven Labs。 SEO 优化:Alli AI、BlogSEO、Seona AI、Clearscope。 Logo 设计:Looka、LogoAI、Brandmark、Logomaster。 聊天机器人:Droxy、Chatbase、Voiceflow、Chatsimple。 自动化工具:Make、Zapier、Bardeen、Postman。 市场营销:相关工具未明确提及。 2. 数字人工具: 开源且适合小白用户,特点是一键安装包,无需配置环境,简单易用。功能包括生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。系统兼容 Windows、Linux、macOS,模型支持 MuseTalk(文本到语音)、CosyVoice(语音克隆)。使用步骤为下载 8G+3G 语音模型包,启动模型即可。GitHub 链接: 。 3. 视频生成工具: Google Veo 2,生成的视频接近真实,几乎难以分辨,适合创作和内容制作。相关链接:
2025-02-25
请推荐可以使用deepseek的rpa工具,用来处理日常重复简单的工作
以下是关于处理日常重复简单工作的相关建议: 首先,评估和识别日常重复性高的任务。通过分析日常工作流程,观察和记录员工的日常工作,特别是那些耗时且重复性高的活动,如数据输入、文件整理等。确定要通过观察和记录达成的具体目标,例如提高效率、减少错误率、优化工作流程等。与员工交谈,了解他们对当前工作流程的看法,以及他们认为可能存在的效率瓶颈或挑战。 然后,分析收集到的数据,识别哪些任务是最耗时和重复性最高的。基于分析结果,确定哪些任务可以通过引入自动化工具来优化,并制定具体的行动计划,包括引入新工具、重新设计工作流程或提供额外培训。 最后,引入自动化工具,例如 RPA(机器人流程自动化)技术。RPA 是一种软件技术,能够模仿人类在电脑上执行的重复性任务,可在不改变现有系统架构的情况下工作,是一种快速部署且成本效益高的解决方案。它可以用于自动化各种标准化、规则性的任务。在企业的 IT 系统中部署 RPA 或其他自动化软件,并根据具体的工作流程进行配置,在初期实施后对自动化流程进行测试和调整优化。 需要注意的是,在选择自动化工具时,应根据企业的具体需求和预算来选择合适的工具。
2025-02-16
有关国产大模型介绍及对比
以下是关于国产大模型的介绍及对比: 过去一年,国内大模型取得了显著进步。综合能力超过 GPT 3.5 和 GeminiPro 的国产模型有 11 个,如百度的文心一言 4.0、阿里云的通义千问 2.0 和 Qwen 72BChat、OPPO 的 AndesGPT、清华&智谱 AI 的智谱清言、字节跳动的云雀大模型等。在 SuperCLUE 测评中,国外模型平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距约 4 分,且国内外平均水平差距在缩小。 国内开源模型在中文上表现优于国外开源模型,如百川智能的 Baichuan213BChat、阿里云的 Qwen72B、Yi34BChat 均优于 Llama213BChat。国内大模型竞争格局方面,从国内 TOP19 大模型的数量来看,创业公司和大厂的占比几乎持平。 此外,还有针对国产大模型的测评机制,包括以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对复杂提示词理解和执行、推理能力、文本生成能力、提示词设计能力、长文本归纳总结能力等方面进行多轮测评。 国外的代表性大模型如 GPT4 的不同版本、Claude2、Llama2 有较好的稳定性表现。国内开源模型总体表现较好,成绩最好的开源模型在中文某些场景或任务上接近 GPT 4,大版本的模型通常优于中小版本,众多创业公司是开源模型的主力。
2025-03-10
Manus帮我介绍一下
Manus 是一款由中国团队研发的全球首款通用型 AI 代理工具,于 2025 年 3 月 5 日正式发布。它区别于传统聊天机器人(如 ChatGPT),具备自主规划、执行复杂任务并直接交付完整成果的能力,被称为“首个真干活的 AI”。 Manus AI 代理工具的具体技术架构主要基于多智能体(Multiple Agent)架构,运行在独立的虚拟机中。这种架构通过规划、执行和验证三个子模块的分工协作,实现了对复杂任务的高效处理。其核心功能由多个独立模型共同完成,这些模型分别专注于不同的任务或领域,如自然语言处理、数据分析、推理等。这种多模型驱动的设计不仅提高了系统的鲁棒性和准确性,还增强了其处理复杂任务的能力。 Manus AI 的技术架构还包括以下几个关键组件: 1. 虚拟机:Manus AI 运行在云端虚拟机中,用户可以随时查看任务进度,适合处理耗时任务。 2. 计算资源:Manus AI 利用计算资源生成算法,用于筛选简历等具体任务。 3. 生成物:Manus AI 能够生成各种类型的输出,如文本、表格、报告等。 4. 内置多个 agents:Manus AI 通过内置多个智能体,实现了任务的分解和协同工作。 此外,Manus AI 还采用了“少结构,多智能体”的设计哲学,强调在数据质量高、模型强大、架构灵活的情况下,自然涌现 AI 的能力。这种设计使得 Manus AI 在处理复杂任务时更加高效和准确。 当前的 Manus 约等于 AI 操纵着一个没有图形界面的 Linux 虚拟机和浏览器,能感知电脑环境,执行各类操作。它能跑各种 linux 下的指令、库、程序(如 cd、ls 指令、python 等),也能访问各种网页、获取一些 API 接口的数据。但因为没有图形界面,所以没法运行图形程序。访问网页时,阻挠人类使用的各种要素,一样会打扰到 Manus。Manus 提供了用户可视的命令行视窗、浏览器、vscode 两种选项,方便查看运行指令、接管网页和修改文件。您还可以给 Manus 上传文件,想必未来也能对接私有 API,有想象空间。
2025-03-09
帮我找一下与智能体相关的,报告或ppt或演讲。是介绍趋势性质的,不是工具类的
以下是为您找到的与智能体相关的报告、演讲等内容: 《【翻译】Google Agent 白皮书》:探讨了智能体的概念,定义为能够自主观察并操作外部世界以实现目标的应用程序。智能体结合了生成式 AI 模型、工具和编排层,能够进行推理和决策。工具使智能体与外部数据和服务交互,扩展其能力。认知架构是智能体的核心,涉及信息收集、计划、执行和调整的循环,利用提示工程框架指导智能体的任务执行与环境互动。 《吴恩达最新演讲——AI 四大趋势》:在吴恩达的主题演讲中,探讨了智能体(AI Agents)和智能体推理(Agentic Reasoning)的崛起,强调非结构化数据的重要性。演讲指出,生成式 AI 使得应用开发速度大幅提升,快速实验成为创新的新路径,但同时带来了评估的挑战。吴恩达还提出了智能体 AI 的四大设计模式,并强调图像处理革命的潜力。 《01通往 AGI 之路知识库使用指南》:提到了 AI 智能体的进阶、案例拆解及扣子的应用介绍,指出提示词很关键,智能体由大语言模型衍生而来,讲述了智能体进阶案例拆解,推荐景淮老师的相关成果,阐述扣子、千帆百炼属于智能体范畴,扣子更偏 ToC 应用。
2025-03-07
介绍目前市面上的ai工具
目前市面上的 AI 工具主要有以下几类: 1. 聊天工具:方便人们进行交流和获取信息。 2. 绘画工具:能够创作出各种风格的绘画作品。 3. 视频工具:用于视频的制作和处理。 4. 音乐工具:辅助音乐的创作和编辑。 此外,AI 工具还分为线上和线下本地部署两种: 线上 AI 工具的优势在于出图速度快,不依赖本地显卡配置,无需下载大型模型,还能查看其他创作者的作品,但出图分辨率通常有限,制作高清横板图片可能受限。 线下部署的 AI 工具可以添加插件,出图质量较高,但使用时可能导致电脑宕机,配置不高时可能出现显存不足导致出图失败的情况。 线上平台适合找参考、测试模型,线下平台则是主要的出图工具。例如,可以在在线上绘图网站的绘图广场上发现想要的画风,点击创作会自动匹配模型和标签,截取游戏人物底图将算力集中在人物身上,多批次尝试不同画风以找到最符合需求的模型和组合,最后在相关网站下载对应模型到本地加载部署后正式生图。
2025-03-07
介绍一下manus
Manus 是由 Monica 团队发布的真正自主的 AI 代理,具有以下核心亮点: 1. 自主执行:能够直接执行任务,而非仅提供建议。 2. 类人工作模式:可以解压文件、浏览网页、阅读文档、提取关键信息。 3. 云端异步运行:在后台执行任务,完成后自动通知用户。 4. 持续学习与记忆:能从用户反馈中学习,提高未来任务的准确性。 5. “心智与手”理念:象征着 AI 实际执行能力。 其任务示例包括但不限于自动分析和执行任务,并直接交付最终结果。您可以通过以下链接查看演示视频和详细介绍:
2025-03-06
介绍AI进阶操作
以下是关于 AI 进阶操作的介绍: 在 Obsidian 中使用 AI 工具的进阶配置方法包括: 1. 笔记仓库嵌入大模型(Copilot) 2. 笔记内容作为 RAG 嵌入大模型(Smart Conections) 3. 笔记内使用大模型编写内容 在 Liblibai 中,有以下进阶概念和功能: 1. 迭代步数:调整图片内容的次数,并非越多越好,效果提升非线性。 2. 尺寸:影响图片生成的大小,需适中选择,高清图可设置中等尺寸并用高分辨率修复。 3. 生成批次:用本次设置重复生成的图批次数。 4. 每批数量:每批次同时生成的图片数量。 5. 提示词引导系数:影响图像与 prompt 的匹配程度,过高会使图像质量下降。 6. 随机数种子:固定后可对图片进行“控制变量”操作。 7. ADetailer:面部修复插件,高阶技能。 8. ControlNet:控制图片中特定图像,高阶技能。 9. 重绘幅度:图生图时,幅度越大,输出图与输入图差别越大。 此外,杭州站的 AI 活动聚焦在动手操作上,共分为 5 天进行,被定义为带领大家进阶玩转 AI 的实操落地活动,从学习写 prompt 到生成图片再到分组成立项目,活动形式丰富多样,难度和节奏层层递进。
2025-03-04