Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

AI领域,传统机器学习,nlp,深度学习,大语言模型,rag,agent,请生成一张让普通人能看懂的AI领域概念图

Answer

以下是为您生成的 AI 领域概念图的相关解释:

人工智能(AI):一种目标,让机器展现智慧。

生成式人工智能(GenAI):一种目标,让机器产生复杂有结构的内容。

机器学习:一种手段,让机器自动从资料中找到公式,包括监督学习、无监督学习、强化学习。

  • 监督学习:有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归。
  • 无监督学习:学习的数据没有标签,算法自主发现规律,如聚类。
  • 强化学习:从反馈里学习,最大化奖励或最小化损失。

深度学习:一种更厉害的手段,参照人脑有神经网络和神经元(因为有很多层所以叫深度),神经网络可用于多种学习方式。

大语言模型(LLM):是一类具有大量参数的“深度学习”模型。对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。

AIGC(Artificial Intelligence Generated Content):利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等内容。

ChatGPT:一个应用实例,通过投喂大量资料预训练后,会通过聊天玩“文字接龙游戏”。它是美国 OpenAI 公司开发的一款基于大型语言模型(LLM)的对话机器人,能够根据用户的输入生成连贯且相关的文本回复。

2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,比 RNN 更适合处理文本的长距离依赖性。

Content generated by AI large model, please carefully verify (powered by aily)

References

快速学习 AIGC,有料通俗易懂版!

人工智能:一种目标,让机器展现智慧,Artificial Intelligence,简称AI生成式人工智能GenAI:一种目标,让机器产生复杂有结构的内容,Generative AI简称GenAI机器学习:一种手段,让机器自动从资料中找到公式深度学习:一种更厉害的手段,类神经网络-非常大量参数的函数大语言模型:是一类具有大量参数的“深度学习”模型,Large Language Models,简称LLMsChatGPT:一个应用实例,形象比喻:通过投喂大量资料预训练后,ChatGPT会通过聊天玩“文字接龙游戏”了。英文解释:Chat聊天,G:Generative生成,P:Pre-trained预训练,T:Transformer类神经网络模型以上概念之间的关系如下图:AIGC(Artificial Intelligence Generated Content,人工智能生成内容)是利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等内容。AIGC技术可以用于多种应用,如自动撰写新闻文章、生成艺术画作、创作音乐、制作视频游戏内容等。ChatGPT是AIGC技术的一个应用实例,它代表了AIGC在文本生成领域的进展。ChatGPT是美国OpenAI公司开发的一款基于大型语言模型(Large Language Model,简称LLM)的对话机器人,它能够根据用户的输入生成连贯且相关的文本回复。用户界面如下:AGI、GenAI、AIGC几个概念的区别与理解可参考下图:更多概念可问Kimi、通义千问、文心一言等大模型,也可以继续往下看,会逐步讲解更多概念。国内主要模型公司及地址如下:

快速学习 AIGC,有料通俗易懂版!

人工智能:一种目标,让机器展现智慧,Artificial Intelligence,简称AI生成式人工智能GenAI:一种目标,让机器产生复杂有结构的内容,Generative AI简称GenAI机器学习:一种手段,让机器自动从资料中找到公式深度学习:一种更厉害的手段,类神经网络-非常大量参数的函数大语言模型:是一类具有大量参数的“深度学习”模型,Large Language Models,简称LLMsChatGPT:一个应用实例,形象比喻:通过投喂大量资料预训练后,ChatGPT会通过聊天玩“文字接龙游戏”了。英文解释:Chat聊天,G:Generative生成,P:Pre-trained预训练,T:Transformer类神经网络模型以上概念之间的关系如下图:AIGC(Artificial Intelligence Generated Content,人工智能生成内容)是利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等内容。AIGC技术可以用于多种应用,如自动撰写新闻文章、生成艺术画作、创作音乐、制作视频游戏内容等。ChatGPT是AIGC技术的一个应用实例,它代表了AIGC在文本生成领域的进展。ChatGPT是美国OpenAI公司开发的一款基于大型语言模型(Large Language Model,简称LLM)的对话机器人,它能够根据用户的输入生成连贯且相关的文本回复。用户界面如下:AGI、GenAI、AIGC几个概念的区别与理解可参考下图:更多概念可问Kimi、通义千问、文心一言等大模型,也可以继续往下看,会逐步讲解更多概念。国内主要模型公司及地址如下:

【AI学习笔记】小白如何理解技术原理与建立框架(通俗易懂内容推荐)

一、视频一主要回答了什么是AI大模型,原理是什么。1、概念:生成式AI生成的内容,叫做AIGC2、概念与关系:相关技术名词1)AI——人工智能2)机器学习——电脑找规律学习,包括监督学习、无监督学习、强化学习。3)监督学习——有标签的训练数据,算法的目标是学习输入和输出之间的映射关系。包括分类和回归。4)无监督学习——学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。5)强化学习——从反馈里学习,最大化奖励或最小化损失;类似训小狗。6)深度学习——一种方法,参照人脑有神经网络和神经元(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。7)生成式AI——可以生成文本、图片、音频、视频等内容形式8)LLM——大语言模型。对于生成式AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的BERT模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类;3、技术里程碑——2017年6月,谷歌团队发表论文《Attention is All You Need》。这篇论文首次提出了Transformer模型,它完全基于自注意力机制(Self-Attention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。GPT含义:Transformer是关键。Transformer比RNN更适合处理文本的长距离依赖性。

Others are asking
有没有针对AI工具嵌入个人工作流方方面面赋能工作的信息
AI 工作流是将 AI 工具引入到工作流程的各个环节中,以提高工作效率。 在说 AI 工作流之前,要先了解工作流的概念。工作流即工作流程,比如写公众号文章,可拆分为选题、列大纲写初稿、改稿、写标题、排版、发布等步骤,每个步骤都有明确的输入和产出,环环相扣。 搭建 AI 工作流有一套工作流: 1. 找到一个熟悉的工作场景,如写文章、做 PPT 等。 2. 拆解工作流程,例如写文章可拆分为选题、写稿、改稿、写标题等步骤。 3. 针对每个步骤嵌入工具,可参考他人经验,灵活选择最优解,目的是提高工作效率,而非增加工作的含 AI 量。 搭建 AI 工作流需要三层能力: 1. 了解各种 AI 工具,知晓其特点和用途。 2. 学会写提示词,以便向 AI 清晰表述任务。 3. 搭建 AI 智能体,使多个 AI 工具协同工作,自动完成任务。
2025-03-17
上一周 ai有什么新的进展
以下是上一周 AI 的一些新进展: 应用形态的重构方面,AI Agent 取得突破,为机器人赋予自主行动能力,AI 编程工具的进展或预示人机协作模式的变革。 2 月,OpenAI 发布视频生成模型 Sora,实现高质量文本生成视频,开创 AI 视频生成新纪元。 3 月,Suno 发布 V3 版本,AI 音乐生成进入生产力可用状态。 4 月,Meta 发布高性能开源大模型 Llama3,降低了 AI 技术的准入门槛。 5 月,GPT4 发布,RayBan 与 Meta 合作的智能眼镜销量突破百万,字节上线即梦 AI。 6 月,快手发布可灵,Apple Intelligence 发布。 9 月,OpenAI 发布 o1 预览版。 10 月,Rosetta 和 AlphaFold 算法的研发者因在蛋白质结构设计和预测中的突破性贡献获得诺贝尔化学奖,约翰·霍普菲尔德和杰弗里·辛顿因人工神经网络和深度学习的开创性贡献获诺贝尔物理学奖,Anthropic 大模型 Claude 3.5 Sonnet 获得“computer use”功能。 12 月,OpenAI 发布 o3 系列模型。 此外,还有一些关于 AI 的讨论和话题,如把 350 万条 Midjourney 提示词放进一张可视化图里,2 套权威的 AI 术语表,天工新功能的定位靠近元宇宙,NotebookLM 与 AI 播客的关系,Bob 类似于更轻巧的能选多种大模型的桌面端应用“豆包”,Monica.im 的发展,物圆 TreLoop 的情况,对 AGI 距离的讨论,Arc 浏览器的状态,李开复关于 AI 应用爆发和 AGI 的观点,李继刚的 Prompt 玩法,OpenAI 研究副总裁离职,15 岁开发者的开源项目被收购,关于 AI 编程效率的讨论等。
2025-03-17
我需要自己搭一个ai自动剪辑视频的插件
以下是搭建 AI 自动剪辑视频插件的详细步骤: 一、开通服务 1. 先获取搭建完成后需要用到的各种模型的 key。 首先注册火山引擎:https://volcengine.com/L/4lZ8oszvY20/ ,邀请码:KL9ZC1IF 。这个项目会使用到不少 Token,刚好火山现在还有赠送 Token 的活动,若未注册,使用此邀请码和链接注册可获得 375 万的 Token。 开通各项服务和拿到各个服务的 Key: 获取 LLM_ENDPOINT_ID、VLM_ENDPOINT_ID、CGT_ENDPOINT_ID、ARK_API_KEY 。注册后点击:控制台,进入火山方舟控制台(https://console.volcengine.com/ark/region:ark+cnbeijing/model?vendor=Bytedance&view=LIST_VIEW)。创建一个接入点,点击在线推理创建推理接入点。命名并选择 Doubaopro32k 模型。重复此步骤创建 Doubaovisionpro32k、Doubao视频生成模型这两个推理点。创建完成后,复制推理点的 ID 并对应填入相应位置。然后继续点击“API key 管理”创建一个并复制下来,这就是 ARK_API_KEY 。 获取 TOS_BUCKET 。 二、服务部署 1. 购买服务器:直接点击去购买:https://buy.cloud.tencent.com/lighthouse?blueprintType=APP_OS&blueprintOfficialId=lhbpr8j2ftq0&regionId=8&zone=apbeijing3&bundleId=bundle_rs_mc_med1_02&loginSet=AUTO&from=lhconsole 。 2. 根据以下配置购买即可。 3. 购买并付款完成后,回到服务器“控制台”。 4. 点击服务器卡片的空白处,去添加防火墙。按照如下方式添加:8887、8080 端口,点击确定即可。 5. 点击右上角的“登录”按钮,扫码验证后,看到一个命令行窗口。下边出现代码,复制的时候,注意复制全。代码已分好步骤,每次只需要复制粘贴一行,然后点击一次回车。回车后,只有最左边显示中括号对话前缀时,不要操作。若 ctrl+v 粘贴不进去,试试 shift+ctrl+v 粘贴。 6. 在命令行中,一条一条输入: echo\"8887\">/www/server/panel/data/port.pl sudo kill9$ sudo/etc/init.d/bt default 7. 保存并打开你的外网面板地址,输入账号和密码。 8. 选择已有账号登录,然后会有一个账号绑定页,这个是宝塔的账号,如有就直接登录,没有就去注册一个。注意,注册完成之后,要返回原页面登录!不要停留在宝塔的注册功能页。 9. 直接关掉推荐,来到文件。点击根目录,打开 home 文件。 10. 点击:文件目录上方的“终端”,出现下方窗口。 11. 粘贴输入:git clone https://github.com/volcengine/aiapplab.git 。 12. 然后关闭终端窗口,刷新一下会看到有一个 aiapplab 文件夹,打开文件夹找到 demohouse/chat2cartoon 文件夹,看到有一个“.env”。 13. 然后把提前准备的那些 key 和 token,对应的粘贴进去。 14. 粘贴完成之后,继续进入 backend 文件夹,然后打开“终端”输入以下命令: python3 m venv.venv source.venv/bin/activate pip install poetry==1.6.1 poetry install poetry run python index.py 15. 依次完成后,会如下图所示,看到下图到后端就启动成功了,把这个页面保持如下,不要关掉页面。保持这个终端是打开的。 16. 重新复制打开一个新的浏览器标签页面。返回上级文件夹,进入/home/aiapplab/demohouse/chat2cartoon/frontend/src/routes 。
2025-03-17
我要给我的队伍生成一个海报有什么ai工具可以帮助到我
以下是一些可以帮助您为队伍生成海报的 AI 工具: 1. Canva(可画):https://www.canva.cn/ 这是一个非常受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作即可创建海报,其 AI 功能可帮助选择合适的颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ 稿定智能设计工具采用先进的人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ 这是一个简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,其智能建议功能可帮助快速找到合适的设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ 通过简单拖放界面,用户可快速创建演示文稿、社交媒体帖子等视觉内容,还集成丰富模板库和自动图像编辑功能,如智能布局和文字优化,大大简化设计流程。 此外,如果您想制作视频海报,以下是一些工具和相关活动信息供您参考: 1. 活动:6 月 10 号端午节视频海报 玩法介绍:参赛者需根据端午节主题自由发挥,用 AI 转化成不长于 6 秒视频。 视频工具建议: 。不局限于 Dreamina、PixVerse、Runway、Pika、LiblibAI、SVD、Deforum、AnimateDiff 。 参与规则: 格式限制:投稿文件宽高比为 9:16,竖屏视频海报,不长于 8 秒。文生视频、图生视频均可。 提交的作品必须是原创,不得抄袭他人作品。 请确保内容健康、积极,符合博物馆日的主题。 不建议出现鲜血、武器、鬼怪骷髅、知名人物、18X 等不符合国家政策的内容,违规内容可能导致无法计入评选名单。 不在时间内提交的自动失去评选资格。 提交时间:6 月 10 日 18:00 前提交。 如果您想了解如何用 AI 快速做一张满意的海报,可参考以下方法: 1. 需求场景:当您想在社交平台发布内容但干巴巴的文字点赞少、网上图片质量差易撞图、相册照片不合适等情况,可考虑自己制作。 2. 大致流程: 主题与文案:确定海报主题后,可借助 ChatGPT 等文本类 AI 工具协助完成文案。 风格与布局:选择想要完成的风格意向,背景不一定是空白的,可根据文案和风格灵活调整画面布局。 生成与筛选:使用无界 AI,输入关键词,生成并挑选一张满意的海报底图。 配文与排版:将上述素材进行合理排版,得到成品。排版同样可以参考 AIGC 海报成果。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-17
AI编程
以下是关于 AI 编程的相关内容: Trae 国内版 Trae 是字节跳动旗下的 AI 原生编程工具,类似 Cursor、Windsurf 等 IDE 工具。它具有以下特点: 1. 对国内用户友好,有中国官网、中文界面、国内模型,稳定且快速。 2. 使用完全免费,无需折腾会员,下载后可直接使用,支持豆包 1.5pro 和满血版 DeepSeek R1、V3 模型。 3. 内置预览插件,写完代码一键运行,所见即所得。 它不仅适合新手入门,能解决初学 AI 编程时遇到的官网打不开、购买会员、安装中文和预览插件等前置问题,让 AI 编程进入零门槛时代,还能帮助资深程序员大幅提升编程速度。网址:Trae.com.cn 或点击文末【阅读原文】直接访问。 借助 AI 学习编程的关键 1. 打通学习与反馈循环:从验证环境、建立信心、理解基本概念开始,形成“理解→实践→问题解决→加深理解”的循环。 2. 建议:使用流行语言和框架(如 React、Next.js、TailwindCSS);先运行再优化,小步迭代,一次解决一个小功能;借助 AI 生成代码后请求注释或解释,帮助理解代码;遇到问题时采取复现、精确描述、回滚三步走。 用好 AI 编程工具(如 Cursor)的关键技能 1. 准确描述需求,清晰表达目标和问题。 2. 具备架构能力,将复杂系统拆解为松耦合的模块,便于 AI 高效处理。 3. 拥有专业编程能力,能够判断 AI 生成代码的优劣。 4. 具备调试能力,能快速定位问题并解决,独立或借助 AI 完成调试。
2025-03-17
Google 图片视频AI
以下是关于 Google 图片视频 AI 的相关信息: Google 发布了 AI 视频 Veo2 和 AI 绘图 Imagen3。 关于 AI 视频 Veo2: 官网介绍可申请 waitlist,链接为 https://labs.google/fx/zh/tools/videofx 。 引入了改进后的物理引擎,能模拟真实世界动态变化。 能更好地捕捉和模拟人类动作、运动轨迹,并高精度呈现。 具有电影级视觉效果,能生成有深度感和层次感的场景。 提供灵活的镜头控制选项,允许用户调节镜头角度、视角和焦距等参数。 关于 AI 绘图 Imagen3: 绘图链接为 https://labs.google/fx/tools/imagefx 。 是最高质量的文本到图像模型,能生成比之前模型更好细节、更丰富光照和更少干扰伪影。 在图像细节和清晰度上有显著提高,生成的图像更生动、真实,细节更丰富。 相关报道和链接: 数字生命卡兹克:Google 全新发布 AI 视频 Veo2、AI 绘图 Imagen3 何以凌越,https://mp.weixin.qq.com/s/4ACndSdfG8az3gdLn5QLIQ 。 量子位:谷歌版 Sora 升级 4K 高清!一句话控制镜头运动,跑分叫板可灵海螺,https://mp.weixin.qq.com/s/8H286tyxbTeZrtEBDZHaA 。 锤爆 Sora,尺度最大,谷歌发布最强视频模型 Veo2,叫板海螺可灵,https://mp.weixin.qq.com/s/sMECORvSikuKHNaEzPor6Q 。 谷歌版 Sora 来了,4K 高清暴击 OpenAI!视频生图新卷王,更理解物理世界,https://mp.weixin.qq.com/s/PFeyrX2q9mWd6GIrJ9qdWQ 。 谷歌的 Imagen 3 终于来了——它是最好的 AI 图像生成器吗?https://mp.weixin.qq.com/s/gcyGvA6_9mxN9yz__jRRHQ 。 测评: ,Google 视频和图像生成模型更新包括 Veo 2、Imagen 3 和一个新工具 Whisk 。
2025-03-17
AI Agent的具体应用场景,特别是职场办公场景
AI Agent 的具体应用场景如下: 1. 在职场办公场景中,主要应用场景包括研究总结和客户服务。 2. 个性化方面,随着用户的使用越来越了解用户习惯和想法,从而作出喜好预测。例如 Dot App 在对话中了解用户喜好,随后为用户推荐新的咖啡店。 3. 自主完成任务方面,如 Auto GPT,用户输入一个目标后,可自主执行任务、递归地开发和调试代码。 4. 多 Agent 协作方面,如斯坦福大学的 SmallVille(小镇)项目,25 个人工智能体居住在一个沙盒虚拟城镇中通过复杂的社交互动来执行他们的日常生活;Fixie AI 在收到用户请求后启动多个负责不同模块的 Agent 进行数据查询和传递,最终生成邮件内容给客户回复;博主林亦 LYi 的《AI 炒股?我开了一家员工全是 AI 的公司,自动帮我炒股》就在某种程度上实现了多 Agent 协作的能力。 5. 在企业服务方面,Brix 面向北美和欧洲企业,提供全球雇佣的 AI 驱动解决方案。通过 Hiring Agent,Brix 触达全球约 2000 万以上的人才,自动完成候选人筛选、简历分析和面试流程,帮助企业快速组建高效团队。通过 Working Agent 支持远程团队的智能化管理,为企业构建 100 至 500 人规模的全球化组织提供一站式解决方案。 6. 时来智能通过自研的 AI Agent 以及强化学习等技术,为线下餐饮服务门店提供全自动管理私域流量营销运营的解决方案。基于垂直场景数据训练的 AI 营销模型可以针对不同消费者实时生成并推送个性化的营销折扣方案,从而在优化营销成本的同时显著提升营销转化效果。 目前,AI Agent 应用大多集中在 2B 场景,面向个人消费者的产品少之又少。一方面是高度智能化的 Agent 能力需要打磨,概念落地还有较长一段距离;一方面是 AI 和娱乐消费诉求的结合还几乎没有,其主要带来的是生产方式变革和效率变革。个人消费者方向,目前只看到“私人助理”场景。
2025-03-17
agent
智能体(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,既可以是软件程序,也可以是硬件设备。 在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并辅以几个关键组成部分: 1. 规划:包括子目标和分解,将大型任务分解为更小的、可管理的子目标,以有效处理复杂任务。 2. 反思和完善:可以对过去的行为进行自我批评和自我反思,从错误中吸取教训,并针对未来的步骤进行完善,提高最终结果的质量。 3. 记忆:包含短期记忆,所有的上下文学习都是利用模型的短期记忆来学习;长期记忆,为 Agents 提供长时间保留和回忆(无限)信息的能力,通常通过利用外部向量存储和快速检索来实现。 4. 工具使用:Agents 学习调用外部 API 来获取模型权重中缺失的额外信息,包括当前信息、代码执行能力、对专有信息源的访问等。 以下是一些关于智能体 Agent 的相关目录: 1. 2. 3. 4. 5. 6. 从产品角度思考 Agent 设计: 1. Who:Agent 是谁?性格是什么?我们的 Agent 可以是一个历史新闻探索向导,其身份为历史新闻探索向导,性格知识渊博、温暖亲切、富有同情心,角色是主导新闻解析和历史背景分析。为使角色更加生动,可为 Agent 设计简短的背景故事,比如曾是一位历史学家,对世界上的重大历史事件了如指掌,充满热情,愿意分享知识。 2. 怎么写好角色个性: 角色背景和身份:编写背景故事,明确起源、经历和动机。 性格和语气:定义性格特点,如友好、幽默、严肃或神秘;确定说话方式和风格。 角色互动方式:设计对话风格,从基本问答到深入讨论。 角色技能:明确核心功能,如提供新闻解析、历史背景分析或心理分析;增加附加功能以提高吸引力和实用性。 正如《》所写:个性化定制的“虚拟伴侣”能得到用户的认可,这是因为精准地击中了许多年轻人无处可藏的孤独和焦虑,背后是年轻人渴望被理解、沟通和交流。美国心理学家 Robert Jeffrey Sternberg 提出了“爱情三角理论”,认为爱情包含“激情”“亲密”和“承诺”三个要素。激情是生理上或情绪上的唤醒,例如对某人有强烈的性或浪漫的感觉;亲密是一种相互依恋的感觉,通过相互联结带来的喜爱和相互沟通分享自己的所见所闻、喜怒哀乐来体现;承诺是决定建立长期稳定关系,融入对方生活,形成互助互惠的关系,代表着一种长相厮守的责任。
2025-03-17
ToB行业有什么关于AI Agent的应用场景
在 ToB 行业,AI Agent 有以下应用场景: 1. 人力资源领域:如 Brix 面向北美和欧洲企业,提供全球雇佣的 AI 驱动解决方案。通过 Hiring Agent,触达全球约 2000 万以上的人才,自动完成候选人筛选、简历分析和面试流程,帮助企业快速组建高效团队。通过 Working Agent 支持远程团队的智能化管理,为企业构建 100 至 500 人规模的全球化组织提供一站式解决方案。 2. 餐饮营销领域:时来智能通过自研的 AI Agent 以及强化学习等技术,为线下餐饮服务门店提供全自动管理私域流量营销运营的解决方案。基于垂直场景数据训练的 AI 营销模型可以针对不同消费者实时生成并推送个性化的营销折扣方案,从而在优化营销成本的同时显著提升营销转化效果,能帮助门店提升 50%100%的营销转化效果,以及相应提升平均 1520%的营业额。 3. 销售和供应链管理:嵌入企业流程,提升整体运营效率。 此外,AI Agent 具有以下特点: 1. 个性化:随着用户的使用越来越了解用户习惯和想法,从而作出喜好预测。例如 Dot App 在对话中了解用户喜好,随后为用户推荐新的咖啡店。 2. 自主完成任务:如 Auto GPT,用户输入一个目标后,可自主执行任务、递归地开发和调试代码。 3. 多 Agent 协作:例如斯坦福大学的 SmallVille(小镇)项目,25 个人工智能体居住在一个沙盒虚拟城镇中通过复杂的社交互动来执行他们的日常生活;Fixie AI 在收到用户请求后启动多个负责不同模块的 Agent 进行数据查询和传递,最终生成邮件内容给客户回复。 以下是一些 Agent 构建平台: 1. Coze:新一代的一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成丰富插件工具拓展 Bot 能力边界。 2. Microsoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 3. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造大模型时代的产品能力。 4. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。 5. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 6. 钉钉 AI 超级助理:依托于钉钉强大的场景和数据优势,提供更深入的环境感知和记忆功能,在处理高频工作场景如销售、客服、行程安排等方面表现出色。
2025-03-17
multi agents讲解
多智能体(MultiAgent)是由多个自主、独立的智能体(Agent)组成的系统。每个智能体都能感知环境、决策并执行任务,且它们之间能信息共享、任务协调与协同行动以实现整体目标。 随着大型语言模型(LLM)的出现,以 LLM 为核心构建的 Agent 系统受广泛关注。目前常见框架集中在单 Agent 场景,其核心是 LLM 与工具协同配合,可能需与用户多轮交互。而多 Agent 场景为不同 Agent 分配角色,通过协作完成复杂任务,与用户交互可能减少。 构建多 Agent 框架主要组成部分包括: 1. 环境:所有 Agent 处于同一环境,包含全局状态信息,Agent 与环境有信息交互与更新。 2. 阶段:采用 SOP 思想将复杂任务分解为多个子任务。 3. 控制器:可以是 LLM 或预先定义好的规则,负责环境在不同 Agent 和阶段间切换。 4. 记忆:因 Agent 数量增多,消息数量及每条消息的记录字段增加。 此外,吴恩达最新演讲提到四种 Agent 设计范式,Reflection 和 Tool Use 相对经典且广泛使用,Planning 和 Multiagent 较新颖有前景。Reflection 类似于 AI 自我纠错和迭代,如让 AI 写代码并自我检查修改。Tool Use 指大语言模型调用插件拓展能力。在一些场景中,Reflection 可用两个 Agent,一个写代码,一个 Debug。
2025-03-14
哪个agent可以制作图表?
以下是一些可以制作图表的 agent: Cursor:能够全自动写程序、装依赖、debug 等,为用户生成所需的图表,例如生成谷歌和亚马逊最近五年的股价对比图,以及对图片进行特定形状的处理。 E2b 团队:制作了。 共建者缱绻怡然:制作了中的 AI Agent 图谱。
2025-03-14
哪里可以找到开源的ai agent
以下是一些可以找到开源 AI Agent 的途径和相关信息: AutoGPT 和 BabyAGI 是最早实现让 LLM 自己做自动化多步骤推理的开源智能代理,在去年 GPT4 刚发布时风靡全球科技圈。 智谱·AI 开源了一些包含 Agent 能力的模型,如 AgentLM7B、AgentLM13B、AgentLM70B 等,相关信息和代码链接可在相应的平台获取。 Andrej 的 LLM OS 中包含了相关模块。 OpenAI 的研究主管 Lilian Weng 曾写过一篇博客《LLM Powered Autonomous Agents》介绍了 Agent 的设计框架。
2025-03-13
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 研究人员引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 LLM(大语言模型)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有数据库存储和更新稳定、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 个主要难题及相应的解决方案。
2025-03-17
作为一个产品经理,我现在要设计一个企业内的销售培训智能体,我手里有产品知识、销售基础知识,我该怎么设计,是只做rag还是做多智能体协同?
以下是为您设计企业内销售培训智能体的一些建议: 首先,了解多智能体模式的设置。它包括全局设置和多个代理之间的编排协调两个核心部分。全局设置涵盖角色设定与回复逻辑、记忆管理以及对话体验等,其中人物设定与回复逻辑应侧重于角色塑造。在智能体的交互流程设计上,要形成完整的互动链条,当用户意图未满足跳转条件时,保持与当前智能体的沟通。设计多轮协作的智能体时,应将其交互设计为闭环结构,以确保用户能自由切换。 其次,动手实践制作智能体。对于 Chat GPT 版本,可按以下步骤:点击“浏览 GPTs”按钮,点击“Create”按钮创建,使用自然语言对话或手工设置进行具体配置,然后调试并发布。对于 Chat GLM 版本,点击“创建智能体”按钮,输入智能体描述,可粘贴准备好的提示词模板,其配置可自动生成,可根据需求调整并上传本地文件作为知识库。 然后,考虑多智能体协同的概念。在处理复杂任务时,单智能体可能面临提示词修改和逻辑不清晰的问题。多智能体协作如吴恩达所举例,每个智能体被赋予不同身份,互相合作对话,能模拟现实工作场景,成为复杂系统,但可能存在效率不高的情况。 最后,您可以根据实际情况选择是采用 RAG 还是多智能体协同。如果任务相对简单,RAG 可能足够;若任务复杂,涉及多个环节和角色的协作,多智能体协同可能更合适。您还可以通过具体的例子,如旅游场景中负责景点推荐、路线规划和食宿安排的三个智能体,来更好地理解和设计。
2025-03-16
什么是rag?
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把文档切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示生成更合理的答案。
2025-03-14
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,适应事实随时间变化的情况,让语言模型获取最新信息并生成可靠输出。 LLM 存在无法记住所有知识(尤其是长尾知识)、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高等缺点,而 RAG 具有数据库存储和更新稳定、数据更新敏捷且可解释、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本等优点。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-03-14
RAG
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来实现。Meta AI 研究人员引入 RAG 来完成这类任务,它把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入后检索相关/支撑文档,并给出来源,这些文档与原始提示词组合后送给文本生成器得到最终输出,能适应事实随时间变化的情况,让语言模型获取最新信息并生成可靠输出。 LLM(大语言模型)存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点:数据库对数据的存储和更新稳定,无学习风险;数据更新敏捷,可解释且不影响原有知识;降低大模型输出出错可能;便于管控用户隐私数据;降低大模型训练成本。 在 RAG 系统开发中存在 12 大痛点及相应的解决方案。
2025-03-13
请帮我推荐优化大模型+知识库的提示词技巧,重点是解决将知识库配置给大模型做RAG后,召回率不高或者不遵循指令。
以下是关于优化大模型+知识库的提示词技巧,以解决将知识库配置给大模型做 RAG 后召回率不高或者不遵循指令的问题: 首先,了解 LLM 应用性能优化的推荐路径: 1. 从 prompt 工程开始把 LLM 应用快速跑起来。 2. 若遇到表现性能不足等问题,如结构化提示词占用上下文过长,可尝试精简提示词长度;若指令遵循度不足,则加强指令约束。 3. 若提示工程无法满足要求,分析问题,若缺失知识,先简单做知识库 RAG。 4. RAG 之后若想让模型表现更收敛更稳定,尝试微调模型。 5. 微调模型后,若模型表现变好,使用更多高级 RAG 技术,构造输入输出样本,进一步用于微调模型,构建正向迭代循环。 需要注意的是,该路径有个隐藏前提:该 LLM 应用依赖外部知识,需要 RAG。若不需要外部知识,则不需要使用 RAG,可以直接进入 prompt 工程与微调的正向迭代循环。 对于 RAG 流程中的检索有用信息部分,有以下改进策略: 1. 优化索引: 按照子部分索引:将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引。适用于有多个主题、有冲突信息的复杂长文本信息,确保与查询相关的上下文。 按照文本框可以回答的问题索引:让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确的问题,减少模糊性。 按照文本块的摘要进行索引:适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后,选择策略,大部分场景下选择最相似的即可。 在从知识库中检索出内容后利用大模型进行总结时,有两点需要注意: 1. 优化 Prompt,但此处不展开,可参考相关文章。 2. 选择合适的大模型,考虑上下文长度、聪明度和生成速度。若回答场景是很长的文档,可能更关注上下文长度;大多数情况下,大模型越聪明,生成速度可能越慢。
2025-03-12