直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

boosting 模型是什么意思

回答

Boosting 模型是一种集成学习方法,主要包括以下两种常见类型:

  1. Bagging(Bootstrap Aggregating):通过多次有放回抽样生成多个数据集,训练多个相同类型的模型(如决策树、多项式等),对于回归任务将多个模型的预测结果取平均,对于分类任务通过多数投票来决定最终的分类结果,以减少机器学习模型的方差,提高泛化能力。其核心步骤包括从原始数据集中有放回地抽取多个子集,每个子集用于训练一个独立的模型,最后集成这些模型的结果。
  2. AdaBoost(Adaptive Boosting):主要用于分类问题,也可用于回归问题。它通过组合多个弱学习器(通常是决策树桩)来构建一个强学习器,以提高模型的预测性能。弱学习器的准确率仅略高于随机猜测,例如在二分类问题中可能略高于 50%。在 AdaBoost 中,强学习器通常是具有高准确率、能很好泛化到新数据的复杂模型,如深度神经网络或支持向量机,能够捕捉数据中的复杂模式。

此外,在 Coze 上,GLM 模型和 MoonShot 模型因对结构化提示词的良好理解适合处理精确输入和输出任务,豆包系列模型在角色扮演和工具调用方面表现出色,将这三种模型结合在工作流或多 Agent 中可实现优势互补。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

[算法学习] Bootstrap Aggregating 分类/回归

Bagging(Bootstrap Aggregating)是一种集成学习方法,主要用于减少机器学习模型的方差,并提高其泛化能力。Bagging的核心思想是通过多次抽样生成多个数据集,训练多个模型,并将这些模型的结果进行平均(或投票)来提高整体预测的稳定性和准确性。[heading1]Bagging的定义与核心[content]Bootstrap抽样:从原始数据集中有放回地抽取多个子集。每个子集的大小与原始数据集相同,但由于是有放回的抽样,可能会出现重复样本。训练多个模型:每个子集都用于训练一个独立的模型。这些模型通常是相同的模型类型(如决策树,多项式等)。集成结果:对于回归任务,将多个模型的预测结果取平均;对于分类任务,通过多数投票来决定最终的分类结果。

[算法学习] Adaptive Boosting 分类/回归

AdaBoost(Adaptive Boosting),即自适应增强算法,是一种集成学习算法,主要用于分类问题,也可以用于回归问题。它通过组合多个弱学习器(通常是决策树桩)来构建一个强学习器,以提高模型的预测性能。弱学习器(Weak Learner)弱学习器是集成学习中的一个概念。在机器学习中,学习器通常被分类为强学习器(Strong Learner)和弱学习器。两者的基本区别有:强学习器:强学习器通常指的是具有高准确率的模型,能够很好地泛化到新的数据上。它们可能是复杂的模型,比如深度神经网络或支持向量机,能够捕捉数据中的复杂模式。弱学习器:弱学习器的准确率仅略高于随机猜测。例如,在二分类问题中,如果随机猜测的准确率是50%,那么弱学习器的准确率可能只是略高于50%,比如51%。弱学习器通常是简单的模型,比如决策树桩(Decision Stumps),它们只考虑单个特征的阈值来做出预测。(比如月收入高于30k,就有可能购买一个空气净化器)

蓝衣剑客:四万字长文带你通学扣子

在结束第五章节之前,我们需要来考虑下模型选择的问题。在Coze上,GLM模型和MoonShot模型因其对结构化提示词的良好理解而受到青睐。这些模型能够较为准确地解析和响应那些格式规范、结构清晰的指令,使得它们非常适合处理需要精确输入和输出的任务。另一方面,豆包系列模型则在角色扮演和工具调用方面表现出了特别的亲和力。这些模型不仅能够识别用户的意图,还能够智能地选择合适的工具或服务来执行用户的指令,从而实现更加流畅和直观的人机交互。将这三种模型结合在一个工作流或多Agent中,可以实现优势互补,创造出一个强大而灵活的工作流或多Agent。例如,GLM和MoonShot模型可以处理语言理解和生成的任务,而豆包模型则负责工具的调用和用户意图的识别,这样的搭配能够确保工作流的高效运行和用户需求的准确响应。

其他人在问
大模型评测标准
大模型的评测标准通常包括以下方面: 1. 多维度、多视角的综合性测评方案: 如中文大模型基准测评 2023 年度报告中,采用了由多轮开放问题 SuperCLUEOPEN 和三大能力客观题 SuperCLUEOPT 组成的评测集,共 4273 题,包括 1060 道多轮简答题(OPEN)和 3213 道客观选择题(OPT)。 在确定的评估标准指导下,OPEN 基准使用超级模型作为评判官,对比待评估模型与基准模型,计算胜和率作为 OPEN 得分,最终 SuperCLUE 总分由 0.7OPEN 分+0.3OPT 分计算得出,且经过人工校验。 OPT 主要测评选择题,包括基础能力、中文特性、专业与学术能力,构造统一 prompt 供模型使用,要求选取唯一选项。多轮简答题 OPEN 更能反映模型真实能力,故权重设置较高。 2. 特定的评测体系及开放平台: FlagEval(天秤)大模型评测体系及开放平台,旨在建立科学、公正、开放的评测基准、方法、工具集,创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。 CEval 构造了一个覆盖多个方向和学科,共 13948 道题目的中文知识和推理型测试集,并给出了当前主流中文 LLM 的评测结果。 SuperCLUElyb 是中文通用大模型匿名对战评价基准,以众包方式提供匿名、随机的对战,并发布了初步结果和基于 Elo 评级系统的排行榜。 3. 基于业务目标和特定场景的测评: 例如在开发基于 LangChain Chatchat 框架的产品时,基于业务目标和政策咨询场景,对回答的内容生成质量进行测评,主要包括是否理解问题、是否匹配正确政策原文、基于政策原文的回答是否准确全面、是否生成政策原文以外的内容、回答是否可靠以及不同轮次回答是否差异大、是否支持追问等方面。
2024-10-23
Florence节点和模型下载方法
Florence 节点和模型的下载方法如下: 节点下载: 方法一:从节点管理器中安装(注意结尾是 V2.6int4 的那个)。 方法二:在秋叶包中安装(注意结尾是 V2.6int4 的那个)。 方法三:直接下载下面文件解压,复制 ComfyUI_MiniCPMV2_6int4 文件夹到您的“\\ComfyUI\\custom_nodes”目录下。注意 ComfyUI_MiniCPMV2_6int4 文件夹里面直接就是多个文件不能再包文件夹了。 夸克网盘:链接:https://pan.quark.cn/s/bc35e6c7e8a6 百度网盘:链接:https://pan.baidu.com/s/1sq9e2dcZsLGMDNNpmuYp6Q?pwd=jdei 提取码:jdei 模型下载: 模型下载地址(解压后大小 5.55G,压缩包大小 4.85G): 夸克网盘:链接:https://pan.quark.cn/s/98c953d1ec8b 百度网盘:链接:https://pan.baidu.com/s/1y4wYyLn511al4LDEkIGEsA?pwd=bred 提取码:bred 此外,Joy_caption 相关模型下载: 从 https://huggingface.co/unsloth/MetaLlama3.18Bbnb4bit 下载并放到 Models/LLM/MetaLlama3.18Bbnb4bit 文件夹内。 必须手动下载: https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 ,存放文件夹:models/Joy_caption 。 MiniCPMv2_6 提示生成器 + CogFlorence: https://huggingface.co/pzc163/MiniCPMv2_6promptgenerator https://huggingface.co/thwri/CogFlorence2.2Large TheMisto.ai 的 MistoLine 版相关: 节点: MistoControlNetFluxdev ,在您的 \\ComfyUI\\custom_nodes 文件夹里面右键终端命令行,复制相关代码即可下载,或者通过以下网盘下载: 夸克网盘:链接:https://pan.quark.cn/s/ad43dd5152a6 百度网盘:链接:https://pan.baidu.com/s/1NcOdG4AV68xTup8FvphsYA?pwd=lpvc 提取码:lpvc 模型: 夸克网盘:链接:https://pan.quark.cn/s/5551e813db21 百度网盘:链接:https://pan.baidu.com/s/1Ntf4MbTCGJ5TYDv6mgvqNQ?pwd=zhfq 提取码:zhfq 处理:将模型放到您的 ComfyUI\\models\\TheMisto_model 文件夹中,并导入官方工作流 。
2024-10-22
Lora模型训练数据集
以下是关于 Lora 模型训练数据集的相关内容: 创建数据集: 1. 进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset)。 2. 在数据集一栏中,点击右上角创建数据集,输入数据集名称。 3. 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片(之后可在 c 站使用自动打标功能),还可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 4. Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 5. 上传 zip 以后等待一段时间,确认创建数据集。返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,能预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。然后等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 用 SD 训练一套贴纸 LoRA 模型的工作流: 1. 原始形象:MJ 初步产出符合设计想法的贴纸原始形象。 2. 二次加工:完成贴纸的白色边线等细节加工。 3. 处理素材:给训练集图片打 tag,修改 tag。 4. 训练模型:将上述处理好的数据集做成训练集,进行训练。 用 SD 训练一套贴纸 LoRA 模型的原始形象:MJ 关键词: A drawing for a rabbit stickers,in the style of hallyu,screenshot,mori kei,duckcore plush doll art exaggerated poses,cry/happy/sad/...ar 3:4 niji 5 style cute s 180 。会得到不同风格的贴图,我们可以先看看自己喜欢哪一种。出图过程可以有意识地总结这一类贴图的特征,比如都是可爱的兔子,有不同的衣服和头饰,都有一双大大的卡通眼睛,会有不同的面部表情。 注意事项: 1. 关键词中限制了颜色,因此 MJ 生成的图片会一种情绪对应一种颜色,所以同一种情绪最好多生成几张不同色系的,可以减少后续训练中模型把情绪和颜色做挂钩(如果需要这样的话,也可以反其道而行之)。 2. 数据集中正面情绪与负面情绪最好比例差不多,如果都是正面积极的,在出一些负面情时(sad,cry)的时候,可能会出现奇怪的问题(如我们训练的是兔子形象,但 ai 认知的 sad 可能是人的形象,可能会出现人物特征)。 3. 如果训练 256266 大小的表情包,这样的素材就已经够用了。如果要训练更高像素的图片,则需要进一步使用 MJ 垫图和高清扩展功能。 高清化: 左(256)→右(1024),输入左图,加入内容描述,加入风格描述,挑选合适的,选出新 30 张图片(卡通二次元类型的 lora 训练集 30 张差不多,真人 60100 张)。
2024-10-22
Lora模型训练
以下是关于 Lora 模型训练的相关内容: 一、用 SD 训练一套贴纸 LoRA 模型的要点 1. 训练数据集准备:包括训练素材处理、图像预处理、打标优化。 2. 训练环境参数配置:选择本地或云端训练环境,进行训练环境配置和训练参数配置。 3. 模型训练:基于 kohyass 训练模型。 4. 模型测试:通过 XYZ plot 测试模型。 二、郑敏轩:Flux 的 Lora 模型训练 1. 所需模型下载:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意事项: 不使用时,模型放置位置不限,只要知道路径即可。 训练时,建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 三、100 基础训练大模型 1. 步骤一·创建数据集 进入厚德云模型训练数据集:https://portal.houdeyun.cn/sd/dataset 在数据集一栏中,点击右上角创建数据集,输入数据集名称。 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 2. 步骤二·Lora 训练 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,选择上传过的数据集。 触发词可有可无,取决于数据集是否有触发词。 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数,若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。 可按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后等待训练,会显示预览时间和进度条。 训练完成后会显示每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。
2024-10-22
你是基于什么大模型做的知识库
以下是关于大模型和知识库的相关知识: 1. RAG(检索增强生成)技术:利用大模型搭建知识库是 RAG 技术的应用。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过 RAG 实现。RAG 包括文档加载、文本分割、存储(包括嵌入和向量数据存储到向量数据库)、检索、输出(把问题及检索出的嵌入片提交给 LLM 生成答案)等 5 个过程。文档加载可从多种来源加载不同类型的文档,文本分割将文档切分为指定大小的块。 2. 硬件配置要求:运行大模型需要较高的机器配置。生成文字大模型最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(跑 GPT3.5 差不多性能的大模型);生成图片大模型最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM;生成音频大模型最低配置为 8G VRAM,建议配置为 24G VRAM。 3. 实例:在一个设定中,使用阿里千问模型,设定角色为“美嘉”,知识库为《爱情公寓》全季剧情,实现问答。
2024-10-22
图片问答相关的大模型产品有哪些
以下是一些与图片问答相关的大模型产品: 国内免费的 APP 有 Kimi 智能助手、文心一言、通义千问。 Kimi 智能助手:由 Moonshot AI 出品,具有超大“内存”,能读长文和上网。 文心一言:百度出品的 AI 对话产品,可写文案、想点子、聊天和答疑。 通义千问:由阿里云开发,能与人交互、回答问题及协作创作。 好用的图生图产品有: Artguru AI Art Generator:在线平台,生成逼真图像,为设计师提供灵感。 Retrato:将图片转换为非凡肖像,有 500 多种风格选择,适合制作个性头像。 Stable Diffusion Reimagine:通过稳定扩散算法生成精细、具细节的全新视觉作品。 Barbie Selfie Generator:将上传照片转换为芭比风格,适合喜欢梦幻童话风格的人。 此外,2023 年大模型关键进展包括: 百度发布文心一言 1.0 并不断升级。 OpenAI 发布 GPT4 等。 复旦开源 MOSS 等。 需注意,内容由 AI 大模型生成,请仔细甄别。
2024-10-22
国内有适合做新媒体平台创意思路的ai软件,例如抖音、小红书等,
目前对于适合国内新媒体平台(如抖音、小红书等)创意思路的 AI 软件,还没有明确的定论。但我们可以先从内容创作的角度来思考。之前汉青老师分享时提到,生成式 AI 的内容与传统社交媒体内容共存,如小红书、抖音、微信等。短期内,大家可能因新鲜感获得流量红利,但最终人们在意的仍是高质量的内容。 我们虽掌握了各种先进工具,如在 MJ 里用关键词出图、用 SD 做复杂工作流、制作炫酷宣传片等,但在此我们先不讨论工具,而是专注于内容。让节奏慢下来,认真感受真实世界,关注身边通常被一扫而过的普通人。 比如偶然在朋友朋友圈刷到的题材:“这两张照片其实是在同一条街道上拍下的,只不过年轻的女孩在街上,孤独的老人在围墙里。”“这张照片传递两种关系、一种爱意,年轻人手牵着怀孕的爱人,老母亲扶着女儿坐上电动车,这应该是这个世界最稳固的两种关系,而现在他们相遇在一张照片当中。”“很多人把生活当中的便利,比如电商快递外卖速度快便宜看着是我们的移动互联网优势,其实唯一的优势是我们的劳动力,无数个在深夜独自啃着馒头的年轻人支撑着美团阿里的市值...放大镜头看你会发现这其实是一个非常年轻的女孩子,她瘦小,即使戴了头盔也比后面的箱子高不了多少,她进食的时候甚至都没玩手机——我骑车路上看到过很多快递小哥都是边骑车边刷短视频,这至少说明他们对生活中的乐子还充满期待,而图中的女孩看着让人垂头丧气,不仅是她,也包括我。” 关于如何与 AI 结合来为新媒体平台创作优质内容,目前还没想好,也没完全想明白,需要慢慢思考和探索。
2024-10-18
API是什么意思
API 就像是一个信差,它接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。 以搜索“奥本海默”为例,在网址 https://www.themoviedb.org/search?query=奥本海默 中,域名 www.themoviedb.org 用于定位网站,路径 /search 表示搜索页面,query 是查询参数,其值为“奥本海默”。 对于获取数据的操作,如在 TMDb 中,有些数据虽然不展现,但为了支持筛选会保留。像“backdrop_path”是不完整的图片地址,TMDb 的官方 API 文档里有如何构造完整图片 URL 的说明。对于一些不熟悉的 API,需要在 Prompt 里告知如何使用。 Action 的工作流大致为:先思考要做什么样的 GPT 以及是否需要外部数据;然后寻找所需外部数据的 API 文档,或自己开发 API,寻找可用的 Action;最后基于 API 文档编写 Action 里的 Schema 和 Prompt 来处理取回的信息。 如果对 Action 感兴趣,可以系统学习 API 相关知识、寻找可用的 API 练习、发掘 GPT Action 更多潜力。
2024-10-11
agent什么意思
“智能体”(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 从以下几个方面详细介绍: 1. 定义:智能体是一种自主系统,通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。 2. 在 LLM 支持的自主 Agent 系统中,LLM 充当 Agents 的大脑,并辅以几个关键组成部分: 规划:将大型任务分解为更小、可管理的子目标,有效处理复杂任务。 反思和完善:对过去的行为进行自我批评和反思,从错误中吸取教训,完善未来步骤,提高最终结果质量。 记忆:包括短期记忆(所有的上下文学习利用模型的短期记忆来学习)和长期记忆(为 Agents 提供长时间保留和回忆无限信息的能力,通常通过利用外部向量存储和快速检索实现)。 工具使用:学习调用外部 API 来获取模型权重中缺失的额外信息,包括当前信息、代码执行能力、对专有信息源的访问等。 从产品角度思考 Agent 设计: Who:Agent 可以是一个历史新闻探索向导,具有知识渊博、温暖亲切、富有同情心的性格,主导新闻解析和历史背景分析。为使角色生动,可为其设计背景故事,明确起源、经历和动机,定义性格特点、说话方式和风格,设计对话风格,明确核心功能及附加功能。 在 AI 大模型中,agent 是比较火的概念,被认为是大模型未来的主要发展方向。中间的“智能体”其实就是 LLM 或大模型,四个箭头分别是为 LLM 增加的工具、记忆、行动、规划四个能力。目前行业里主要用到的是一个叫 langchain 的框架,它把 LLM 和 LLM 之间以及 LLM 和工具之间通过代码或 prompt 的形式进行串接,在 prompt 层和工具层完成主要的设计逻辑。
2024-10-08
RAG什么意思
RAG 是检索增强生成(RetrievalAugmented Generation)的缩写,是一种结合了检索模型和生成模型的技术。其核心目的是通过某种途径把知识告诉给 AI 大模型,让大模型“知道”我们的私有知识,变得越来越“懂”我们。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。 RAG 的最常见应用场景包括知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 大模型存在一些缺点,如无法记住所有知识尤其是长尾知识、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高,而 RAG 具有一些优点,如数据库对数据的存储和更新稳定、数据更新敏捷且可解释、能降低大模型输出出错的可能、便于管控用户隐私数据、可降低大模型的训练成本。 一个 RAG 的应用可以抽象为 5 个过程:文档加载(从多种不同来源加载文档)、文本分割(把文档切分为指定大小的块)、存储(将切分好的文档块进行嵌入转换成向量形式并存储到向量数据库)、检索(通过检索算法找到与输入问题相似的嵌入片)、输出(把问题以及检索出来的嵌入片一起提交给 LLM 生成答案)。
2024-10-08
open ai 与 GPT 与 chat GPT 的关系,分别什么意思
OpenAI 是致力于推动人工智能发展的研究公司。 ChatGPT 是由 OpenAI 研发的一款 AI 技术驱动的自然语言处理(NLP)聊天工具,于 2022 年 11 月 30 日发布。从 OpenAI 的官网信息来看,ChatGPT 最初被称为一种模型,目前逐渐演变成一种可以兼容多种 GPT 模型的聊天应用(服务)。目前 ChatGPT 依赖 GPT 系列模型来运转,使用的是 GPT4 的大型语言模型(LLM)。 GPT 是生成式预训练变换器,ChatGPT 是基于 GPT 架构的人工智能模型。目前 ChatGPT 官网有 GPT3.5 和 GPT4 两个版本,GPT3.5 是免费版本,GPT4 则需要升级到 PLUS 套餐(20 美金一个月)才能使用更多功能,还有团队版和企业版,功能更多但费用更贵。
2024-09-26
agent是什么意思
“Agent”(智能体)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 智能体的类型包括: 1. 简单反应型智能体(Reactive Agents):根据当前感知输入直接采取行动,不维护内部状态,不考虑历史信息。例如温控器,根据温度传感器输入直接打开或关闭加热器。 2. 基于模型的智能体(Modelbased Agents):维护内部状态,对当前和历史感知输入建模,能推理未来状态变化并据此采取行动。比如自动驾驶汽车,不仅感知当前环境,还维护和更新周围环境模型。 3. 目标导向型智能体(Goalbased Agents):除感知和行动外,具有明确目标,能根据目标评估不同行动方案并选择最优行动。像机器人导航系统,有明确目的地并计划路线以避开障碍。 4. 效用型智能体(Utilitybased Agents):不仅有目标,还能量化不同状态的效用值,选择效用最大化的行动,评估行动优劣并权衡利弊。例如金融交易智能体,根据不同市场条件选择最优交易策略。 5. 学习型智能体(Learning Agents):能够通过与环境交互不断改进性能,学习模型、行为策略以及目标函数。比如强化学习智能体,通过与环境互动不断学习最优策略。 在产品角度,我们的 Agent 可以是一个历史新闻探索向导,其身份为历史新闻探索向导,性格知识渊博、温暖亲切、富有同情心,角色是主导新闻解析和历史背景分析。为使角色更生动,可为其设计简短背景故事,比如曾是一位对世界重大历史事件了如指掌、充满热情且愿意分享知识的历史学家。写好角色个性需考虑角色背景和身份(编写背景故事,明确起源、经历和动机)、性格和语气(定义性格特点,如友好、幽默、严肃或神秘,确定说话方式和风格)、角色互动方式(设计对话风格,从基本问答到深入讨论)、角色技能(明确核心功能,如提供新闻解析、历史背景分析或心理分析,增加附加功能以提高吸引力和实用性)。正如《》所写,个性化定制的“虚拟伴侣”能得到用户认可,是因为精准击中许多年轻人无处可藏的孤独和焦虑,背后是年轻人渴望被理解、沟通和交流。美国心理学家 Robert Jeffrey Sternberg 提出了“爱情三角理论”,认为爱情包含“激情”“亲密”“承诺”三个要素。
2024-09-25