Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

有没有关于微调的最佳实践

Answer

以下是关于微调的最佳实践:

  • 一般最佳实践:使用更多高质量的示例进行微调效果更好。要微调一个比使用基本模型使用高质量提示更好地执行的模型,应提供至少几百个高质量的示例,最好由人类专家审查。从那里开始,性能往往会随着示例数量的每增加一倍而线性增加。增加示例的数量通常是提高性能的最佳和最可靠的方法。分类器是最容易上手的模型。对于分类问题,建议使用 ada,经过微调后,它通常只会比功能更强大的模型稍微差一点,同时速度更快,成本更低。
  • 准备数据集:微调是一种强大的技术,可用于创建特定于您的用例的新模型。在微调您的模型之前,强烈建议阅读以下针对您的用例的最佳实践和具体指南。
  • 具体指南:微调可以解决多种问题,最佳使用方式可能取决于您的具体用例。常见的微调用例和相应的指南包括:

如果您要对预先存在的数据集进行微调,而不是从头开始编写提示,请务必在可能的情况下手动检查您的数据是否存在令人反感或不准确的内容,或者如果数据集很大,请检查尽可能多的随机样本。

Content generated by AI large model, please carefully verify (powered by aily)

References

微调(Fine-tuning)

使用更多高质量的示例进行微调效果更好。要微调一个比使用我们的基本模型使用高质量提示更好地执行的模型,您应该提供至少几百个高质量的示例,最好由人类专家审查。从那里开始,性能往往会随着示例数量的每增加一倍而线性增加。增加示例的数量通常是提高性能的最佳和最可靠的方法。分类器是最容易上手的模型。对于分类问题,我们建议使用ada,经过微调后,它通常只会比功能更强大的模型稍微差一点,同时速度更快,成本更低。如果您要对预先存在的数据集进行微调,而不是从头开始编写提示,请务必在可能的情况下手动检查您的数据是否存在令人反感或不准确的内容,或者如果数据集很大,请检查尽可能多的随机样本。

微调(Fine-tuning)

微调是一种强大的技术,可用于创建特定于您的用例的新模型。在微调您的模型之前,我们强烈建议您阅读以下针对您的用例的最佳实践和具体指南。

微调(Fine-tuning)

微调可以解决多种问题,最佳使用方式可能取决于您的具体用例。下面,我们列出了最常见的微调用例和相应的指南。[分类](https://platform.openai.com/docs/guides/fine-tuning/classification)[该模型是否做出了不真实的陈述?](https://platform.openai.com/docs/guides/fine-tuning/case-study-is-the-model-making-untrue-statements)[情绪分析](https://platform.openai.com/docs/guides/fine-tuning/case-study-sentiment-analysis)[电子邮件分类的分类](https://platform.openai.com/docs/guides/fine-tuning/case-study-categorization-for-email-triage)[条件生成](https://platform.openai.com/docs/guides/fine-tuning/conditional-generation)[根据维基百科文章撰写引人入胜的广告](https://platform.openai.com/docs/guides/fine-tuning/case-study-write-an-engaging-ad-based-on-a-wikipedia-article)[实体提取](https://platform.openai.com/docs/guides/fine-tuning/case-study-entity-extraction)[客户支持聊天机器人](https://platform.openai.com/docs/guides/fine-tuning/case-study-customer-support-chatbot)[基于技术属性列表的产品描述](https://platform.openai.com/docs/guides/fine-tuning/case-study-product-description-based-on-a-technical-list-of-properties)

Others are asking
如何构建自己领域的微调数据集
构建自己领域的微调数据集可以参考以下步骤: 1. 确定目标领域和应用需求:明确您希望模型在哪个细分领域进行学习和优化。 2. 数据收集:广泛收集与目标领域相关的数据。例如,若要训练二次元模型,需收集二次元优质数据;若要微调 Llama3 ,可参考相关文档获取数据集。 3. 数据标注:对收集的数据进行准确标注,以便模型学习到有效的特征。 4. 数据清洗:去除无效或错误的数据,提高数据质量。 5. 特殊处理:如为数据添加特殊 tag 等。 以 Stable Diffusion 为例,可收集如 833 张宝可梦数据,并按照特定步骤进行清洗、标注和添加特殊 tag 。对于 Llama3 ,获取数据集后上传到服务器,编写并执行微调代码即可进行微调。 在微调过程中,还需注意一些问题,如大型语言模型微调可能面临训练时间长、成本高等挑战,此时可考虑参数有效调优等创新方法。
2025-02-17
微调
微调(Finetuning)是一种迁移学习技术,常用于深度学习中。其基本思路是先有一个在大量数据上预训练过的模型,该模型已学会一些基本模式和结构,然后在特定任务数据上继续训练,使其适应新任务。 例如在情感分类中,可先使用大量语料库预训练模型学会基本语法和单词语义,再用标注过的电影评论继续训练以判断情感。在图像分类中,先使用大量图片预训练模型学会识别基本形状和纹理,再用标注的猫和狗图片继续训练以区分二者。 创建微调模型时,假设已准备好训练数据,可使用 OpenAI CLI 开始微调工作。需确定从哪个基本模型(如 ada、babbage、curie 或 davinci)开始,并可使用后缀参数自定义微调模型名称。运行命令会上传文件、创建微调作业、流式传输事件直至作业完成。每个微调工作默认从 curie 模型开始,模型选择会影响性能和成本。作业开始后可能需几分钟或几小时完成,若事件流中断可恢复。此外,还可列出现有作业、检索作业状态或取消作业。 微调的超参数方面,选择了适用于一系列用例的默认超参数,唯一需要的参数是训练文件。但调整超参数通常可产生更高质量输出的模型,可能需配置的内容包括:要微调的基本模型名称(如“ada”“babbage”“curie”“davinci”);训练模型的时期数(n_epochs,默认为 4);批量大小(batch_size,默认为训练集中示例数量的 0.2%,上限为 256);微调学习率乘数(learning_rate_multiplier,默认为 0.05、0.1 或 0.2);是否计算分类指标(compute_classification_metrics,默认为假)。配置这些超参数可通过 OpenAI CLI 上的命令行标志传递。
2025-01-11
微调是什么意思
微调(Finetuning)是一种迁移学习技术,常用于深度学习中。其基本思路是:先有一个在大量数据上预训练过的模型,该模型已学会一些基本模式和结构(如自然语言处理中学会基本语法和单词语义,图像识别中学会基本形状和纹理)。然后,在特定任务数据上继续训练这个模型,使其适应新的任务。 以下是两个例子帮助理解: 1. 情感分类:先使用大量语料库预训练模型,使其学会基本语法和单词语义。再收集标注过的电影评论(一部分积极,一部分消极),在这些评论上继续训练模型,使其学会判断评论情感。 2. 图像分类:先使用大量图片(如 ImageNet 数据集)预训练模型,使其学会识别图片中的基本形状和纹理。再收集标注过的图片(一部分是猫,一部分是狗),在这些图片上继续训练模型,使其学会区分猫和狗。 微调在 LLM 应用中,是在已经训练好的模型基础上进一步调整,让模型的输出更符合预期。Finetune、Finetuning 是常用的英文写法。微调是在较小的、针对特定任务的标注数据集上进一步训练已经预训练过的 LLM 的过程,可调整部分模型参数以优化其在特定任务或任务集上的性能。 微调可让您从 API 提供的模型中获得更多收益,如比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省 Token、更低的延迟请求。GPT3 已在大量文本上预训练,微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例,这样可以节省成本并实现更低延迟的请求。 微调涉及以下步骤: 1. 准备和上传训练数据。 2. 训练新的微调模型。 3. 使用您的微调模型。 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。建议使用 OpenAI 命令行界面,安装时需注意相关要求。
2025-01-11
如何微调大模型
微调大模型主要包括以下几个方面: 1. 理解大模型:大模型是通过输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比大模型的训练和使用过程,包括找学校(需要大量 GPU 进行训练)、确定教材(需要大量数据)、找老师(选择合适算法)、就业指导(微调)和搬砖(推导)。 2. 准备数据集:数据集是让大模型重新学习的知识。例如,对于 Llama3 的微调,可以参考相关文档获取和了解数据集,如下载数据集。 3. 选择微调方式:从参数规模的角度,大模型的微调分成两条技术路线,全量微调 FFT(Full Fine Tuning)对全量的模型参数进行全量训练,PEFT(ParameterEfficient Fine Tuning)只对部分模型参数进行训练。从成本和效果综合考虑,PEFT 是目前业界较流行的微调方案。 4. 进行微调操作:有了数据集后,将其上传到服务器,编写微调代码并执行,大概 15 分钟左右可完成微调。 5. 参考资源:OpenAI 官方微调教程 。 微调的好处包括提高模型在特定任务中的性能和提高模型效率。经过微调的模型可能会失去一些通用性,但对于特定任务会有更好的表现,同时还能实现更低的延迟和成本。
2025-01-10
微调和增量训练的区别
微调和增量训练是在人工智能领域中用于改进模型性能的两种不同方法,它们有以下区别: 微调: 参数调整范围:分为全量微调(FFT)和参数高效微调(PEFT)。全量微调对全量的模型参数进行全量训练,PEFT 则只对部分模型参数进行训练。 数据使用:在较小的、特定领域的数据集上继续大语言模型(LLM)的训练过程,通过调整模型本身的参数来提高在特定任务中的性能。 效果和优势: 能大幅提高模型在特定任务中的性能,因为可以输入更多示例。 提高模型效率,可通过专门化模型使用更小的模型,且由于只对输入输出对进行训练,能舍弃示例或指令,进一步改善延迟和降低成本。 但经过微调的模型可能会失去一些通用性。 增量训练:文中未明确提及增量训练的相关内容。 总的来说,微调是一种针对特定任务和数据集对模型参数进行调整的有效方法,而增量训练的具体特点和与微调的详细对比在提供的内容中未充分阐述。
2025-01-07
训练以及部署微调模型
以下是关于训练以及部署微调模型的相关信息: 创建微调模型: 假设您已准备好训练数据。使用 OpenAI CLI 开始微调工作,需指定从哪个 BASE_MODEL(如 ada、babbage、curie 或 davinci)开始,可使用后缀参数自定义微调模型的名称。运行命令后会进行以下操作: 1. 使用文件 API 上传文件(或使用已上传的文件)。 2. 创建微调作业。 3. 流式传输事件直到作业完成,这通常需要几分钟,但如果队列中有很多作业或数据集很大,可能需要数小时。 每个微调工作都从默认为 curie 的基本模型开始,模型的选择会影响性能和成本。您的模型可以是 ada、babbage、curie 或 davinci,可访问定价页面了解微调费率的详细信息。 开始微调作业后,可能需要一些时间才能完成。工作可能排在其他工作之后,训练模型可能需要几分钟或几小时,具体取决于模型和数据集的大小。若事件流中断,可通过运行特定命令恢复。工作完成后,会显示微调模型的名称。此外,还可以列出现有作业、检索作业状态或取消作业。 GPT 助手的训练: 在有监督的微调阶段,收集少量但高质量的数据集,要求人工承包商收集提示和理想响应的数据,通常是几万个或类似数量。然后对这些数据进行语言建模,算法不变,只是训练集从互联网文档变为问答提示响应类型的数据。训练后得到有监督的微调模型(SFT 模型),可实际部署。 大型语言模型的微调: 一旦有了基础模型,进入计算成本相对较低的微调阶段。编写标签说明,明确助手的表现期望,雇佣人员创建文档,如收集 100,000 个高质量的理想问答对来微调基础模型,此过程可能只需一天。然后进行大量评估,部署模型并监控表现,收集不当行为实例并纠正,将正确答案加入训练数据,重复此过程。由于微调成本较低,可每周或每天进行迭代。 例如 Llama2 系列,Meta 发布时包括基础模型和助手模型。基础模型不能直接使用,助手模型可直接用于回答问题。若想自己微调,Meta 完成的昂贵的第一阶段结果可提供很大自由。
2025-01-06
有没有lora怎么使用的教程
以下是关于 Lora 使用的教程: 1. 港风胶片 Lora 模型使用方法: 方法 1:利用上一期活动图片反推工作流,使用唯美港风图片进行反推提示词,在大模型后接一个墨悠_胶片 Lora。上一期活动链接:。胶片 Lora 链接:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 方法 2:利用抱脸的 joycaption 图片反推提示词,然后在哩布上跑 flux 文生图工作流。 joycaption 链接(需要魔法):https://huggingface.co/spaces/fancyfeast/joycaptionprealpha 文生图工作流: 在哩布上跑文生图:https://www.liblib.art/modelinfo/e16a07d8be544e82b1cd14c37e217119?from=personal_page 2. Comfyui SDXLLightning 中 Lora 的使用: SDXLLightning 是字节跳动推出的高速文本生成图像模型,包含完整的 UNet 和 LoRA 检查点。用户可以使用 Diffusers 和 ComfyUI 等框架进行配置。模型地址:https://huggingface.co/ByteDance/SDXLLightning/tree/main 。 实际使用时,拿 Lora 的使用来做介绍,使用方法和平常的 Lora 用法一样,但需要注意 CFG 值需要调小,一般设置为 1,另外步数设置根据使用的 Lora 步数为准。 3. Stable Diffusion 中 Lora 的使用: 当想要生成多张同一张脸的照片时,需要用到 Lora 模型。Lora 可以固定照片的特征,如人物特征、动作特征、照片风格。 点击“生成”下面的第三个按钮,弹出新的选项框,找到 Lora,就会出现下载保存到电脑的 Lora 模型。 点击要用的 Lora,会自动添加到关键词的文本框里面。Lora 可以叠加使用,但建议新手不要使用太多 Lora,每个 Lora 后面的数字用于调整权重,一般只会降低权重。 选择 Lora 时,要根据最开始想要生成的照片类型来选择,比如想生成真人模特,对应的 Lora 也要选用真人模特。
2025-02-17
有没有形容在ai应用中 数据很重要的图
在 AI 应用中,数据具有极其重要的地位,主要体现在以下几个方面: 1. 训练过程:计算机通过数据进行自我学习,每一层节点代表的含义由数据决定,数据的质量和偏差会直接影响 AI 学习结果。 2. 模型效果:高质量的数据如同精炼后的汽油,能极大提升模型效果。而国内中文互联网数据质量相对较低,获取高质量数据困难,存在“垃圾进,垃圾出”的问题。 3. 企业应用:企业应确保数据的多样性与真实性,进行数据审查和多源验证,避免历史偏见被放大。很多企业虽认识到数据重要,但数据梳理是漫长枯燥的过程。 4. 避免陷阱:要警惕数据陷阱和新的信息茧房,避免因数据问题导致决策失误。
2025-02-17
我现在想根据我的博士论文,想出一个国家社科基金的选题。但是我的博士论文感觉核心不是特别突出,我希望找到一个AI助手,让AI帮我读论文的PDF格式然后总结出一个最合适的选题,有没有推荐的AI工具?
以下是一些关于利用 AI 辅助完成您需求的建议: 1. 先拆解您的博士论文工作流程,搞清楚每个步骤的输入输出和相互关系。 2. 思考论文中的哪些环节可以引入 AI 工具来提效,一切要从业务逻辑出发,AI 是锦上添花,不能本末倒置。 3. 搭建选题库,明确论文的定位(可用 AI 辅助分析),找相关的对标论文和优秀研究。 4. 在写作环节,可用 AI 辅助拆解对标论文,提炼写作技巧,然后根据借鉴的技巧结合自身特色列出写作大纲,并使用 AI 优化大纲、查找资料、润色文章,但核心内容要自己完成,不能过度依赖 AI。 5. 起标题与配图方面,用 AI 辅助批量生成标题,再自己修改优化,评估标题是否足够吸引眼球,让 AI 分析论文提供配图建议,去免费图库搜索配图。 6. 养成习惯与总结,做每件事前都思考 AI 能提供什么帮助,把整套流程实践几次,形成肌肉记忆,不断打磨完善属于自己的 AI 辅助流程,同时警惕过度依赖,AI 只是辅助,核心能力要靠自己。 目前常见的可用于辅助您的 AI 工具如 ChatGPT 等,但具体的选择还需根据您的实际需求和使用体验来决定。
2025-02-16
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入材质图片,得到经过设计后的成品衣服
目前尚未有成熟的 AI 大模型或智能体能够直接实现输入材质图片就得到经过设计后的成品衣服的功能。但在 AI 领域的不断发展中,可能会有相关的技术和模型在未来出现。
2025-02-16
你是一名电商专家,有没有哪个AI大模型或者智能体可以完成以下功能:输入衣服材质图片,得到经过设计后的材质成品衣服
目前尚未有专门的 AI 大模型或智能体能够直接实现您所描述的输入衣服材质图片就得到经过设计后的材质成品衣服的功能。但随着 AI 技术的不断发展,未来可能会出现相关的应用。
2025-02-16
有没有把文字生成图片,并配图的ai软件
以下是一些可以将文字生成图片并配图的 AI 软件: 1. Stable Diffusion:可以根据文本指令生成与文本信息匹配的图片,生成的图片样式取决于使用者输入的提示词,难以出现完全相同的两张输出图片。 2. 无界 AI:可用于快速制作海报底图,在操作步骤上与其他同类软件有相似之处,大致流程包括确定主题与文案、选择风格与布局、生成与筛选、配文与排版。 3. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 4. MidJourney:因高质量的图像生成效果和用户友好的界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您可以根据自己的需求选择使用。在 WaytoAGI 网站(https://www.waytoagi.com/category/104 ),可以查看更多文生图工具。需要注意的是,内容由 AI 大模型生成,请仔细甄别。
2025-02-16
音效AI生成 最佳方案
以下是关于音效 AI 生成的一些信息和最佳方案: 音效是 AI 的一个具有吸引力的开放领域。目前已有学术论文探讨使用 AI 在电影中生成“现场效果音”,但在游戏中的商业产品尚属稀少。 在游戏中,为玩家角色生成脚步声音时,传统方法使用少量预先录制的声音,存在繁琐、重复和不真实的问题。更好的方式是使用实时的生成性 AI 模型来制作现场效果音,它能根据游戏参数实时生成略有不同且合适的音效。 在音乐方面,AI 生成音乐存在基于乐理规则的符号生成模型和基于音频数据的音频生成模型两种主流技术路线。开发者正在使用 AI 生成音乐来填充游戏过程与游戏 UI 中需要的各类音效、不同游戏场景中用以渲染氛围的各种音乐。像 MusicLM 等模型已支持生成多音轨作品,使用 AI 生成音乐为原型并佐以专业制作人的协调,可使其更快进入游戏制作与发行的生产线。 在实际应用中,如《新哪吒闹海》的配音一开始打算用 AI 但因情绪不够丰满而选择专业声音表演者,音效需求简单时可采用剪映中的音效资源库。同时,为您分享三个音效资源站: 1. https://www.lookae.com/sucai/sfx/ ,大部分免费且分好类的音效包可供下载。 2. https://www.epidemicsound.com/ ,专业的音效站点,Gen48 合作站。 3. https://sc.chinaz.com/yinxiao/ ,适合搜索单个音效下载的站点。
2025-02-08
用Ai进行财务分析的最佳实践
以下是关于用 AI 进行财务分析的最佳实践: 1. 更动态的预测和报告: 生成式 AI 能帮助金融服务团队改进内部流程,简化财务团队日常工作。 可从更多数据源获取数据,并自动化突出趋势、生成预测和报告的过程。 预测方面,能帮助编写公式和查询,发现模式,为预测建议输入并适应模型。 报告方面,能自动创建文本、图表等内容,并根据不同示例调整报告。 会计和税务方面,能帮助综合、总结并提出可能答案。 采购和应付账款方面,能帮助自动生成和调整合同、订单、发票及提醒。 2. 局限性与挑战: 生成式 AI 输出当前有局限性,在需要判断或精确答案的领域,常需人工审查。 面临的挑战包括使用金融数据训练 LLM,新进入者可能先使用公开金融数据微调模型,现有参与者可利用专有数据,但可能过于保守,新进入者有竞争优势。 模型输出准确性至关重要,金融问题答案需尽可能准确,初期人类常作为最终验证环节。 总之,生成式 AI 为金融服务带来巨大变革,有潜力催生多种优势,但也面临挑战,未来消费者将是最终赢家。
2025-02-08
用Ai进行数据分析的最佳实践
以下是关于用 AI 进行数据分析的最佳实践: 流程: 逻辑流程图如下:SQL 分析中,用户描述想分析的内容,后台连接 DB,附带表结构信息让 AI 输出 SQL 语句,校验是 SELECT 类型的 SQL 后执行,将结果数据传给 GPT(附带上下文),让其学习并分析数据,最后输出分析结论和建议,与结果数据一起返回给前端页面渲染图表、展示分析结论。个性化分析中,用户上传文件,前端解析后传给 GPT 分析数据,后续步骤与 SQL 分析一致。 个性化分析示例: 上传的数据均为假数据,包括游戏 A 流水数据、游戏产品数据、页面事件统计和用户行为数据等。包括单维度数据、多维度数据(折线图、柱状图)。有时 AI 会误将数据项作为维度分析,可输入提示告诉它用哪个字段作为维度,也可描述其他数据信息使分析更准确。 总结和展望: ChatGPT 在数据分析领域应用前景广泛,本文案例与技巧展示了其在提高效率、降低技能门槛和支持决策等方面的优势。但案例分析结果可能简单,接入业务时可定制多种分析模板,增加分析多样性。实际业务中处理大量数据时,除长类型字段限制,要指定允许查询或解析的字段,对结果数据进行两次校验。随着技术进步,相信其将为数据分析带来更多创新和突破。 问题与技巧: SQL 分析: 反复校验是否为 SELECT SQL 语句,不仅因 AI 不完全可控,还因不能相信用户输入,防止恶意操作。 到 AI 分析步骤拼接上下文,提供表结构信息和 SQL 语句,助 GPT 更好理解数据和字段意义,使分析更准确。 针对表结构长类型字段,不允许直接查询,最好告诉 GPT 允许查询的字段或 SQL 函数,使生成可控。 个性化分析: 用户上传数据解析后判断格式是否符合要求,超长可限制截取前面若干项。 前端解析用户上传数据后可直接用于渲染数据图表,无需后端返回。 支持用户补充输入,描述数据、字段意义或作用辅助 AI 分析。遇到多维度数据,GPT 可能误将其他字段作为维度分析,可输入特定提示帮助分析。
2025-02-08
TTS的最佳解决方案
以下是关于 TTS 的一些最佳解决方案: 在线 TTS 工具推荐: Eleven Labs:https://elevenlabs.io/ ,是一款功能强大且多功能的 AI 语音软件,能高保真地呈现人类语调和语调变化,并能根据上下文调整表达方式。 Speechify:https://speechify.com/ ,是一款人工智能驱动的文本转语音工具,可作为多种平台的应用使用,用于收听网页、文档、PDF 和有声读物。 Azure AI Speech Studio:https://speech.microsoft.com/portal ,提供了支持 100 多种语言和方言的语音转文本和文本转语音功能,还提供了自定义的语音模型。 Voicemaker:https://voicemaker.in/ ,可将文本转换为各种区域语言的语音,并允许创建自定义语音模型。 TTS 音库制作和文本前端: 录音文本收集:在一个语种的语音合成建设之初,可同步收集该语种对应的大文本。录音文本的选择一般遵循以下原则: 音素覆盖:构建基础的文本前端,确保录音文本的音素或音素组合尽可能覆盖全。 场景定制:根据通用或特定场景需求,确保相关内容有所覆盖,并与需求方紧密沟通。 文本正确性:确保录音文本拼写无误,内容正确。 照片数字人工作流及语音合成(TTS)API 出门问问 Mobvoi: 接口请求域名:https://open.mobvoi.com/api/tts/v1 。 接口请求频率限制:5 次/秒。 可以将任意文本转化为语音,应用场景广泛,提供多种方言、发音人和风格,实时合成支持 SSML。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-02-07
企业管理咨询顾问应用AI辅助工作的最佳实践
以下是企业管理咨询顾问应用 AI 辅助工作的一些最佳实践: 对于企业管理者: 1. AI 辅助决策:在小规模决策中运用 AI 分析工具,如利用其分析客户反馈或市场趋势数据,以此作为决策参考。 2. 员工培训计划:制定 AI 工具使用的培训计划,助力团队成员在日常工作中有效利用 AI。 3. 流程优化:识别公司内可能受益于 AI 自动化的重复性任务,先从一个小流程开始测试 AI 解决方案的效果。 4. AI 伦理和政策:着手制定公司的 AI 使用政策,确保 AI 的应用符合伦理标准和法律要求。 对于商业顾问: 1. 工具服务小型企业:生成式 AI 对于小型企业是一个重要的应用场景,如 Sameday 可接电话并预约,Truelark 能处理短信、电子邮件和聊天等。 2. 特定类型企业的垂直化工具:出现了为特定类型企业工作流定制的工具,如 Harvey 和 Spellbook 帮助法律团队自动化任务,Interior AI 和 Zuma 在房地产行业发挥作用。 无论您属于哪个群体,与 AI 协作是一个学习过程。应从小处着手,保持好奇心和开放态度,将 AI 视为强大的工具而非完全依赖的解决方案。同时,始终保持批判性思维,您会发现 AI 不仅能提高工作效率,还能激发创造力,开拓新的可能性。
2025-02-06
AI阅读书籍的最佳实践是什么?
以下是关于 AI 阅读书籍的一些最佳实践: 1. 方法论萃取: 针对不同类型书籍的阅读和记忆方法进行分类,探讨共性方法论。 研究阅读和记忆的思维模型及小技巧。 思考如何优先选择自己“一定看得下去”的书籍,通过目录大纲确定核心内容。 确定一本书的阅读次数和顺序。 考虑读书过程中做笔记还是读完后回忆做大纲。 探索如何教刚毕业的孩子学会有效读书。 根据上述问题的答案设计“书籍阅读助手”“催我读书”等 Prompt,并不断优化和迭代。 2. 成为博物学家: 了解各个领域的知识,在恰当的时候调用。 参考权威、准确、有框架、成体系且好读的推荐书单,如涵盖心理学、人工智能、经济学等 13 个学科的书单。 3. 批判性思考: 思考在哪些情况下使用和不使用 AI 辅助阅读。 避免将 AI 作为默认选项,例如在使用地图导航时,不应完全依赖,而应注重自身对环境的观察和记忆。
2025-01-31
coze的deepseek实践
以下是关于 coze 的 deepseek 实践的相关信息: 一个提示词让 DeepSeek 的能力更上一层楼: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用:搜索 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 Deepseek,认真阅读开场白后正式开始对话。 设计思路:将 Agent 封装成 Prompt 并储存在文件,通过提示词文件让 DeepSeek 实现同时使用联网和深度思考功能,在模型默认能力基础上优化输出质量,设计阈值系统,用 XML 进行规范设定。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】提供思考方向,Thinking Claude 是设计灵感来源,Claude 3.5 Sonnet 是得力助手。 字节火山上线了 DeepSeek 系列模型并更改了模型服务价格: 2 月 14 日 8 点有直播,直播结束可看回放,相关学习文档可查看。 重点更新:上线 DeepSeek 系列模型,DeepSeekR1、V3 模型分别提供 50 万免费额度和 API 半价活动,即日起至 2025 年 2 月 18 日 23:59:59 所有用户均可享受价格优惠。 2024 年 7 月 18 日历史更新(归档): 《长文深度解析 Coze 的多 Agent 模式的实现机制》:艾木老师深入研究了 Coze 的多 Agent 模式机制,分析了三种节点跳转模式及应用场景和不足。 《揭秘 DeepSeek: 一个更极致的中国技术理想主义故事》:DeepSeek 以独特技术创新崭露头角,发布颠覆性价格的源模型 DeepSeek V2,创始人梁文锋是技术理想主义者。 《10 万卡集群:通往 AGI 的新门票》:分析了 10 万 GPU 集群建设的相关问题,指出数据中心设计和网络拓扑结构对大型 AI 训练集的重要性。
2025-02-16
ai实践的内容
以下是关于 AI 实践的相关内容: 社区 AI 讲师招募 招募要求: 具有丰富的企业端 AI 实践经验,涵盖以下场景之一或多个: AI 生成爆款内容,如借助 AI 分析挖掘同品类爆款,利用 AI 工具生成电商商品图、小红书图文内容、种草短视频等。 公域阵地场景,基于视频号、抖音、小红书、公众号等平台搭建企业营销推广能力,包括矩阵号和 IP 号,通过短视频、直播等方式获取 leads,涉及矩阵号工具、内容抓取分析、脚本创作、AI 剪辑、自动回复评论、无人直播工具等。 私域阵地场景,如朋友圈、小红书、社群、个人 IP 的获客转化,使用销售企微 SCRM 工具、企业智能体进行 AI 内容抓取和自动回复。 服务自动化工具,包括数据监控和预警、流程优化、自动运营等。 快速搭建数据分析看板。 跨境电商场景,如 tiktok 视频制作及投放、电商图片设计、精准营销、语言翻译、AI 独立站建设、社媒私域、批量混剪、海外达人直播、无人直播(数字人直播)等。 具备良好的表达能力,能清晰阐述技术和业务方面的沉淀。 招募流程:感兴趣的小伙伴提交个人简历(包括基本信息介绍、学历、专业、工作经验,以及 AI 企业端的案例),填写问卷,预约电话面谈,面谈通过后进行公开课试讲。 陈财猫:如何用 AI 写出比人更好的文字? AI+内容创作是现阶段的优质赛道,具有完美的产品模型匹配和产品市场匹配,且发展上限高。 AI 写作的实践成果包括营销、小说和短剧创作,开发了智能营销矩阵平台,参与喜马拉雅短故事和短剧写作课程,推出小财鼠程序版 agent。 好文字能引发人的生理共鸣与情绪,AI 因预训练数据量大能学会引发共鸣从而写出好文字。 用 AI 写出好文字的方法:选择合适的模型,评估模型的文风、语言能力、是否有过度道德说教与正面描述趋势、in context learning 能力和遵循复杂指令的能力;克服平庸,平衡“控制”与“松绑”;显式归纳想要的文本特征,通过 prompt 中的描述与词语映射到预训练数据中的特定类型文本,往 prompt 里塞例子。 对 AI 创作的看法:AI 创作的内容有灵魂,只要读者有灵魂,文本就有灵魂;有人讨厌 AI 是因其未改变多数人生活或自身是受害者,作者期望 AI 能力进一步提升以改变每个人的生活。 熊猫 Jay:用 AI+思维模型探索问题的全新解答 案例实践:利用 AI+六顶思考帽做个人 IP 定位。 推荐使用 GPT4,效果更稳定,内容质量更高。包括初始化提示词、回答每顶帽子对应的问题,最终得到答案和建议。 文心 4.0 同样包括初始化提示词、回答每顶帽子对应的问题,并得到答案和建议。 小结:该案例借助六顶思考帽提供不同思考维度,引导全面思考问题。当把思考后的信息输入给 AI 后,能总结出满意的答案和建议。开头提到人的惰性问题,借助 AI 可以更全面剖析个人决策或团队会议中的问题,找到更正确的决策方式。之后,大家可用六顶思考帽+AI 解决困扰自己的问题,无论是个人决策还是团队讨论。
2025-02-13
本人一般用ai语言模型来搜索所需的市场资料,现在想自学更多ai工具以便之后用ai工具发展副业,可以从哪里开始学习与实践
以下是关于您自学更多 AI 工具以发展副业的学习与实践建议: 1. 基础理解:了解大型语言模型的工作原理和局限性,例如它们在数学计算方面主要基于语言理解和生成,而非专门的数学计算设计,可能会在处理简单数学问题时出错。 2. 学习路径: 规划:明确学习目标和步骤。 记忆:记住关键知识和操作方法。 3. 实践操作: 掌握 GPT 的使用:了解 GPT 如 GPT4 的功能和特点,包括其工具选择和行动(Action)机制。 尝试工具:如 Webpilot,它能让 GPT 支持更实时的联网功能,获取网络资源。具体操作是在新建的 GPT 里勾掉 Web Browsing,然后点击添加 Actions(Add actions),再点击 import from URL 并填入相关网址。 4. 就业与应用: 了解人工智能领域的高薪工作,如数据科学家、机器学习工程师等,学习相关技能以增加就业机会。 关注 AI 技术在金融、医疗、制造业等行业的应用,掌握相关技能以拓展副业发展的可能性。 但需要注意的是,学习 AI 有可能赚钱,但不保证每个人都能成功,是否能赚钱还取决于个人的学习能力、实际应用能力、对市场和商业的理解等因素,需要持续学习和实践。
2025-02-03