直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

有没有关于微调的最佳实践

回答

以下是关于微调的最佳实践:

  • 一般最佳实践:使用更多高质量的示例进行微调效果更好。要微调一个比使用基本模型使用高质量提示更好地执行的模型,应提供至少几百个高质量的示例,最好由人类专家审查。从那里开始,性能往往会随着示例数量的每增加一倍而线性增加。增加示例的数量通常是提高性能的最佳和最可靠的方法。分类器是最容易上手的模型。对于分类问题,建议使用 ada,经过微调后,它通常只会比功能更强大的模型稍微差一点,同时速度更快,成本更低。
  • 准备数据集:微调是一种强大的技术,可用于创建特定于您的用例的新模型。在微调您的模型之前,强烈建议阅读以下针对您的用例的最佳实践和具体指南。
  • 具体指南:微调可以解决多种问题,最佳使用方式可能取决于您的具体用例。常见的微调用例和相应的指南包括:

如果您要对预先存在的数据集进行微调,而不是从头开始编写提示,请务必在可能的情况下手动检查您的数据是否存在令人反感或不准确的内容,或者如果数据集很大,请检查尽可能多的随机样本。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

微调(Fine-tuning)

使用更多高质量的示例进行微调效果更好。要微调一个比使用我们的基本模型使用高质量提示更好地执行的模型,您应该提供至少几百个高质量的示例,最好由人类专家审查。从那里开始,性能往往会随着示例数量的每增加一倍而线性增加。增加示例的数量通常是提高性能的最佳和最可靠的方法。分类器是最容易上手的模型。对于分类问题,我们建议使用ada,经过微调后,它通常只会比功能更强大的模型稍微差一点,同时速度更快,成本更低。如果您要对预先存在的数据集进行微调,而不是从头开始编写提示,请务必在可能的情况下手动检查您的数据是否存在令人反感或不准确的内容,或者如果数据集很大,请检查尽可能多的随机样本。

微调(Fine-tuning)

微调是一种强大的技术,可用于创建特定于您的用例的新模型。在微调您的模型之前,我们强烈建议您阅读以下针对您的用例的最佳实践和具体指南。

微调(Fine-tuning)

微调可以解决多种问题,最佳使用方式可能取决于您的具体用例。下面,我们列出了最常见的微调用例和相应的指南。[分类](https://platform.openai.com/docs/guides/fine-tuning/classification)[该模型是否做出了不真实的陈述?](https://platform.openai.com/docs/guides/fine-tuning/case-study-is-the-model-making-untrue-statements)[情绪分析](https://platform.openai.com/docs/guides/fine-tuning/case-study-sentiment-analysis)[电子邮件分类的分类](https://platform.openai.com/docs/guides/fine-tuning/case-study-categorization-for-email-triage)[条件生成](https://platform.openai.com/docs/guides/fine-tuning/conditional-generation)[根据维基百科文章撰写引人入胜的广告](https://platform.openai.com/docs/guides/fine-tuning/case-study-write-an-engaging-ad-based-on-a-wikipedia-article)[实体提取](https://platform.openai.com/docs/guides/fine-tuning/case-study-entity-extraction)[客户支持聊天机器人](https://platform.openai.com/docs/guides/fine-tuning/case-study-customer-support-chatbot)[基于技术属性列表的产品描述](https://platform.openai.com/docs/guides/fine-tuning/case-study-product-description-based-on-a-technical-list-of-properties)

其他人在问
AI 增量训练和模型微调的区别
AI 增量训练和模型微调存在以下区别: 目的:增量训练通常是为了持续更新模型以适应新的数据和任务,而模型微调主要是为了使模型在特定的小领域数据集上针对特定任务达到更好的性能。 范围:增量训练可能涉及对模型的较大范围的更新,而微调往往集中在较小范围的参数调整。 方式:增量训练可能会对全量的模型参数进行训练,而微调存在全量微调(FFT)和参数高效微调(PEFT)两种技术路线,PEFT 只对部分模型参数进行训练,且目前在业界较为流行。 成本和效果:从成本和效果综合考虑,PEFT 是较好的微调方案。微调可以大幅提高模型在特定任务中的性能,但可能会使模型失去一些通用性。 数据使用:增量训练可能需要更多新的数据,而微调是在较小的、特定领域的数据集上进行。 如需了解更多关于微调的内容,可参考 OpenAI 官方微调教程:https://github.com/openai/openaicookbook/blob/main/examples/How_to_finetune_chat_models.ipynb
2024-09-13
模型微调都有哪些方式?
模型微调主要有以下方式: 1. 使用微调模型:当作业成功时,`fine_tuned_model`字段将填充模型名称。您现在可以将此模型指定为我们的`Completions API`的参数,并使用`Playground`向它发出请求。在您的工作首次完成后,您的模型可能需要几分钟时间才能准备好处理请求。如果对您的模型的完成请求超时,可能是因为您的模型仍在加载中。如果发生这种情况,请在几分钟后重试。您可以通过将模型名称作为`model`完成请求的参数传递来开始发出请求,包括`OpenAI`命令行界面、`cURL`、`Python`、`Node.js`等方式。您还可以继续使用所有其他完成参数,如`temperature`、`frequency_penalty`、`presence_penalty`等对这些请求进行微调模型。 2. 介绍:微调可让您从`API`提供的模型中获得更多收益,比如比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省了`Token`、更低的延迟请求。`GPT3`已经在来自开放互联网的大量文本上进行了预训练。当给出仅包含几个示例的提示时,它通常可以凭直觉判断出您要执行的任务并生成合理的完成,这通常称为“小样本学习”。微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例,这样可以节省成本并实现更低延迟的请求。在高层次上,微调涉及以下步骤:准备和上传训练数据、训练新的微调模型、使用您的微调模型。 3. 通义千问团队的微调方式:大规模预训练后,通义千问团队对模型进行精细的微调,以提升其智能水平,让其表现更接近人类。这个过程进一步提升了代码、数学、推理、指令遵循、多语言理解等能力。此外,模型学会对齐人类价值观,它也随之变得更加对人类有帮助、诚实以及安全。通义千问团队的微调过程遵循的原则是使训练尽可能规模化的同时并且尽可能减少人工标注。团队探索了如何采用多种自动方法以获取高质量、可靠、有创造力的指令和偏好数据,其中包括针对数学的的方法减少对齐税。不久后,通义千问团队将推出`Qwen2`的技术报告。
2024-09-11
在条件生成场景,怎么做微调比较好
在条件生成场景中,进行微调可以参考以下指南: 1. 在提示末尾使用分隔符,例如\n\n\n\n。当最终向模型发出请求时,也要附加此分隔符。 2. 在完成结束时使用结束 token,例如 END。在推理过程中将结束 token 添加为停止序列,例如 stop=。 3. 目标是至少约 500 个示例。 4. 确保提示+完成不超过 2048 个 token,包括分隔符。 5. 确保示例具有高质量并遵循相同的所需格式。 6. 确保用于微调的数据集在结构和任务类型上与模型将用于的数据集非常相似。 7. 使用较低的学习率和仅 1 2 个时期往往更适合这些用例。 此外,还有以下案例研究: 1. 基于技术属性列表的产品描述:将输入数据转换为自然语言很重要,这可能会带来卓越的性能。为了获得高性能,请确保完成是基于所提供的描述。如果经常查阅外部内容,则以自动方式添加此类内容将提高性能。如果描述基于图像,则使用算法提取图像的文本描述可能会有所帮助。由于完成只有一个句子长,可以在推理过程中用作停止序列。 2. 实体提取:这类似于语言转换任务。为了提高性能,最好按字母顺序或按照它们在原始文本中出现的相同顺序对不同的提取实体进行排序。这将有助于模型跟踪需要按顺序生成的所有实体。数据集可能如下所示,例如:多行分隔符效果最好,因为文本可能包含多行。理想情况下,输入提示的类型会高度多样化(新闻文章、维基百科页面、推文、法律文件),这反映了提取实体时可能遇到的文本。
2024-09-06
如何部署并微调BERT模型
部署并微调 BERT 模型的步骤如下: 1. 选择合适的部署方式: 本地环境部署。 云计算平台部署。 分布式部署。 模型压缩和量化。 公共云服务商部署。根据自身的资源、安全和性能需求选择合适的部署方式。 2. 准备训练所需的数据和计算资源: 确保有足够的训练数据覆盖目标应用场景。 准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础: 可以使用开源的预训练模型如 BERT 等作为基础。 4. 针对目标任务进行模型微调训练: 根据具体应用场景对预训练模型进行微调训练。 优化模型结构和训练过程以提高性能。 5. 部署和调试模型: 将训练好的模型部署到生产环境。 对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护:大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 总的来说,部署和微调 BERT 模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2024-09-03
怎么对大模型进行微调
大模型的微调可以从以下几个方面来理解和操作: 一、大模型的基本概念 通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行“文本生成”、“推理问答”、“对话”、“文档摘要”等工作。 可以用“上学参加工作”这件事来类比大模型的训练、使用过程: 1. 找学校:训练大模型需要大量的计算,因此 GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等。 二、微调的技术路线 从参数规模的角度,大模型的微调分成两条技术路线: 1. 全量微调 FFT(Full Fine Tuning):对全量的模型参数,进行全量的训练。 2. PEFT(ParameterEfficient Fine Tuning):只对部分模型参数进行训练。 从成本和效果的角度综合考虑,PEFT 是目前业界比较流行的微调方案。 OpenAI 官方微调教程: 微调是在较小的、特定领域的数据集上继续大模型的训练过程。这可以通过调整模型本身的参数,而不是像提示工程和 RAG 那样仅仅更改提示,来大幅提高模型在特定任务中的性能。把微调想象成把通用工具打磨成精密仪器。 三、微调的好处和操作方式 微调有两大好处: 1. 提高模型在特定任务中的性能。微调意味着可以输入更多的示例。可以在数以百万计的代币上进行微调,而根据上下文的大小,少量学习提示仅限于数以万计的代币。经过微调的模型可能会失去一些通用性,但对于其特定任务而言,应该期待它有更好的表现。 解决不当行为的方法是通过某种对话,助手给出了错误的响应。接受这个错误响应,并要求某人提供正确的答案。然后,用正确的答案覆盖错误的响应,并将其作为示例加入到训练数据中。下次进行微调时,模型就会在这种情况下得到改进。这是一个迭代过程,由于微调的成本较低,可以每周或每天进行这样的操作。通常,公司会在微调阶段而不是预训练阶段更频繁地进行迭代。
2024-08-30
模型微调
模型微调包括以下方面: 使用微调模型:当作业成功时,fine_tuned_model 字段将填充模型名称,完成后可能需几分钟准备好处理请求,若超时可能仍在加载中,可几分钟后重试。可通过将模型名称作为 model 完成请求的参数传递来开始发出请求,如 OpenAI 命令行界面、cURL、Python、Node.js 等方式。同时,可继续使用如 temperature、frequency_penalty、presence_penalty 等所有其他完成参数对微调模型进行请求。 Step4: 加载微调模型:基于 LoRA 微调的模型参数见基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数,示例代码中,base_model_name_or_path 为预训练模型参数保存路径,finetune_model_path 为微调模型参数保存路径。 创建微调模型:假设已准备好训练数据。使用 OpenAI CLI 开始微调工作,需明确从哪里 BASE_MODEL 开始的基本模型的名称(ada、babbage、curie 或 davinci),可使用后缀参数自定义微调模型的名称。运行命令会进行上传文件、创建微调作业、流式传输事件直到作业完成等操作。每个微调工作都从默认为 curie 的基本模型开始,模型选择会影响性能和成本,包括 ada、babbage、curie 或 davinci 等。开始微调作业后,可能需几分钟或几小时完成,工作可能排队,若事件流中断可恢复。此外,还可列出现有作业、检索作业状态或取消作业。
2024-08-30
有没有项目管理领域的ai工具
以下是一些项目管理领域的 AI 工具: 1. 项目管理和任务跟踪工具:如 Jira、Trello 等,已开始集成 AI 功能,可辅助制定计划、分配任务、跟踪进度。 2. 文档和协作工具:微软的 Copilot 可集成到 Office 套件中,为项目文档撰写、编辑等提供帮助。云存储服务如 Google Drive 也开始提供 AI 驱动的文档管理和协作功能。 3. 风险管理和决策支持工具:可帮助识别和分析项目风险,并提供决策建议。 4. 沟通和协作工具:AI 助手可辅助进行团队沟通协调、客户关系维护等。 5. 创意生成工具:如文心一格、Vega AI 等绘画工具,可帮助快速生成创意图像素材。 另外,还有以下具体的产品经理 AI 工具集: 用户研究、反馈分析:Kraftful(kraftful.com) 脑图:Whimsical(whimsical.com/aimindmaps)、Xmind(https://xmind.ai) 画原型:Uizard(uizard.io/autodesigner/) 项目管理:Taskade(taskade.com) 写邮件:Hypertype(hypertype.co) 会议信息:AskFred(fireflies.ai/apps) 团队知识库:Sense(senseapp.ai) 需求文档:WriteMyPRD(writemyprd.com) 敏捷开发助理:Standuply(standuply.com) 数据决策:Ellie AI(ellie.ai) 企业自动化:Moveworks(moveworks.com) 假设您需要创建一个项目管理流程图,可以按照以下步骤使用 Lucidchart: 1. 注册并登录: 2. 选择模板:在模板库中搜索“项目管理流程图”。 3. 编辑图表:根据项目需求添加和编辑图形和流程步骤。 4. 优化布局:利用 AI 自动布局功能,优化图表的外观。 5. 保存和分享:保存图表并与团队成员分享,或导出为 PDF、PNG 等格式。 总的来说,随着 AI 技术的发展,越来越多的工具正在为项目管理提供智能化的辅助功能,涵盖项目管理的各个环节,有助于提高工作效率和决策能力。
2024-09-16
有没有快速帮我入门使用AI的教程
以下为您提供两份快速入门 AI 的教程: 《写给不会代码的你:20 分钟上手 Python + AI》 在深入学习 AI 时,许多朋友因需要编程而感到困难,且各类教程默认会打命令行,导致入门不易。此教程旨在让大家更快掌握 Python 和 AI 的相互调用,在接下来的 20 分钟内,您将循序渐进地完成以下任务: 1. 完成一个简单程序。 2. 完成一个爬虫应用,抓取公众号文章。 3. 完成一个 AI 应用,为公众号文章生成概述。 《AI 线上绘画教程》 如果您在工作中需要大量图片,AI 生图是高效的解决办法。主流工具如 midjourney(MJ)付费成本高,stable diffusion(SD)硬件门槛不低,但还有像这样的免费在线 SD 工具网站。此教程就是解决不会使用这些工具的问题,从开始探索到写完前两篇教程仅 10 天,说明入门不难。
2024-09-16
AI的整个发展史,有没有AI相关综述,让我阅读一下
以下是为您提供的关于 AI 发展史及相关综述的内容: 1. 《机器之心的进化 / 理解 AI 驱动的软件 2.0 智能革命》:涵盖了 AI 进化史的多个方面,包括前神经网络时代、Machine Learning 的跃迁、开启潘多拉的魔盒等,文章较长,约 22800 字,阅读前可先观看一段 Elon Musk 和 Jack Ma 在 WAIC 2019 关于人工智能的对谈视频。 2. 对于初学者: 微软的 AI 初学者课程《Introduction and History of AI》: AI for every one(吴恩达教程): 大语言模型原理介绍视频(李宏毅): 谷歌生成式 AI 课程: ChatGPT 入门: 如果您是新手学习 AI,可参考以下学习路径指南: 1. 了解 AI 基本概念:阅读「」熟悉术语和基础概念,浏览入门文章了解 AI 历史、应用和发展趋势。 2. 开始 AI 学习之旅:在「」中找到为初学者设计的课程,可通过在线教育平台(如 Coursera、edX、Udacity)按自己节奏学习并获取证书。 3. 选择感兴趣的模块深入学习:AI 领域广泛,如图像、音乐、视频等,可根据兴趣选择特定模块深入学习。
2024-09-16
有没有 提示词学习教程
以下是一些关于提示词学习的教程和建议: 小七姐的系列教程: 系统学习 Stable Diffusion 提示词的步骤: 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 研究官方文档和教程:通读 Stable Diffusion 官方文档,了解提示词相关指南,研究来自开发团队和专家的教程和技巧分享。 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述,作为提示词范例。 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。
2024-09-15
有没有什么免费好用的ai
以下为一些免费好用的 AI 工具: 获取信息和学习东西:最佳免费选项是必应(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx)。对于儿童,来自可汗学院的 Khanmigo(https://www.khanacademy.org/khanlabs)提供由 GPT4 驱动的良好的人工智能驱动辅导。 写东西:最佳免费选项是必应(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx)和 Claude 2(https://claude.ai/)。 想出点子:最佳免费选项是必应(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx)。
2024-09-14
有没有可以自动翻译pdf文档并生产新pdf,同时自动注释关键词的ai
以下是一些可以自动翻译 PDF 文档并可能具备自动注释关键词功能的 AI 工具: 1. DeepL(网站): ,点击页面「翻译文件」按钮,上传 PDF、Word 或 PowerPoint 文件即可。 2. 沉浸式翻译(浏览器插件): ,安装插件后,点击插件底部「更多」按钮,选择「制作双语 BPUB 电子书」、「翻译本地 PDF 文件」、「翻译 THML / TXT 文件」、「翻译本地字幕文件」。 3. Calibre(电子书管理应用): ,下载并安装 calibre,并安装翻译插件「Ebook Translator」。 4. 谷歌翻译(网页): ,使用工具把 PDF 转成 Word,再点击谷歌翻译「Document」按钮,上传 Word 文档。 5. 百度翻译(网页): ,点击导航栏「文件翻译」,上传 PDF、Word、Excel、PPT、TXT 等格式的文件,支持选择领域和导出格式(不过进阶功能基本都需要付费了)。 6. 彩云小译(App):下载后点击「文档翻译」,可以直接导入 PDF、DOC、DOCX、PPT、PPTX、TXT、epub、srt 等格式的文档并开始翻译(不过有免费次数限制且进阶功能需要付费)。 7. 微信读书(App):下载 App 后将 PDF 文档添加到书架,打开并点击页面上方「切换成电子书」,轻触屏幕唤出翻译按钮。 请注意,内容由 AI 大模型生成,请仔细甄别。
2024-09-14
利用AI变现的最佳途径
以下是一些利用 AI 变现的途径: 1. 电商方面:在抖音、快手、视频号、小红书等平台上,批量发布四维彩超生成 AI 宝宝照片的视频或图文,将客户引到私域接单变现。后续还可针对宝妈开展如四维彩超 AI 预测、头像定制、绘画收徒、宝宝起名字、售胎毛纪念品、母乳纪念品、宝宝出生后的相关产品等多种变现方式。同时,做好私域的精细化运营,运营朋友圈。 2. 软件方面: 开发 AI 抖音发广告的软件,借助抖音平台对实体商家的流量扶持,让实体商家购买。此方式需要懂软件开发的技术人员,且熟悉抖音。 开发 AI 私域做客户培育/用户旅程的软件,帮助不同商家自动跟进/培育客户。同样需要懂软件开发的技术人员,且熟悉微信。 3. 内容创作方面: 创作 AI 绘本,如 2 4 岁儿童的睡前故事,图文结合,并以幼儿理解的方式表达。 制作法律咨询相关的 Bot,建立数据库进行回复。 进行体检报告解读。 总之,利用 AI 变现的方式多样,不局限于单一途径,通过合理推广与精细化运营,能获取收益并积累用户资源。
2024-09-16
采用AI辅助阅读、读书的最佳场景有哪些?
以下是采用 AI 辅助阅读、读书的一些最佳场景: 1. 使用 360AI 浏览器: 自动生成思维导图,方便调研总结。 无需复杂链路,网页右侧有 AI 贴心助手,提供文章简介、重点和 AI 问答。 支持文章朗读、全屏沉浸式阅读,可直接保存为图片或 PDF,能修改字体字号。 对于长文阅读和文档解释,可直接在浏览器中进行。 对于论文等 PDF 材料阅读,有强大的编辑和辅助工具,如一键翻译、快速定位原文、询问概念等,降低阅读门槛。 免费开放 100 万字长文本阅读功能,内测 500 万字长文本处理功能。 辅助音视频观看,快速了解主体内容。 2. 法律领域: 类案检索:使用法律行业垂类的 AI 产品,按照特定的 Prompt 指令词进行操作。 法律文本阅读:上传文本,根据需求提问,如“图纸是谁设计的?”“谁负责承担本项目的设计、建设?”“贷款期限是多少?”
2024-08-31
你好,请问目前最佳的生图软件是什么
目前比较成熟的生图软件主要有以下几种: 1. Artguru AI Art Generator:这是一个在线平台,能够生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:一种 AI 工具,可将图片转换为非凡肖像,拥有 500 多种风格选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具有细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 此外,一些受欢迎的文生图工具包括: 1. DALL·E:由 OpenAI 推出,可根据输入的文本描述生成逼真的图片。 2. StableDiffusion:开源的文生图工具,能生成高质量的图片,支持多种模型和算法。 3. MidJourney:因其高质量的图像生成效果和用户友好的界面设计而广受喜爱,在创意设计人群中尤其流行。 在 WaytoAGI 网站(https://www.waytoagi.com/category/104),可以查看更多文生图工具。需要注意的是,这些 AI 模型在使用过程中可能会存在一些局限,如偶尔性能不稳定、生成内容不当等问题。 Kolors 也是一款表现不错的开源文生图模型,从技术报告来看,它在多个方面进行了改进,实测效果良好。
2024-08-13
最佳实践prompt
以下是关于 prompt 最佳实践的相关内容: 李继刚等的 prompt 最佳实践: 贡献者包括李继刚、Sailor、田彬玏、Kyle😜、小七姐等群友。 李继刚的相关链接: 。 Role:文字排版大师,有适合私域群运营发公告通知等的版本 1,针对比较长的内容更适合的版本 2 以及最新版,案例包括群公告、群通知,小互的每日推文用的上面最新的 prompt: 。 小七姐:官方最佳 Prompt 实践的六个方法: 06 学习地图 | 编写清晰地说明 指定所需的格式/长度,用两个段落概括用三引号分隔的文本,用 3 个要点概括用三引号分隔的文本。要点总结:我们可以明确要求模型按特定数量的字、句子、要点来生成内容,但对于中文来说,由于字符和 token 的映射机制及中文的上下文生成机制问题,精确符合字数的生成不稳定,但对于引用文本的概括或修改,效果相对会变得好很多。
2024-08-07
prompt 编写最佳实践。
以下是关于 prompt 编写的最佳实践: 1. 明确任务:在 prompt 中清晰地定义任务,比如写故事时要包含故事背景、角色和主要情节。 2. 提供上下文:若任务需要特定背景知识,在 prompt 里提供充足的上下文信息,如写历史事件报告时提供基本信息。 3. 使用清晰语言:尽量用简单、清晰的语言描述任务,避免模糊或有歧义的词汇,防止 AI 模型误解。 4. 给出具体要求:若任务有特定格式或风格要求,在 prompt 中明确指出,如文章需遵循的格式或引用的文献类型。 5. 使用示例:如有特定期望结果,在 prompt 中提供示例,帮助 AI 模型理解需求。 6. 保持简洁:让 prompt 简洁明了,过多信息可能导致 AI 模型困惑,生成不准确结果。 7. 使用关键词和标签:有助于 AI 模型理解任务主题和类型。 此外,还需注意: 我们可以要求模型生成具有给定目标长度的输出,可用字数、句数、段落数、要点数等来指定。但指示模型生成特定字数的精确度不高,尤其对中文而言。相对来说,约束句子数量比明确要求字数更稳定,且 ChatGPT 4 在这方面的表现比 3.5 版本更稳定。对于既有文本的概括或改写,提供明确文本让模型概括时效果较好。
2024-07-24
coze有哪些最佳实践
Coze作为一个AI开发平台,提供了多种功能和工具,帮助用户创建聊天机器人、智能体、AI应用等。以下是一些关于Coze的最佳实践: 1. 理解用户需求:在创建机器人之前,理解目标用户的需求和目的是非常重要的。这将帮助设计更加贴合用户需求的对话流程和功能。 2. 利用预构建的机器人:Coze提供了预构建的机器人,这些可以直接用于探索Coze的功能,也可以作为创建个性化机器人的基础。 3. 拖拽式操作:Coze支持拖拽式操作,用户可以通过拖拽不同的功能卡片到工作区来构建对话流程,实现无代码的页面布局设计。 4. 工作流设计:通过Coze的工作流功能,可以设计复杂的对话路径和逻辑,实现更高级的交互。 5. 多Agent协同:在构建复杂的系统时,可以利用多Agent协同工作,分流处理不同的任务,提高效率和响应速度。 6. 知识库应用:Coze的知识库功能可以自动或按需调用,结合大模型生成回复,提供丰富的信息和知识支持。 7. 数据库和数据管理:使用Coze的数据库功能进行数据管理,可以直接收录用户回复的重要信息,并实现Text2SQL的功能。 8. API集成:Coze支持API集成,可以创建基于API的插件,实现与外部服务和数据库的连接。 9. 持续学习和优化:根据用户的反馈和交互数据,持续优化机器人的性能和用户体验。 10. 社区和资源共享:参与Coze社区,分享和学习其他用户的优秀案例和实践,获取灵感和改进建议。 通过遵循这些最佳实践,用户可以更有效地利用Coze平台的功能,创建出更加智能、有用的AI应用。
2024-05-25
某银行计划对外采购2024年分行内训师培训项目,现需要对采购内容做详细要求,培训内容以AI工具课程开发与设计,课程制作与实践,短视频制作,直播授课技巧等,我该如何对培训老师资质,授课经验,AI工具运用等技能做细化要求
以下是为您提供的关于银行采购 2024 年分行内训师培训项目中对培训老师资质、授课经验、AI 工具运用等技能的细化要求建议: 培训老师资质: 具备相关领域的专业教育背景,如计算机科学、人工智能等。 持有相关的行业认证或资格证书。 授课经验: 拥有丰富的企业内训经验,特别是在金融行业的培训经历。 成功完成过类似 AI 工具课程开发与设计、课程制作与实践等相关课程的授课。 AI 工具运用技能: 熟练掌握多种主流的 AI 工具,如常见的机器学习框架、自然语言处理工具等。 能够运用 AI 工具进行实际项目开发,并具有相关的案例成果。 熟悉短视频制作和直播授课中涉及的 AI 辅助技术,如智能剪辑工具、虚拟主播技术等。 希望以上建议对您有所帮助。
2024-09-13
帮我写一篇有关aigc的行业分析,标题为《AIGC行业洞察与概览》,其中框架内容包含以下部分,整体3万字 - 概念导入(AI、AIGC) - AI与人的区别 - AI衍生发展历程(诞生、发展、现状-中外各平台产品及语言模型介绍) - AI在社会各领域的应用实践 - AI技术的底层逻辑概览 - AI的弊端以及风险
以下是为您生成的《AIGC 行业洞察与概览》的部分内容: 一、概念导入 (一)AI 人工智能(Artificial Intelligence,简称 AI)是一种目标,旨在让机器展现智慧。 (二)AIGC GenAI(即生成式 AI)是一种能够从已有数据中学习并生成新的数据或内容的 AI 应用,利用 GenAI 创建的内容即 AIGC(全称 AIGenerated Content)。AIGC 是利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等内容。 二、AI 与人的区别 三、AI 衍生发展历程 (一)诞生 (二)发展 (三)现状 1. 中外各平台产品及语言模型介绍 (1)语言文本生成利用马尔科夫链、RNN、LSTMs 和 Transformer 等模型生成文本,如 GPT4 和 GeminiUltra。 (2)图像生成依赖于 GANs、VAEs 和 Stable Diffusion 等技术,代表项目有 Stable Diffusion 和 StyleGAN 2。 (3)音视频生成利用扩散模型、GANs 和 Video Diffusion 等,代表项目有 Sora 和 WaveNet。 四、AI 在社会各领域的应用实践 AIGC 技术可以用于多种应用,如自动撰写新闻文章、生成艺术画作、创作音乐、制作视频游戏内容等。 五、AI 技术的底层逻辑概览 (一)机器学习:一种让机器自动从资料中找到公式的手段。 (二)深度学习:一种更厉害的手段,类神经网络,具有非常大量参数的函数。 (三)大语言模型:是一类具有大量参数的“深度学习”模型,Large Language Models,简称 LLMs。 六、AI 的弊端以及风险 作为一种强大的技术,生成式 AI 能够赋能诸多领域,但也存在多重潜在的合规风险。目前,我国对 AIGC 的监管框架由《网络安全法》《数据安全法》及《个人信息保护法》构成,并与《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》等形成了共同监管的形势。 由于篇幅限制,目前仅能为您提供约 2000 字的内容,距离 3 万字还有较大差距。后续还需要进一步丰富和完善各个部分的细节及案例分析等。
2024-09-03
最新的 RAG 进展和业界实践
以下是关于最新的 RAG 进展和业界实践的详细介绍: RAG 是检索增强生成(Retrieval Augmented Generation)的简称,是当前最火热的企业级 LLM 应用方案。概括来说,它是知识检索与内容生成的结合,就像大模型的开卷考试,谁的资料更全、翻找更快更准,结果往往更好。 Lewis 等人(2021)提出了一个通用的 RAG 微调方法,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆,并通过神经网络预训练的检索器访问。RAG 在 Natural Questions、WebQuestions 和 CuratedTrec 等基准测试中表现出色,用 MSMARCO 和 Jeopardy 问题进行测试时,生成的答案更符合事实、更具体、更多样,FEVER 事实验证使用 RAG 后也得到了更好的结果,这表明 RAG 是一种可行的方案,能在知识密集型任务中增强语言模型的输出。 目前,大部分公司倾向于使用 RAG 方法进行信息检索,因为相比长文本的使用成本,使用向量数据库的成本更低。在 RAG 应用中,一些公司会使用微调的 Embedding Model 增强检索能力,也有些公司会选择使用知识图谱或者 ES 等非向量数据库的 RAG 方法。一个正常的模型使用 RAG 仍是当前主流。由于大语言模型存在信息滞后和不包含业务知识的特点,常需外挂知识库协助解决问题,此时 Embedding 模型的召回效果直接影响大模型的回答效果,所以很多场景下需要微调 Embedding 模型提高召回效果。 最近,基于检索器的方法越来越流行,常与 ChatGPT 等流行 LLM 结合使用来提高其能力和事实一致性。例如,在 LangChain 文档中可以找到一个使用检索器和 LLM 回答问题并给出知识来源的简单例子。 此外,来自马里兰大学、劳伦斯利弗莫尔国家实验室、纽约大学的研究学者提出了一个大模型微调的方法,在微调时只需要在 Embedding 层上加随机噪声即可大幅度提升微调模型的对话能力,且不会削弱模型的推理能力。用 Alpaca 微调 LLaMA27B 可以在 AlpacaEval 上取得一定表现,而用加了噪声的嵌入则表现更佳,不过该工作只在较小的模型上进行微调。
2024-07-26