直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

摘要总结作为 llm 训练的下游任务,一般的训练流程是怎样的

回答

作为 LLM 训练的下游任务,一般的训练流程如下:

  1. 首先从大量文本数据中训练出一个基础 LLM。
  2. 随后使用指令和良好尝试的输入和输出来对基础 LLM 进行微调和优化。
  3. 接着通常使用称为“人类反馈强化学习”的技术进行进一步细化,以使系统更能够有帮助且能够遵循指令。

在训练过程中,会涉及到一些相关的理论探讨和评价指标:

  • 理论探讨方面,如在推理阶段对 In-Context Learning 能力的运行分析,将其视为隐式微调,通过前向计算生成元梯度并通过注意力机制执行梯度下降,且实验表明 LLM 中的某些注意力头能执行与任务相关的操作。
  • 评价指标方面,entropy-like 指标(如 cross-entropy 指标)常用于表征模型的收敛情况和测试集的简单评估(如 Perplexity 指标),但对于复杂的下游应用,还需更多指标,如正确性(Accuracy)、信息检索任务中的 NDCG@K 指标、摘要任务中的 ROUGE 指标、文本生成任务中的 Bits-per-Byte 指标、不确定性中的 ECE 指标、鲁棒性(包括 invariance 和 equivariance)、公平性、偏见程度和有毒性等。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

融合RL与LLM思想,探寻世界模型以迈向AGI/ASI的第一性原理反思和探索「RL×LLM×WM>AI4S>AGI>ASI」

问题一:为什么「In-Context Learning」或相关的「few-shot」「zero-shot」「prompt e与gineering」等思想能打破传统训练范式并建立新的技术路径进行模型下游任务的SFT,而不用在调整模型任何参数的情况下,在实现传统模型精调后的目标及Benchmark测试中,已经媲美或超越相当一部分的原有模型微调任务的SOTA(当然这里离不开LLM所采用的海量训练数据Pre-training下习得、压缩的广泛而通用知识)。问题二:LLM与传统模型的任务有哪些差异和相同的点?问题三:是否所有传统模型下的任务都能很好的尝试用LLM来有效解决?针对问题一,在学术界和产业界一直有着相关理论上探讨和争论:如在推理阶段,研究人员专注于基于给定的演示来分析In-Context Learning-ICL能力是如何运行的,因为不涉及显式学习和参数更新,通常从梯度下降的角度进行分析,并将ICL视为隐式微调。在这个思想框架下,ICL过程可解释如下:通过前向计算,LLM生成关于演示的元梯度,并通过注意力机制隐式地执行梯度下降。实验也表明,LLM中的某些注意力头能够执行与任务无关的原子操作(例如复制和前缀匹配),这与ICL能力密切相关。

1.课程简介

基于互联网上的文章,基础LLM有可能会回答法国的最大城市是什么,法国的人口是多少等等。因为互联网上的文章很可能是关于法国的问答列表。相比之下,指令调整后的LLM更接受人们的指令。因此,如果你问它法国的首都是什么,它很可能会输出法国的首都是巴黎。指令调整后的LLM的研究和实践的动量更大。因此,指令调整后的LLM通常是这样训练的:首先,你从大量文本数据中训练出一个基础LLM,随后使用指令和良好尝试的输入和输出来对其进行微调和优化,然后通常使用称为“人类反馈强化学习”的技术进行进一步细化,以使系统更能够有帮助且能够遵循指令。因为指令调整后的LLM被训练成有用、诚实和无害的,所以它们输出有害文本(如毒性输出)的可能性比基础LLM更小。很多实际的应用场景已开始向指令调整后的LLM转移,而一些在互联网上查到的最佳实践则可能更适用于基础LLM。对于大多数今天的实际应用,我们建议大多数人应该专注于经过调整的指令语言模型。这些模型更易于使用,而且由于OpenAI和其他LLM公司的工作,它们变得更加安全和更加符合要求。因此,本课程将专注于经过调整的指令语言模型的最佳实践,这是我们建议大多数应用程序使用的模型。在继续之前,我只想感谢OpenAI和DeepLearning.ai团队为我们提供的材料做出的贡献。我非常感谢OpenAI的Andrew Main、Joe Palermo、Boris Power、Ted Sanders和Lillian Weng。他们与我们一起进行了头脑风暴,对材料进行了审核,为这个短期课程的课程设置拼凑了课程计划。我也感谢深度学习方面Geoff Ladwig、Eddy Shyu和Tommy Nelson的工作。

(2)初探LLM基座模型

从上一篇可以知道,entropy-like指标(如cross-entropy指标)常常运用在训练过程中,表征模型的收敛情况,同时也可以用于测试集的简单评估(如Perplexity指标等)。但对于丰富复杂的下游应用来说,这几个指标远远不能满足需求。如果想从第一性原理出发推导出所有指标,这并不现实。下面参考HELM论文的中内容,简单列举了NLP中的指标,大家不必深究,有个简单印象即可。正确性Accuracy。信息检索任务。NDCG@K指标,核心衡量最相关文档是否排序足够靠前的指标。摘要任务。一般用ROUGE指标,ROUGE是个指标体系,有4个大类,其中最简单的为2-gram的方式,即ROUGE-2。就是把两个sequence按2-gram的方式做切分做频次统计,然后计算pred和gt之间的召回率文本生成任务。Bits-per-Byte,类似于Perplexity指标不确定性Calibration and Uncertainty。针对二分类任务,一般用ECE指标(Expected Calibration Error)。核心是度量模型输出概率p的时候,最终正确率真的为p的一致性。鲁棒性Robustness。分为两种invariance。加入不改变语义的噪声,如果大小写变换,加入错别字typo等equivariance。利用contrast set,做语义改变,例如修改关键单词和短语把一个正面的评论改成负面的评论公平性Fairness。看模型输出是否公平,例如把性别和人种等换一下,看输出是否有变化偏见程度Bias and stereotypes。看模型有没有偏见和刻板的印象,例如看模型对亚洲人是否存在“学习好并且会谈钢琴”的偏见有毒性Toxicity。看模型输出是否有毒。

其他人在问
如何训练Agent?
在人工智能领域中,训练 Agent 主要有以下方法和特点: 1. 基于迁移学习和元学习的 Agent 训练: 传统强化学习中,Agent 训练消耗大量样本和时间,泛化能力不足。为突破此瓶颈,引入迁移学习,促进不同任务间知识和经验迁移,减轻新任务学习负担,提升学习效率和性能,增强泛化能力。 元学习让 Agent 学会从少量样本中迅速掌握新任务最优策略,利用已有知识和策略调整学习路径,减少对大规模样本集依赖。 但迁移学习和元学习面临挑战,如迁移学习在源任务与目标任务差异大时可能无效甚至负面迁移,元学习需大量预训练和样本构建学习能力,使通用高效学习策略开发复杂艰巨。 时间:21 世纪初至今 特点:迁移学习将一个任务知识迁移到其他任务;元学习学习如何学习,快速适应新任务 技术:迁移学习如领域自适应;元学习如 MAML、MetaLearner LSTM 优点:提高学习效率,适应新任务 缺点:对源任务和目标任务相似性有要求 2. 基于强化学习的 Agent 训练: 强化学习关注如何让 Agent 通过与环境互动自我学习,在特定任务中累积最大长期奖励。起初主要依托策略搜索和价值函数优化等算法,如 Qlearning 和 SARSA。 随着深度学习兴起,深度神经网络与强化学习结合形成深度强化学习,赋予 Agent 从高维输入学习复杂策略的能力,有 AlphaGo 和 DQN 等成果。 深度强化学习允许 Agent 在未知环境自主探索学习,无需人工指导,在游戏、机器人控制等领域有应用潜力。 但面临诸多挑战,包括训练周期长、采样效率低、稳定性问题,在复杂真实环境应用困难。 时间:20 世纪 90 年代至今 特点:通过试错学习最优行为策略,以最大化累积奖励 技术:Qlearning、SARSA、深度强化学习(结合 DNN 和 RL) 优点:能够处理高维状态空间和连续动作空间 缺点:样本效率低,训练时间长
2024-11-21
作为ai初学者,想训练自己的个性ai,应该怎么入手
对于 AI 初学者想要训练自己的个性 AI ,可以从以下几个方面入手: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到为初学者设计的课程,如李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并争取获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,包括图像、音乐、视频等,根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,因其上手容易且实用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出自己的作品。 在知识库中分享实践后的作品和文章。 5. 体验 AI 产品: 与现有的 AI 产品如 ChatGPT、Kimi Chat、智谱、文心一言等聊天机器人进行互动,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,激发对 AI 潜力的认识。 此外,更注重人格属性,试图满足社交、情感、陪伴等需求,您也可以对其进行了解和参考。同时,为了在医疗保健中让 AI 产生真正的改变,应投资于创建像我们今天最优秀的医生和药物开发者那样学习的模型生态系统,例如通过学校教育和经验积累,培养在复杂情况下确定最佳答案的直觉。
2024-11-20
flux lora 训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 准备工作: 下载所需模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时模型放置位置不限,只要知道“路径”,后续会引用到“路径”。 训练建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载训练脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 数据集准备: 进入厚德云模型训练数据集:https://portal.houdeyun.cn/sd/dataset 步骤一:创建数据集 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以上传包含图片+标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片,但建议提前将图片和标签打包成 zip 上传。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 步骤二:Lora 训练 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 触发词可有可无,取决于数据集是否有触发词。 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 等待训练,会显示预览时间和进度条,训练完成会显示每一轮的预览图。 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集放置位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择您的 Lora 和调节参数。
2024-11-20
如何将历史写过的文章发给 Ai,训练生成写作风格
要将历史写过的文章发给 AI 以训练生成写作风格,可以参考以下步骤: 1. 首先,像安迪的做法一样,把过去写的多篇相关文章发给 AI。 2. 让 AI 总结这些文章的写作特点。 3. 根据 AI 总结的特点,编写出描述写作风格的提示词,从而克隆出自己的写作风格。 4. 未来使用这个风格时,先花 3 分钟时间让 AI 分别写多篇内容。 5. 从多篇内容中找到最符合心意的作品,并从其他作品中寻找好的段落。 6. 最后进行整合、修改、删减和润色,少则几分钟、十几分钟,多则半个小时就能完成一篇文章。 同时,就像夙愿提到的,找选题对于写作很重要。我们可以通过学习其他优秀公众号的文章,分析其选题思路、文章结构、表达方式等,不断训练自己的“写作模型”,但要注意不能照搬,而是要形成自己独特的风格。 另外,在写作过程中,“主体性”的介入也很关键。比如在使用 Prompt 生成公众号文章时,要先思考自己对写作的理解以及对特定主题写作风格的认知,这样写出来的 Prompt 才会有个人特色。日常也要注重基本功的积累,因为在表达“意象”时非常考验语言能力。
2024-11-18
如何用ai模型做训练
以下是关于如何用 AI 模型做训练的相关内容: 要在医疗保健领域让 AI 产生真正的改变,应投资创建像优秀医生和药物开发者那样学习的模型生态系统。成为顶尖人才通常从多年密集信息输入和学徒实践开始,AI 也应如此。当前的学习方式存在问题,应通过堆叠模型训练,如先训练生物学、化学模型,再添加特定数据点。就像预医学生从基础课程学起,设计新疗法的科学家经历多年学习和指导,这种方式能培养处理细微差别决策的直觉。 大模型的构建过程包括: 1. 收集海量数据:如同教孩子博学多才要让其阅读大量资料,对于 AI 模型要收集互联网上的各种文本数据。 2. 预处理数据:像为孩子整理适合的资料,AI 研究人员要清理和组织收集的数据,如删除垃圾信息、纠正拼写错误等。 3. 设计模型架构:为孩子设计学习计划,研究人员要设计 AI 模型的“大脑”结构,通常是复杂的神经网络,如 Transformer 架构。 4. 训练模型:像孩子开始学习,AI 模型开始“阅读”数据,通过反复预测句子中的下一个词等方式逐渐学会理解和生成人类语言。 为提高 AI 模型的鲁棒性,应对可能的“恶意”样本数据导致的幻觉,可使用对抗训练技术,让模型在训练中接触并学会识别和抵抗。
2024-11-13
怎么训练自己的小说大纲模型
训练自己的小说大纲模型可以参考以下步骤: 步骤一:创建数据集 1. 进入厚德云模型训练数据集,网址为:https://portal.houdeyun.cn/sd/dataset 。 2. 在数据集一栏中,点击右上角创建数据集。 3. 输入数据集名称。 4. 可以上传包含图片+标签的 zip 文件,也可以只有图片没有打标文件(之后可在 c 站使用自动打标功能)。 5. 也可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 6. Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 7. 上传 zip 以后等待一段时间。 8. 确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 步骤二:Lora 训练 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。 4. 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 5. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 6. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 7. 然后等待训练,会显示预览时间和进度条。训练完成的会显示出每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 步骤三:Lora 生图 1. 点击预览模型中间的生图会自动跳转到这个页面。 2. 模型上的数字代表模型强度,可以调节大小,正常默认为 0.8,建议在 0.6 1.0 之间调节。 3. 也可以自己添加 lora 文件,点击后会显示训练过的所有 lora 的所有轮次。 4. VAE 不需要替换。 5. 正向提示词输入写的提示词,可以选择基于这个提示词一次性生成几张图。 6. 选择生成图片的尺寸,横板、竖版、正方形。 7. 采样器和调度器新手小白可以默认不换。 8. 迭代步数可以按照需求在 20 30 之间调整。 9. CFG 可以按照需求在 3.5 7.5 之间调整。 10. 随机种子 1 代表随机生成图。 11. 所有设置都好了以后,点击开始生态,生成的图会显示在右侧。 12. 如果有哪次生成结果觉得很不错,想要微调或者高分辨率修复,可以点开那张图,往下滑,划到随机种子,复制下来,粘贴到随机种子这里,这样下次生成的图就会和这次的结果近似。 13. 如果确认了一张很合适的种子和参数,想要高清放大,则点开高清修复,可以选择想放大的倍数。新手小白可以就默认这个算法,迭代步数也是建议在 20 30 之间,重回幅度根据需求调整,正常来说在 0.3 0.7 之间调整。 今日作业 按照比赛要求,收集六个主题中一个主题的素材并且训练出 lora 模型后提交 lora 模型与案例图像。提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd 。 另外,直接在 Comfy UI 中训练 LoRA 模型的步骤如下: 1. 确保后面有一个空格。然后将 requirements_win.txt 文件拖到命令提示符中(如果在 Windows 上;否则,选择另一个文件 requirements.txt)。拖动文件将在命令提示符中复制其路径。 2. 按 Enter 键,这将安装所有所需的依赖项,使其与 ComfyUI 兼容。请注意,如果为 Comfy 使用了虚拟环境,必须首先激活它。 3. 教程: 图像必须放在一个以命名的文件夹中。那个数字很重要:LoRA 脚本使用它来创建一些步骤(称为优化步骤…但别问我是什么^^’)。它应该很小,比如 5。然后,下划线是必须的。 对于 data_path,必须写入包含数据库文件夹的文件夹路径。例如:C:\\database\\5_myimages ,必须写 C:\\database 。 对于参数,在第一行,可以从 checkpoint 文件夹中选择任何模型。据说必须选择一个基本模型进行 LoRA 训练。但也可以尝试使用微调。
2024-11-12
你好,什么事comfyui LLM party
ComfyUI LLM Party 相关内容如下: 作为 ComfyUI 插件的开发者,主要目的是讲解 LLM(大语言模型)与 ComfyUI 结合的基础、进阶和高阶用法,个人将 ComfyUI 中 LLM 应用粗略分为四大类:文本方面(提示词扩写、润色、对话)、图像视觉方面(图像提示词反推、OCR、LoRA 训练集图像打标)、LLM Agent(工具调用、长期/短期记忆、本地/API 大语言模型调用、封装 ComfyUI 工作流等)、其他独立于这些之外的 LLM 节点或功能。 对于 ComfyUI 和 ComfyUI LLM Party 的下载: 如果是 AI 绘图工作者,对 ComfyUI 不陌生。若未接触过,可在 GitHub 上拉取项目,或在 B 站下载整合包,如秋叶大佬的绘世整合包或者只剩一瓶辣椒酱的铁锅炖整合包。 ComfyUI LLM Party 是以 ComfyUI 作为前端的节点库,用于 LLM 智能体以及 LLM 工作流的无代码开发,功能类似于 coze、dify、flowise 等,与 ComfyUI 生态下的绝大部分节点相辅相成,有着无缝接入 SD 图像流的特色。可通过以下方法安装: 方法一:在中搜索 comfyui_LLM_party,一键安装,然后重启 comfyui。 方法二:导航到 ComfyUI 根文件夹中的 custom_nodes 子文件夹,使用克隆此存储库 git clone https://github.com/heshengtao/comfyui_LLM_party.git 。
2024-11-22
如何将传统知识库通过LLM能力转化成更智能与精细化的知识库?包括但不限于分段、QA问答和图片解析描述和总结
将传统知识库通过 LLM 能力转化为更智能和精细化的知识库是一个复杂但可行的过程,以下是一些关键步骤和方法: 1. 数据预处理:对传统知识库中的内容进行清理、格式化和标准化,确保数据的质量和一致性。 2. 内容分段:根据主题和逻辑结构,将长篇的知识内容合理分段,使信息更易于理解和处理。 3. 提取关键信息:从文本中提取重要的概念、实体和关系,为后续的问答和总结做准备。 4. 构建 QA 问答对:分析知识库中的内容,设计有针对性的问题和准确的答案,形成问答对,以方便用户快速获取所需信息。 5. 图片解析描述:对于包含图片的内容,使用图像识别技术提取关键元素,并进行详细的描述和解释。 6. 总结归纳:对分段后的内容进行总结,提炼核心要点,帮助用户快速了解主要内容。 在实施过程中,需要不断优化和调整方法,以确保转化后的知识库能够满足用户的需求,提供更高效和准确的服务。
2024-11-18
目前最强 llm
目前在大型语言模型(LLM)领域,Llama2 70B 可能是最强大的开源权重模型。它由 Meta.ai 发布,包含 700 亿个参数,模型的权重、架构和相关论文均已公开,在文件系统上表现为两个文件:一个包含参数的文件,以及一段运行这些参数的代码。参数文件大小约 104GB,采用 float 16 数据类型。 此外,GPT4V 是基于最先进的 LLM 并使用大量多模态数据训练的具有视觉能力的先进模型,在理解和处理不同输入模态的任意组合方面表现出色,支持多种输入和工作模式。 需要注意的是,尽管语言模型能力令人印象深刻,但仍存在一些限制,如生成的“幻觉”问题,在需要高级推理能力的任务上存在困难,还需要更具挑战性和强大的评估来衡量其真正的理解能力。
2024-11-15
有哪些工具直接可以调用国外的多个LLM
以下是一些关于能够调用国外多个 LLM 的相关信息: 开源项目作者 ailm 提出一种仅使用提示词工程和精巧的代码设计,让 LLM 获得稳定的 tool calling 能力,使用多个不具备该功能的 LLM 进行实验,成功率达 100%,工作基于 comfyui 开发,适合无代码基础的人员复现和修改。 在高级提示词工程领域,工具、连接器和技能的整合能显著增强 LLM 的能力。工具是指 LLM 可利用的外部功能或服务,扩展任务范围;连接器是 LLM 与外部工具或服务的接口,管理数据交换和通信;技能是 LLM 可执行的专门功能。 目前开源模型与专有产品存在差距但在缩小,如 Meta 的 LLaMa 模型引发一系列变体。当开源 LLM 达到一定准确度水平时,预计会有大量实验等。开发人员对 LLM 操作工具的研究尚不深入,一些工具如缓存(基于 Redis)、Weights & Biases、MLflow、PromptLayer、Helicone 等得到较广泛使用,还有新工具用于验证 LLM 输出或检测攻击。多数操作工具鼓励使用自身的 Python 客户端进行 LLM 调用。
2024-11-12
集成LLM的工具
以下是关于集成 LLM 的工具的相关内容: 一、“手臂和腿部”:赋予模型使用工具的能力 1. 从知识挖掘转向行动导向,增加模型使用工具的能力,有望在消费者和企业领域实现一系列用例。 对于消费者,LLMs 可能给出菜谱建议并订购食材,或推荐早午餐地点并预订餐桌。 在企业领域,创始人可接入 LLMs 使应用程序更易用,如在 Salesforce 等应用中,用户能用自然语言更新,模型自动更改,减少维护 CRM 所需时间。 2. LLM 虽对常见系统有复杂理解能力,但无法执行提取的信息。不过,公司在不断改善其使用工具的能力。 老牌公司如必应、谷歌和初创公司如 Perplexity、You.com 推出搜索 API。 AI21 Labs 推出 JurassicX,解决独立 LLMs 缺陷。 OpenAI 推出 ChatGPT 插件测试版,允许与多种工具交互,在 GPT3.5 和 GPT4 中引入函数调用,允许开发者将 GPT 能力与外部工具链接。 二、无需微调,仅用提示词工程就能让 LLM 获得 tool calling 的功能 1. 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 2. 提示词注入用于将工具信息及使用工具的提示词添加到系统提示中,包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。 TOOL_EAXMPLE 提示 LLM 如何理解和使用工具,编写时用无关紧要工具作示例避免混淆。 tools_instructions 是通用工具字典转换成 LLM 可读的工具列表,可动态调整。 REUTRN_FORMAT 定义调用 API 格式。 3. 工具结果回传阶段利用正则表达式抓取输出中的“tool”和“parameters”参数,对于 interpreter 工具使用另一种正则表达式提取 LLM 输出的代码,提高使用成功率。通过识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受某些角色的 LLM 接口,可改为回传给 user 角色。通过以上提示词工程,可让无 tool calling 能力的 LLM 获得稳定的该能力。
2024-11-12
如何学会ollma dify
以下是关于学习 Ollama 的详细步骤: 1. 了解 Ollama :Ollama 是一个开源的框架,旨在简化在本地运行大型语言模型(LLM)的过程。它是一个轻量级、可扩展的框架,提供了简单的 API 来创建、运行和管理模型,还有预构建模型库,降低了使用门槛,适合初学者或非技术人员使用,特别是希望在本地与大型语言模型交互的用户。 2. 安装 Ollama : 官方下载地址:https://ollama.com/download 。 安装完成后,可通过访问 http://127.0.0.1:11434/ 判断是否安装成功。 3. 启动 Ollama : 从 ollama 的 github 仓库找到对应版本并下载。 启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。 将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/ 以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 4. 常见报错及解决方案:如果 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 5. 使用 Ollama 运行本地大模型: 安装完成 ollama 后,在命令行中运行相应命令。 可通过查看并选择要运行的本地大模型,如 llama2 大模型。考虑机器配置及不同版本的内存要求选择合适的模型参数。运行时,ollama 会自动下载大模型到本地。
2024-11-06
你会写论文摘要
以下是关于论文写作和摘要相关的综合信息: 1. 利用连锁密度法撰写摘要的方法:向您索取文章后,通过重复两个步骤共五次来撰写逐渐简洁、重点突出的文章摘要。步骤包括从文章中找出 1 3 个关键要素并编写新的更精炼的摘要,要遵循相关原则,最终以 JSON 格式(包含“Missing_Entities”和“Denser_Summary”两个键值)回答。 2. 提示工程中与论文写作相关的策略和技巧:使用分隔符(如三重引号、XML 标签、章节标题等)清晰区分输入的不同部分,例如总结、翻译等文本内容。 3. 论文写作的 AI 产品: 文献管理和搜索:Zotero 可自动提取文献信息,Semantic Scholar 是 AI 驱动的学术搜索引擎。 内容生成和辅助写作:Grammarly 提供文本校对等,Quillbot 可重写和摘要。 研究和数据分析:Google Colab 支持数据分析,Knitro 用于数学建模和优化。 论文结构和格式:LaTeX 处理论文格式,Overleaf 是在线 LaTeX 编辑器。 研究伦理和抄袭检测:Turnitin 和 Crossref Similarity Check 检测抄袭。使用时要结合自身需求选择合适工具,并仔细甄别生成内容。
2024-11-20
推荐一个免费的ai写摘要软件
以下为您推荐一些免费的 AI 写摘要软件: Bing(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx) Claude 2(https://claude.ai/) 此外,还有一些在其他写作方面表现出色的 AI 工具: 简历写作: Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,包括摘要、工作经验和教育等专业部分,并保持一致语调。 Rezi:受到超过 200 万用户信任的领先 AI 简历构建平台,能自动化创建简历的各个方面。 Huntr 的 AI 简历构建器:提供免费简历模板,以及 AI 生成的总结、技能、成就生成器和工作匹配。更多 AI 简历产品可查看:https://www.waytoagi.com/category/79 论文写作: 文献管理和搜索:Zotero 可自动提取文献信息;Semantic Scholar 是 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 内容生成和辅助写作:Grammarly 提供文本校对、语法修正和写作风格建议;Quillbot 可重写和摘要,优化内容。 研究和数据分析:Google Colab 支持 AI 和机器学习研究,便于数据分析和可视化;Knitro 用于数学建模和优化。 论文结构和格式:LaTeX 结合自动化和模板处理格式和数学公式;Overleaf 是在线 LaTeX 编辑器,提供模板库和协作功能。 研究伦理和抄袭检测:Turnitin 和 Crossref Similarity Check 检测抄袭,确保原创性。 需要注意的是,这些内容由 AI 大模型生成,请仔细甄别。
2024-11-20
用50个字概括AI如何会议记录&摘要
AI 进行会议记录和摘要可涵盖会议主题、人员、议题等要素,借助相关工具和工作流,如飞书妙记、Kimichat 等,按流程生成和完善。
2024-11-13
用20个字概括AI会议记录&摘要
AI 会议记录与摘要涵盖多场景多领域内容
2024-11-13
论文全文生成摘要
以下是关于您问题的回答: “Chain of Density”(CoD)是一种通过建立一系列相互关联的紧密提示来指导 AI 生成具体和连续输出的方法。它由美国哥伦比亚大学、麻省理工和 Salesforce 公司的研究人员共同发表。具体来说,是使用 GPT4 生成初始的稀疏摘要,然后通过迭代加入缺失的重要内容,在不增加摘要长度的情况下,添加更多实体信息,让摘要更具细节和丰富性、可读性及抽象性。这些提示相互链接,形成一个“密度链”,更有针对性地引导 AI 达到预期的输出。论文以“如何从文章提炼萃取出最合适的摘要”为重点,发布后有网友实测将 CoD 提示法用于翻译,翻译质量有飞跃提升。 在论文写作方面,有以下常用的 AI 工具和平台: 1. 文献管理和搜索: Zotero:结合 AI 技术,自动提取文献信息,帮助管理和整理参考文献。 Semantic Scholar:AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,精简和优化内容。 3. 研究和数据分析: Google Colab:提供云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化,进行复杂数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,提供模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 使用这些工具时,要结合自身写作风格和需求,选择最合适的辅助工具。需注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-12
能够提取视频摘要的大模型有哪些
以下是一些能够提取视频摘要的大模型: 1. InstructBLIP:基于预训练的BLIP2模型进行训练,在MM IT期间仅更新QFormer。通过引入指令感知的视觉特征提取和相应的指令,能够提取灵活多样的特征。 2. PandaGPT:是一种开创性的通用模型,能够理解6种不同模式(文本、图像/视频、音频、热、深度和惯性测量单位)的指令并根据指令采取行动。 3. PaLIX:使用混合VL目标和单峰目标进行训练,包括前缀完成和屏蔽令牌完成。这种方法对于下游任务结果和在微调设置中实现帕累托前沿都是有效的。 4. VideoLLaMA:引入了多分支跨模式PT框架,使LLMs能够在与人类对话的同时处理给定视频的视觉和音频内容,使视觉与语言以及音频与语言保持一致。 5. 视频聊天GPT:专门为视频对话设计的模型,能够通过集成时空视觉表示来生成有关视频的讨论。 6. Shikra:Chen等人介绍的一种简单且统一的预训练MMLLM,专为参考对话(涉及图像中区域和对象的讨论的任务)而定制,展示了值得称赞的泛化能力,可以有效处理看不见的设置。 7. DLP:提出PFormer来预测理想提示,并在单模态句子数据集上进行训练,展示了单模态训练增强MM学习的可行性。 8. Pegasus1:具有约800亿参数,可处理从10秒到数小时的视频内容。不仅能识别视频中的人物、物体、场景,还能理解背景音乐、对话等,并提供一系列API来满足不同的视频到文本转换需求。
2024-11-01
如何通过文本生成流程图
生成流程图主要有以下两种方式: 1. 可视化拖拽: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形,代表语法: 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中,比如在用 tyora、markdown 写文档时。 多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 个人比较倾向于语法转图形的方式。只要解决语法抽象写起来麻烦的问题就行。 使用 Mermaid 生成流程图的流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑,用自然语言描述出来生成 Mermaid 图形语法。 3. 在线校验测试是否成功。 Mermaid 是一款开源的 JavaScript 库,用于通过简单的文本描述生成各种类型的图表、流程图和时序图等可视化图形。使用 Mermaid,您可以在不使用专业图表工具的情况下,通过文本描述来快速生成各种图表,包括流程图、时序图、甘特图、类图等。 在 ChatGPT 生成 Mermaid 图形代码之后,打开网址“https://mermaid.live”,然后将输出结果的代码拷贝到图形生成框中,即可得到图形。
2024-11-18
有通过文本生成流程图的工具吗
以下是一些通过文本生成流程图的工具和方法: 1. 可视化拖拽方式: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形方式: 代表语法:。 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中。 具有多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 个人比较倾向于语法转图形的方式。只要解决语法抽象写起来麻烦的问题就行。例如,可以使用“Prompt x Mermaid”的方案,通过简单明了的方式来协助作图。Mermaid 是一款开源的 JavaScript 库,用于通过简单的文本描述生成各种类型的图表、流程图和时序图等可视化图形。使用 Mermaid,您可以在不使用专业图表工具的情况下,通过文本描述来快速生成各种图表,包括流程图、时序图、甘特图、类图等。 生成流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑,用过自然语言描述出来生成 Mermaid 图形语法。 3. 在线校验测试是否成功。 在 ChatGPT 生成 Mermaid 图形代码之后,打开网址“https://mermaid.live”,然后将输出结果的代码拷贝到图形生成框中,即可得到图形。
2024-11-18
有没有可以直接讲word文件生产PPT,并使用AI讲课的流程
以下是使用 AI 将 word 文件生成 PPT 并进行讲课的流程: 首先,让 GPT4 生成 PPT 大纲。但生成符合要求的大纲可能比较耗时,比如可能会花费 2 小时左右。 然后,将大纲导入到 WPS 当中,启用 WPS AI 一键生成 PPT。 为了让 PPT 更具灵动性和观感,可让 chatPPT 为其添加一些动画。 最后,手动修改一些细节,比如字体、事实性错误等,整份 PPT 就基本完成了。 需要注意的是,在生成大纲的环节中,可能会因为题目理解困难而花费较多时间。例如,对于一些抽象的题目,可能需要借助 OCR 识别后抛给 GPT4 来帮助理解题意。对于不熟悉的电商企业属性等问题,GPT4 也能提供耐心的解答。
2024-11-13
AI可以帮画流程图吗
AI 可以帮助画流程图。例如,可以使用以下工具和方法: Claude 可以尝试绘制流程图,但可能效果不太理想,且给出的通常是大致框架,需要进一步要求其完善。 利用 Lucidchart 绘制流程图,具体步骤为: 1. 注册并登录: 2. 选择模板:在模板库中搜索“项目管理流程图”。 3. 编辑图表:根据项目需求添加和编辑图形和流程步骤。 4. 优化布局:利用 AI 自动布局功能,优化图表的外观。 5. 保存和分享:保存图表并与团队成员分享,或导出为 PDF、PNG 等格式。 以下是一些推荐的绘制流程图的 AI 工具和平台: 1. Lucidchart:是一个强大的在线图表制作工具,集成了 AI 功能,可以自动化绘制流程图、思维导图、网络拓扑图等多种示意图。具有拖放界面,易于使用;支持团队协作和实时编辑;丰富的模板库和自动布局功能。官网: 2. Microsoft Visio:是专业的图表绘制工具,适用于复杂的流程图、组织结构图和网络图。其 AI 功能可以帮助自动化布局和优化图表设计。集成 Office 365,方便与其他 Office 应用程序协同工作;丰富的图表类型和模板;支持自动化和数据驱动的图表更新。官网: 3. 不过,需要注意的是,根据马斯克的成事五步法,第一步是质疑需求。画图的目的是加深理解,通过亲自动手画图来巩固印象,如果让 AI 画,这个锻炼机会就没了。而且,现在的 AI 也画不出十分好看的流程图,画出来的东西也可能难以修改。
2024-11-11
帮我用AI生成流程图
以下为使用 AI 生成流程图的几种方法: 1. 使用 Lucidchart 生成项目管理流程图: 注册并登录:。 选择模板:在模板库中搜索“项目管理流程图”。 编辑图表:根据项目需求添加和编辑图形和流程步骤。 优化布局:利用 AI 自动布局功能,优化图表的外观。 保存和分享:保存图表并与团队成员分享,或导出为 PDF、PNG 等格式。 2. 使用 ChatGPT 生成各种流程图: 确定制作目标,如生成时序图或流程图。 通过自然语法描述逻辑,将其转换成图形语法。 在线校验测试是否成功。 3. 利用 AI 拆解工作流程: 思考 AI 在当前任务中的帮助作用。 例如,对于公众号写作,使用简单提示词让 Claude 给出大致框架,并要求其更详细。 对于不同场景,如写 PPT 或学术论文,也可尝试让 AI 拆解。 得到拆解结果后,可用 Xmind 画成时间轴图等图表展示。 需要注意的是,虽然 AI 能帮忙画流程图,但根据马斯克的成事五步法,第一步是质疑需求。画图的目的是加深理解,亲自动手画图能巩固印象。而且当前 AI 画出的流程图可能不太好看且难以修改。
2024-11-08
如何输入图片,根据图片生成流程图
以下是关于输入图片生成流程图的相关内容: “镜子画布”小游戏: 需求分析: 这是一种帮助孩子理解和掌握对称概念的教育类小游戏。 内容需求方面,加入“选择难易度等级”概念,根据不同年龄和等级提供不同玩法。 图片生成:用户选择主题后画出相关内容。 图片处理:对图片以中心点分割,右侧内容进行“橡皮擦”处理,包括完全擦掉、给出辅助线、线条做浅等方式。 用户输入:包括输入主题(关键词)或随机生成主题、所选等级(简单、中等、困难)、描图的辅助线等级(无辅助线、“田字格”辅助线、“描红”辅助线)。 制作个人奥运头像: 需求分析:用自己的图片、照片生成漫画形式的以照片人物为主体的运动员头像图。 输入:先使用 ChatGPT 完成工作,输入奥林匹克项目生成人物描述,结合范例提示词添加中国人、中国运动服和项目场景描述,再使用重绘、垫图等参数调整。 “数独游戏”小游戏: 游戏设计: 答案验证:用户把填写内容以 9×9 矩阵形式输给 GPTs,GPTs 利用 Python 与 solution 矩阵对比,出错留红色“X”标记。 答案:用户可要求直接打印答案页。 做成图片的原因:方便用户理解和打印。
2024-11-08