Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

摘要总结作为 llm 训练的下游任务,一般的训练流程是怎样的

Answer

作为 LLM 训练的下游任务,一般的训练流程如下:

  1. 首先从大量文本数据中训练出一个基础 LLM。
  2. 随后使用指令和良好尝试的输入和输出来对基础 LLM 进行微调和优化。
  3. 接着通常使用称为“人类反馈强化学习”的技术进行进一步细化,以使系统更能够有帮助且能够遵循指令。

在训练过程中,会涉及到一些相关的理论探讨和评价指标:

  • 理论探讨方面,如在推理阶段对 In-Context Learning 能力的运行分析,将其视为隐式微调,通过前向计算生成元梯度并通过注意力机制执行梯度下降,且实验表明 LLM 中的某些注意力头能执行与任务相关的操作。
  • 评价指标方面,entropy-like 指标(如 cross-entropy 指标)常用于表征模型的收敛情况和测试集的简单评估(如 Perplexity 指标),但对于复杂的下游应用,还需更多指标,如正确性(Accuracy)、信息检索任务中的 NDCG@K 指标、摘要任务中的 ROUGE 指标、文本生成任务中的 Bits-per-Byte 指标、不确定性中的 ECE 指标、鲁棒性(包括 invariance 和 equivariance)、公平性、偏见程度和有毒性等。
Content generated by AI large model, please carefully verify (powered by aily)

References

融合RL与LLM思想,探寻世界模型以迈向AGI/ASI的第一性原理反思和探索「RL×LLM×WM>AI4S>AGI>ASI」

问题一:为什么「In-Context Learning」或相关的「few-shot」「zero-shot」「prompt e与gineering」等思想能打破传统训练范式并建立新的技术路径进行模型下游任务的SFT,而不用在调整模型任何参数的情况下,在实现传统模型精调后的目标及Benchmark测试中,已经媲美或超越相当一部分的原有模型微调任务的SOTA(当然这里离不开LLM所采用的海量训练数据Pre-training下习得、压缩的广泛而通用知识)。问题二:LLM与传统模型的任务有哪些差异和相同的点?问题三:是否所有传统模型下的任务都能很好的尝试用LLM来有效解决?针对问题一,在学术界和产业界一直有着相关理论上探讨和争论:如在推理阶段,研究人员专注于基于给定的演示来分析In-Context Learning-ICL能力是如何运行的,因为不涉及显式学习和参数更新,通常从梯度下降的角度进行分析,并将ICL视为隐式微调。在这个思想框架下,ICL过程可解释如下:通过前向计算,LLM生成关于演示的元梯度,并通过注意力机制隐式地执行梯度下降。实验也表明,LLM中的某些注意力头能够执行与任务无关的原子操作(例如复制和前缀匹配),这与ICL能力密切相关。

1.课程简介

基于互联网上的文章,基础LLM有可能会回答法国的最大城市是什么,法国的人口是多少等等。因为互联网上的文章很可能是关于法国的问答列表。相比之下,指令调整后的LLM更接受人们的指令。因此,如果你问它法国的首都是什么,它很可能会输出法国的首都是巴黎。指令调整后的LLM的研究和实践的动量更大。因此,指令调整后的LLM通常是这样训练的:首先,你从大量文本数据中训练出一个基础LLM,随后使用指令和良好尝试的输入和输出来对其进行微调和优化,然后通常使用称为“人类反馈强化学习”的技术进行进一步细化,以使系统更能够有帮助且能够遵循指令。因为指令调整后的LLM被训练成有用、诚实和无害的,所以它们输出有害文本(如毒性输出)的可能性比基础LLM更小。很多实际的应用场景已开始向指令调整后的LLM转移,而一些在互联网上查到的最佳实践则可能更适用于基础LLM。对于大多数今天的实际应用,我们建议大多数人应该专注于经过调整的指令语言模型。这些模型更易于使用,而且由于OpenAI和其他LLM公司的工作,它们变得更加安全和更加符合要求。因此,本课程将专注于经过调整的指令语言模型的最佳实践,这是我们建议大多数应用程序使用的模型。在继续之前,我只想感谢OpenAI和DeepLearning.ai团队为我们提供的材料做出的贡献。我非常感谢OpenAI的Andrew Main、Joe Palermo、Boris Power、Ted Sanders和Lillian Weng。他们与我们一起进行了头脑风暴,对材料进行了审核,为这个短期课程的课程设置拼凑了课程计划。我也感谢深度学习方面Geoff Ladwig、Eddy Shyu和Tommy Nelson的工作。

(2)初探LLM基座模型

从上一篇可以知道,entropy-like指标(如cross-entropy指标)常常运用在训练过程中,表征模型的收敛情况,同时也可以用于测试集的简单评估(如Perplexity指标等)。但对于丰富复杂的下游应用来说,这几个指标远远不能满足需求。如果想从第一性原理出发推导出所有指标,这并不现实。下面参考HELM论文的中内容,简单列举了NLP中的指标,大家不必深究,有个简单印象即可。正确性Accuracy。信息检索任务。NDCG@K指标,核心衡量最相关文档是否排序足够靠前的指标。摘要任务。一般用ROUGE指标,ROUGE是个指标体系,有4个大类,其中最简单的为2-gram的方式,即ROUGE-2。就是把两个sequence按2-gram的方式做切分做频次统计,然后计算pred和gt之间的召回率文本生成任务。Bits-per-Byte,类似于Perplexity指标不确定性Calibration and Uncertainty。针对二分类任务,一般用ECE指标(Expected Calibration Error)。核心是度量模型输出概率p的时候,最终正确率真的为p的一致性。鲁棒性Robustness。分为两种invariance。加入不改变语义的噪声,如果大小写变换,加入错别字typo等equivariance。利用contrast set,做语义改变,例如修改关键单词和短语把一个正面的评论改成负面的评论公平性Fairness。看模型输出是否公平,例如把性别和人种等换一下,看输出是否有变化偏见程度Bias and stereotypes。看模型有没有偏见和刻板的印象,例如看模型对亚洲人是否存在“学习好并且会谈钢琴”的偏见有毒性Toxicity。看模型输出是否有毒。

Others are asking
FLUX模型训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 1. 模型准备: 下载所需模型,包括 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时模型存放位置不限,但要知晓路径;训练时建议使用 flux1dev.safetensors 和 t5xxl_fp16.safetensors 版本。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 数据集准备: 建议使用自然语言,与之前 SDXL 的训练类似。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 。 若未准备数据集,此路径中有试验数据集可直接使用。 4. 运行训练:约 1 2 小时即可完成训练。 5. 验证和 lora 跑图:若有 comfyUI 基础,在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点,自行选择 Lora 并调节参数。 6. 修改脚本路径和参数: 若显卡为 16G,右键 16G 的 train_flux_16GLora 文件;若显卡为 24G 或更高,右键 24G 的 train_flux_24GLora 文件。 用代码编辑器打开,理论上只需修改红色部分,包括底模路径、VAE 路径、数据集路径、clip 路径和 T5xxl 路径。注意路径格式,避免错误。蓝色部分为备注名称,可改可不改。建议经验丰富后再修改其他深入参数,并做好备份管理。
2025-01-20
Flux 的lora模型训练教程
以下是 Flux 的 Lora 模型训练教程: 1. 模型准备: 下载所需模型,如 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意: 不使用时模型存放位置随意,只要知晓路径,后续会引用。 训练建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 2. 下载训练脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 训练步骤: 进入厚德云模型训练数据集:https://portal.houdeyun.cn/sd/dataset 步骤一·创建数据集: 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以提前将图片和标签打包成 zip 上传,zip 文件里图片名称与标签文件应当匹配,如图片名"1.png",对应的达标文件就叫"1.txt"。也可以一张一张单独上传照片。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 步骤二·Lora 训练: 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 触发词可有可无,取决于数据集是否有触发词。 模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 然后等待训练,会显示预览时间和进度条。训练完成的会显示出每一轮的预览图。鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 4. 低配置方案: 开源社区对低配置方案进行了优化,NF4 来自 controlnet 的作者,GGUF 则包含多个版本可以使用。 NF4 模型下载:https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors ,放置在 ComfyUI/models/checkpoint/中(不像其他 Flux 模型那样放置在 UNET 中),NF4 配套节点插件:git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git GGUF 模型下载:Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main ,GGUF 配套节点插件:GGUF 节点包:https://github.com/city96/ComfyUIGGUF 。 值得一提的是在最新版本的 ComfyUI 中 GGUF 的节点插件可以在 Manager 管理器中搜到下载安装,NF4 的配套节点插件则搜不到。 注意使用精度优化的低配模型的话,工作流和原版是不一样的。此处没有专门列举。 自己改的话就是把上面官方的 fp8 的工作流,只需把底模的节点换成 NF4 的或者 GUFF 的即可。 相关生态发展很快,有 Lora、Controlnet、IPadpter 相关生态建设非常速度,以及字节最近发布的 Flux Hyper lora 是为了 8 步快速生图。
2025-01-19
我想训练一个专属Agent该怎么做?
要训练一个专属 Agent,以下是一些关键步骤和要点: 1. 明确目标:确定您希望 Agent 实现的特定目标,这将为训练提供方向。 2. 理解智能体的定义:智能体是能够感知环境并采取行动以实现特定目标的实体,可以是软件程序或硬件设备。 3. 规划:将大型任务分解为更小、可管理的子目标,以有效处理复杂任务。 4. 反思和完善:让 Agent 能够对过去的行为进行自我批评和反思,从错误中吸取教训,并针对未来步骤进行完善,提高最终结果质量。 5. 记忆管理:包括短期记忆,利用模型的短期记忆进行学习;长期记忆,通过外部向量存储和快速检索实现长时间信息保留和回忆。 6. 工具使用:训练 Agent 学习调用外部 API 来获取模型权重中缺失的额外信息,包括当前信息、代码执行能力、对专有信息源的访问等。 7. 评估工具使用能力:从调用 API 的能力、检索 API 的能力以及计划 API 超越检索和调用的能力这三个层面进行评估。 在训练过程中,还需要注意模型的上下文窗口长度有限,输入的剧集应足够短以构建多剧集历史,2 4 个剧集的多剧集上下文对于学习近乎最优的上下文强化学习算法是必要的,且上下文强化学习的涌现需要足够长的上下文。
2025-01-17
如何创建和训练自己的智能体
创建和训练自己的智能体可以参考以下步骤: 1. 知识库创建: 在线知识库:点击创建知识库,创建一个如画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以分割,选择飞书文档、自定义的自定义,输入,可编辑修改和删除,添加 Bot 后可在调试区测试效果。 本地文档:对于本地 word 文件,注意不能将所有内容一股脑放进去训练。例如画小二 80 节课程分为 11 个章节,应先放入大章节名称内容,章节内详细内容按固定方式人工标注和处理,然后选择创建知识库自定义清洗数据。 2. 发布应用:点击发布,确保在 Bot 商店中能够搜到,只有通过发布才能获取到 API。 在创建智能体之前,还需要了解智能体的相关知识: 智能体大多建立在大模型之上,从基于符号推理的专家系统逐步演进而来。基于大模型的智能体具有强大的学习能力、灵活性和泛化能力。其核心在于有效控制和利用大型模型,提示词的设计直接影响智能体的表现和输出结果。 动手实践创建智能体时,可以基于公开的大模型应用产品(如 Chat GLM、Chat GPT、Kimi 等),尝试开发属于自己的智能体。具体步骤包括: 1. 点击“浏览 GPTs”按钮。 2. 点击“Create”按钮创建自己的智能体。 3. 使用自然语言对话或手工设置进行具体设置。 4. 开始调试智能体并发布。 此外,在创建和使用智能体的过程中,还应注意以下几点: 1. 把工作单元切割开,建设属于自己的智能体,并根据结果反馈不断调整。 2. 定期审视工作流程,看哪个部分可以更多地用上 AI。 3. 注重个人素质的提升,尤其是学习能力和创造能力,培养好奇心和持续学习的习惯,将想法转化为具体行动。
2025-01-16
怎么训练AI数字人说话的语气和语调
训练 AI 数字人说话的语气和语调可以从以下几个方面入手: 1. AI Agent:要让数字人像人一样思考,需要编写一个类似人的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建具有挑战性。 2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式有 HTTP、webSocket 等。但包含情绪的语音表达以及保证躯壳的口型、表情、动作和语音的同步及匹配方面,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但多为闭源,效果可参考 Nvidia 的 Audio2Face 或 Live Link Face + Face AR Sample。 3. 实时性:由于数字人的算法部分组成庞大,几乎不能单机部署,算法一般部署到额外的集群或调用提供的 API,会涉及网络耗时和模型推理耗时,低延时是亟需解决的问题。 4. 多元跨模态:不仅要有语音交互,还可根据实际需求添加其他感官交互,如通过添加摄像头数据获取视觉信息,再通过 CV 算法做图像解析。 5. 拟人化场景:正常与人交流并非线性对话,插话、转移话题等情景需通过工程进行丝滑处理。 此外,对于数字人说话相关的算法开源代码有很多,如 ASR 语音识别方面有 openai 的 whisper、wenet、speech_recognition 等;AI Agent 方面大模型有 ChatGPT、Claude、ChatGLM 等,Agent 部分可使用 LangChain 的模块自定义;TTS 方面有微软的 edgetts、VITS、sovitssvc 等。 如果都要自建代码实现各模块,开发工作量巨大,迭代难度高,个人开发者可借助开源社区的力量,如 dify、fastgpt 等成熟的高质量 AI 编排框架,通过这些框架快速编排出自己的 AI Agent。在开源项目中,使用 dify 框架可利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,实现相对复杂的功能。同时,Dify 的 API 暴露了 audiototext 和 texttoaudio 两个接口,基于此可将数字人的语音识别和语音生成都交由 Dify 控制。使用 Dify 接口时需注意必须在应用编排功能中打开文字转语音和语音转文字功能,且只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来。
2025-01-14
举例说明,意图和FAQ训练的区别
意图和 FAQ 训练是两种不同的概念。 意图训练主要侧重于理解用户的核心意图或目的。例如,在一个客服场景中,用户的意图可能是查询产品信息、寻求技术支持或进行投诉等。通过对大量的用户交互数据进行分析和学习,模型能够识别出这些不同的意图类别。 FAQ 训练则侧重于常见问题及其对应的标准答案。比如常见的“产品如何退换货”“售后服务的联系方式是什么”等问题,以及相应的准确回答。 总的来说,意图训练更注重对用户目的的分类和理解,而 FAQ 训练更侧重于对特定常见问题的准确回答。
2025-01-13
llm cookbook 有资源吗
以下是关于 LLM 学习资源和 OpenAI Cookbook 的相关信息: 学习大型语言模型(LLM)开发的资源和路径: 1. 掌握深度学习和自然语言处理基础: 机器学习、深度学习、神经网络等基础理论。 自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程:吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: Transformer 模型架构及自注意力机制原理。 BERT 的预训练和微调方法。 掌握相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 大规模文本语料预处理。 LLM 预训练框架,如 PyTorch、TensorFlow 等。 微调 LLM 模型进行特定任务迁移。 相关资源:HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 模型压缩、蒸馏、并行等优化技术。 模型评估和可解释性。 模型服务化、在线推理、多语言支持等。 相关资源:ONNX、TVM、BentoML 等开源工具。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 OpenAI Cookbook 资源: 如需更多灵感,请访问,其中包含示例代码以及指向第三方资源的链接,例如: 1. 2. 3. 4. 此外,还有 LLM 开源中文大语言模型及数据集集合中的相关资源: HuggingLLM: 地址: 简介:介绍 ChatGPT 原理、使用和应用,降低使用门槛,让更多感兴趣的非 NLP 或算法专业人士能够无障碍使用 LLM 创造价值。 OpenAI Cookbook: 地址: 简介:该项目是 OpenAI 提供的使用 OpenAI API 的示例和指导,其中包括如何构建一个问答机器人等教程,能够为从业人员开发类似应用时带来指导。
2025-01-14
Llm studio 联网搜索
以下是关于 LLM studio 联网搜索的相关内容: Cursor 方面: Cursor 适用于多种编程场景,如问答。在问答场景中,LLM 支持联网功能后,如 Claude、ChatGPT、Perplexity 等平台可咨询技术问题,能自动提炼关键字、联网搜索并总结分析搜索结果返回简洁答案,但答案置信率不高,而 Cursor 的上下文符号引用能力(如@Codebase 符号索引整个仓库)弥补了这一点,其将整个仓库 Embedding 成向量数据库供 LLM 消费,具备极强的私域知识理解能力,还能高效地帮用户分析总结各类项目的底层原理。 LLM Agent 方面: 工作步骤包括接收指令(用户通过文本、语音等方式发出指令或提出问题)、数据处理与理解(利用内部大语言模型解析用户输入,提取关键信息)、生成响应与执行任务(根据用户需求生成回答或采取行动,如查询数据库、搜索网络等)、输出结果(通过文本或语音将生成的结果反馈给用户)。 AIGC Weekly34 方面: 提出将 LLM 与互联网上的高质量内容结合来修复信息生态系统的问题,如 Metaphor 希望恢复搜索的神奇感,发布了 Metaphor API 用于将 LLM 连接到互联网。 介绍了 StarCraft II 作为强化学习环境的相关论文,提出了 AlphaStar Unplugged 基准测试。 提到了名为 Glean 的 AI 搜索工具能帮助用户在工作场景中进行搜索和优化,还讨论了人工智能人格模拟相关内容,如语言模型如何模拟和改变人格等。
2025-01-13
LLM输出的结果一致性如何保证
要保证 LLM 输出结果的一致性,可以采取以下几种策略: 1. Prompt 工程: 明确的待处理内容指引:在构建 Prompt 时,清晰地定义需要处理的文本,并使用标记框起来,让模型准确识别待处理内容范围,从中提取信息。 提供明确字段定义:具体化每个字段的名称、用途及要求,为 LLM 提供明确的提取方向和标准。 异常处理:设置异常处理原则,如规定缺失数据使用默认值填充,特殊数据类型符合标准格式,确保模型输出的完整性和一致性。 要求结构化输出:指示 LLM 以结构化格式(如 JSON)输出数据,便于后续处理和系统集成。 2. 自我一致性增强可靠性:促使 LLM 对同一问题产生多个答案,通过一致性审查衡量其可信度。一致性评估可从内容重叠、语义相似性评估及高级指标(如 BERT 分数或 ngram 重叠)等多方面进行,增强 LLM 在事实核查工具中的可靠性。 3. 衡量和评估不确定性:如牛津大学通过生成一个问题的多个答案,并使用另一个模型根据相似含义分组来衡量 LLM 不确定性。 4. 利用外部工具验证:如 Google DeepMind 推出的 SAFE,通过将 LLM 响应分解为单个事实、使用搜索引擎验证事实以及对语义相似的陈述进行聚类来评估 LLM 响应的真实性。 5. 借助其他 LLM 发现错误:如 OpenAI 推出的 CriticGPT,使用基于大量有缺陷输入数据集训练的 GPT 式 LLM 来发现其他 LLM 生成代码中的错误。 6. 利用 LLM 生成的评论增强 RLHF 的奖励模型:如 Cohere 使用一系列 LLM 为每个偏好数据对生成逐点评论,评估提示完成对的有效性。
2025-01-02
LLM是什么?
LLM(语言逻辑模型)是 LangChain 平台与各种大模型进行交互的核心模型,是一个能够处理语言输入和输出的抽象概念,可以理解为一个黑盒。 其输入是一个字符串,表示用户的请求或问题,输出也是一个字符串,表示模型的回答或结果。LLM 能根据不同输入调用不同大模型来完成不同语言任务,如文本生成、文本理解、文本翻译等。 从大模型的整体架构来看,LLM 处于模型层,例如 GPT 就是一种常见的 LLM,一般使用 transformer 算法实现。 LLM 的工作原理是像输入法的输入联想逻辑一样,一个字一个字地推理生成内容。通过将上下文加入输入,能帮助模型理解下一个字。但存在计算时带入全量数据算力吃不消以及仅算字的概率易被不相干信息干扰的问题,词向量机制和 transformer 模型中的 attention 自注意力机制解决了这些难题。
2025-01-02
如何在本地部署LLM,然后完成某个专业或者主题的专业知识库训练
以下是在本地部署 LLM 并完成某个专业或主题的专业知识库训练的详细步骤: 1. 部署大语言模型: 下载并安装 Ollama:根据电脑系统,点击进入 https://ollama.com/download 下载,下载完成后双击打开,点击“Install”。安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。 下载 qwen2:0.5b 模型:如果是 Windows 电脑,点击 win+R,输入 cmd 点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行粘贴进入并回车,等待自动下载完成。 2. 安装 Docker Desktop: 点击去下载,根据系统进行选择。以 Windows 系统为例,点击 https://docs.docker.com/desktop/install/windowsinstall/ 下载,双击下载项目,点击 ok 加载文件,点击“close and restart”重启电脑。重启后,点击“Accept”,选择第二个,点击"Finish",进入 Docker Desktop。 3. 部署 FastGPT+OneAPI: 在桌面按住“shift”+鼠标右键,选择“在此处打开 Powershell 窗口”,在窗口中一行一行输入并回车。等待上方命令执行完成,下载完成之后。回到桌面,打开 FastGPT 文件夹,右键 dockercompose.yml 文件,选择打开方式为记事本打开,查找并修改相关内容后保存。回到命令行窗口中,继续输入并回车。 4. 配置 OneAPI: 在浏览器中输入:http://localhost:3001 ,进入登录页,账号 root 密码 123456 点击登录。点击【渠道】【添加新的渠道】,类型选择 Ollama,名称设为 qwen2,模型设为 qwen2:0.5b,秘钥设为 sksky,代理设为 http://host.docker.internal:11434 ,点击提交。点击【令牌】【添加新令牌】,名称随意,时间设为永不过期、额度设为无限额度,点击【提交】,点击【令牌】复制 key。 5. 配置 FastGPT: 回到 FastGPT 文件夹里,用记事本打开“dockercompose.yml”文件,查找并修改相关内容后保存。打开 config.json,根据图示修改完成,把相关数值改成 1500 左右。在命令窗口中输入:docker compose down 等待执行完成,再输入:docker compose upd 等待执行完成。在浏览器上输入:http://localhost:3000 ,账号 root 密码 1234 点击进入,设置好后点击确定。发布 API 并创建一个 key。
2025-01-02
关于LLMs文本与图像混合模态训练
以下是关于 LLMs 文本与图像混合模态训练的相关内容: 多模态大模型总结: 1. InstructBLIP 基于预训练的 BLIP2 模型进行训练,在 MM IT 期间仅更新 QFormer。通过引入指令感知的视觉特征提取和相应的指令,能够提取灵活多样的特征。 2. PandaGPT 是一种开创性的通用模型,能够理解 6 种不同模式的指令并根据指令采取行动,包括文本、图像/视频、音频、热、深度和惯性测量单位。 3. PaLIX 使用混合 VL 目标和单峰目标进行训练,包括前缀完成和屏蔽令牌完成。这种方法对于下游任务结果和在微调设置中实现帕累托前沿都是有效的。 4. VideoLLaMA 引入了多分支跨模式 PT 框架,使 LLMs 能够在与人类对话的同时处理给定视频的视觉和音频内容,使视觉与语言以及音频与语言保持一致。 5. 视频聊天 GPT 是专门为视频对话设计的模型,能够通过集成时空视觉表示来生成有关视频的讨论。 6. Shikra Chen 等人介绍了一种简单且统一的预训练 MMLLM,专为参考对话(涉及图像中区域和对象的讨论的任务)而定制,展示了值得称赞的泛化能力,可以有效处理看不见的设置。 7. DLP 提出 PFormer 来预测理想提示,并在单模态句子数据集上进行训练,展示了单模态训练增强 MM 学习的可行性。 未来发展方向: 最初,多模态融合方法常采用预训练的目标检测器,如 ViLBERT、VisualBERT 和 UnicoderVL,通过提取图像特征和执行交叉模态预训练任务,为后续的图像文本任务奠定基础。随着 ViT 的出现和普及,更多方法开始利用 ViT 作为图像编码器,强调大规模预训练,以提高模型的性能和泛化能力,例如 Flamingo。近期,向多模态 LLMs 的发展趋势是从进行预训练到向指令调整(instruction tuning)转变,例如 LLaVA 和 MiniGPT4,它们通过融合视觉和语言信息,能够更有效地完成视觉理解相关的任务,进一步提升模型对于指令的理解能力,提升零样本性能,使模型能够更好地泛化到未见过的任务和领域。 训练过程: 1. 预训练阶段:通常利用 XText 的数据集来训练输入、输出的 Projector,通过优化损失函数来实现不同模态的对齐,PEFT 有时候用于 LLM Backbone。XText 数据集包含图像文本、视频文本和音频文本,其中图像文本有两种类型:图像文本对和交错图像文本语料库。 2. 多模态微调:是对满足指令微调格式的一系列数据集对预训练好的多模态大模型进行微调。通过这种微调,MMLLM 可以遵循新的指令泛化到没有见过的任务,增强 zeroshot 的能力。MM IT 包括监督微调(SFT)和 RLHF 两部分,目的是为了使得模型符合人类的意图或者偏好,并且增强 MMLLMs 的交互能力。SFT 将 PT 阶段的数据转换为指令aware 的格式,使用 QA 任务作为例子,可采用各种模板。优化目标和预训练相同,SFT 数据可以构造为单轮的 QA 或者多轮的 QA。常用的 SFT 和 RLHF 的数据集见表 4。
2025-01-01
生成文章摘要及框架的提示词
以下是关于生成文章摘要及框架的提示词相关内容: 办公通用场景: 总结助手:请帮我总结以下文章,将以下文本总结为 100 个单词,使其易于阅读和理解。摘要应简明扼要,并抓住文本的要点。避免使用复杂的句子结构或技术术语。 周报生成器:根据日常工作内容,提取要点并适当扩充,以生成周报。 相关链接: Chain of Density:为给定文章生成越来越精简且信息丰富的摘要,重复两个步骤 5 次。步骤 1 找出 1 3 项先前摘要中遗漏的信息实体“informative entity”,步骤 2 生成新的更紧凑的摘要,涵盖先前所有信息实体及缺失实体。回复格式为 JSON,包含“Missing_Entities”和“Denser_Summary”两个键值。 利用 AI 打造爆款公众号文章:关键在于提供清晰且具指导性的提示词,好的提示词能让 AI 更准确理解需求并生成符合预期的内容。可从基础提示词进阶到更详细、具创意的提示词,为 AI 设定文章语气、风格和重点,最终产出内容可能需微调以符合预期和公众号风格。
2024-12-05
你会写论文摘要
以下是关于论文写作和摘要相关的综合信息: 1. 利用连锁密度法撰写摘要的方法:向您索取文章后,通过重复两个步骤共五次来撰写逐渐简洁、重点突出的文章摘要。步骤包括从文章中找出 1 3 个关键要素并编写新的更精炼的摘要,要遵循相关原则,最终以 JSON 格式(包含“Missing_Entities”和“Denser_Summary”两个键值)回答。 2. 提示工程中与论文写作相关的策略和技巧:使用分隔符(如三重引号、XML 标签、章节标题等)清晰区分输入的不同部分,例如总结、翻译等文本内容。 3. 论文写作的 AI 产品: 文献管理和搜索:Zotero 可自动提取文献信息,Semantic Scholar 是 AI 驱动的学术搜索引擎。 内容生成和辅助写作:Grammarly 提供文本校对等,Quillbot 可重写和摘要。 研究和数据分析:Google Colab 支持数据分析,Knitro 用于数学建模和优化。 论文结构和格式:LaTeX 处理论文格式,Overleaf 是在线 LaTeX 编辑器。 研究伦理和抄袭检测:Turnitin 和 Crossref Similarity Check 检测抄袭。使用时要结合自身需求选择合适工具,并仔细甄别生成内容。
2024-11-20
推荐一个免费的ai写摘要软件
以下为您推荐一些免费的 AI 写摘要软件: Bing(https://www.bing.com/search?q=Bing+AI&showconv=1&FORM=hpcodx) Claude 2(https://claude.ai/) 此外,还有一些在其他写作方面表现出色的 AI 工具: 简历写作: Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,包括摘要、工作经验和教育等专业部分,并保持一致语调。 Rezi:受到超过 200 万用户信任的领先 AI 简历构建平台,能自动化创建简历的各个方面。 Huntr 的 AI 简历构建器:提供免费简历模板,以及 AI 生成的总结、技能、成就生成器和工作匹配。更多 AI 简历产品可查看:https://www.waytoagi.com/category/79 论文写作: 文献管理和搜索:Zotero 可自动提取文献信息;Semantic Scholar 是 AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 内容生成和辅助写作:Grammarly 提供文本校对、语法修正和写作风格建议;Quillbot 可重写和摘要,优化内容。 研究和数据分析:Google Colab 支持 AI 和机器学习研究,便于数据分析和可视化;Knitro 用于数学建模和优化。 论文结构和格式:LaTeX 结合自动化和模板处理格式和数学公式;Overleaf 是在线 LaTeX 编辑器,提供模板库和协作功能。 研究伦理和抄袭检测:Turnitin 和 Crossref Similarity Check 检测抄袭,确保原创性。 需要注意的是,这些内容由 AI 大模型生成,请仔细甄别。
2024-11-20
用50个字概括AI如何会议记录&摘要
AI 进行会议记录和摘要可涵盖会议主题、人员、议题等要素,借助相关工具和工作流,如飞书妙记、Kimichat 等,按流程生成和完善。
2024-11-13
用20个字概括AI会议记录&摘要
AI 会议记录与摘要涵盖多场景多领域内容
2024-11-13
论文全文生成摘要
以下是关于您问题的回答: “Chain of Density”(CoD)是一种通过建立一系列相互关联的紧密提示来指导 AI 生成具体和连续输出的方法。它由美国哥伦比亚大学、麻省理工和 Salesforce 公司的研究人员共同发表。具体来说,是使用 GPT4 生成初始的稀疏摘要,然后通过迭代加入缺失的重要内容,在不增加摘要长度的情况下,添加更多实体信息,让摘要更具细节和丰富性、可读性及抽象性。这些提示相互链接,形成一个“密度链”,更有针对性地引导 AI 达到预期的输出。论文以“如何从文章提炼萃取出最合适的摘要”为重点,发布后有网友实测将 CoD 提示法用于翻译,翻译质量有飞跃提升。 在论文写作方面,有以下常用的 AI 工具和平台: 1. 文献管理和搜索: Zotero:结合 AI 技术,自动提取文献信息,帮助管理和整理参考文献。 Semantic Scholar:AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:提供文本校对、语法修正和写作风格建议,提高语言质量。 Quillbot:基于 AI 的重写和摘要工具,精简和优化内容。 3. 研究和数据分析: Google Colab:提供云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化,进行复杂数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,提供模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:检测潜在抄袭问题。 使用这些工具时,要结合自身写作风格和需求,选择最合适的辅助工具。需注意,内容由 AI 大模型生成,请仔细甄别。
2024-11-12
AI 做产品渲染图的工具和企业内落地使用的流程和方案是什么
以下是关于 AI 做产品渲染图的工具和企业内落地使用的流程和方案的相关内容: 工具: 等工具可帮助品牌创建引人注目的产品照片。 可制作用于电子邮件或社交媒体的营销材料。 可以编写经过 SEO 优化的产品描述。 企业内落地使用流程和方案: 1. 市场分析:利用 AI 分析工具研究市场趋势、消费者行为和竞争对手情况,处理大量数据,快速识别关键信息,如受欢迎的产品、价格区间、销量等。 2. 关键词优化:借助 AI 分析和推荐高流量、高转化的关键词,优化产品标题和描述,提高搜索排名和可见度。 3. 产品页面设计:使用 AI 设计工具,根据市场趋势和用户偏好自动生成吸引人的产品页面布局。 4. 内容生成:运用 AI 文案工具撰写有说服力的产品描述和营销文案,提高转化率。 5. 图像识别和优化:通过 AI 图像识别技术选择或生成高质量的产品图片,更好地展示产品特点。 6. 价格策略:利用 AI 分析不同价格点对销量的影响,制定有竞争力的价格策略。 7. 客户反馈分析:借助 AI 分析客户评价和反馈,了解客户需求,优化产品和服务。 8. 个性化推荐:依靠 AI 根据用户的购买历史和偏好提供个性化的产品推荐,增加销售额。 9. 聊天机器人:采用 AI 驱动的聊天机器人提供 24/7 的客户服务,解答疑问,提高客户满意度。 10. 营销活动分析:使用 AI 分析不同营销活动的效果,了解哪些活动更能吸引顾客并产生销售。 11. 库存管理:依靠 AI 帮助预测需求,优化库存管理,减少积压和缺货情况。 12. 支付和交易优化:利用 AI 分析不同的支付方式对交易成功率的影响,优化支付流程。 13. 社交媒体营销:借助 AI 在社交媒体上找到目标客户群体,通过精准营销提高品牌知名度。 14. 直播和视频营销:运用 AI 分析观众行为,优化直播和视频内容,提高观众参与度和转化率。
2025-01-17
我想做一个专用的智能体,帮助我挑选英语学习材料,应该怎么办?请说明详细的流程。
以下是创建一个能帮助您挑选英语学习材料的专用智能体的详细流程: 1. 人设与回复逻辑 角色定位为专业且贴心的英语学习助手。 每日为您精心挑选最新、最实用的地道英语口语表达。 通过搜索、筛选、分析、解释及与您的互动,助力您提升英语口语能力。 2. 主要技能 搜索筛选口语表达:运用短语音识别极速版和通用文字识别高精度版工具,高效准确地从海量资源中精选出符合您需求和学习阶段的最新、实用的地道英语口语表达。 分析解释口语:深入剖析口语表达的使用场景和语境,结合实例为您提供清晰、详尽且易于理解的解释,让您直观感受其用法。 每日分享与互动:每日生成一条包含口语表达、解释、使用场景、例句和练习建议的分享内容。以可爱的符号和统一的格式输出,提升阅读体验,并积极与您进行简单互动,倾听您的学习需求和反馈,持续优化分享内容。 3. 限制 仅分享地道、实用且符合英语母语者表达习惯的口语内容。 严格遵循输出格式和内容要求,不得随意更改。 充分利用提供的工具,确保分享内容的高质量和有效性。 避免使用生僻、复杂或过于学术的语言。 例如,按照以下格式分享内容:
2025-01-17
用AI 写PPT的流程
用 AI 写 PPT 的流程如下: 1. 让 GPT4 生成 PPT 大纲,这一环节可能比较耗时,需要反复沟通和迭代,以确保大纲符合要求。 2. 将生成的大纲导入到 WPS 当中,启用 WPS AI 一键生成 PPT。 3. 让 chatPPT 为生成的 PPT 添加一些动画,以增强效果。 4. 手动修改细节,如字体、事实性错误等。 在生成大纲的过程中,可能需要花费较多时间与 GPT4 交流,明确主题和内容。WPS AI 能够对大纲进行优化和丰富,并且可以根据需求对生成的 PPT 进行主题配色和字体的修改。需要注意的是,目前 WPS 的相关功能可能免费,但未来可能会收费。
2025-01-10
针对智能体开发,能否给出具体的流程
智能体开发的具体流程通常包括以下步骤: 1. 定义目标:明确智能体需要实现的目标或任务。 2. 感知系统:设计传感器系统,采集环境数据。 3. 决策机制:定义智能体的决策算法,根据感知数据和目标做出决策。 4. 行动系统:设计执行器或输出设备,执行智能体的决策。 5. 学习与优化:如果是学习型智能体,设计学习算法,使智能体能够从经验中改进。 在实际的智能体开发中,还包含以下关键流程: 1. 信息聚合与数据挖掘:初步通过高度集成的数据采集机制,全面收集产品的各项关键信息。 2. 卖点提炼与优化:运用先进的大模型,对收集到的信息进行分析,从中提炼出具有市场竞争力和独特性的卖点。 3. 买点转化与策略应用:将提炼的卖点转化为消费者视角的买点,通过行为心理学和市场营销策略,增强产品的吸引力。 4. 视觉化信息呈现:设计直观且具有冲击力的卡片展示,确保信息传达的有效性和视觉吸引力。 5. 文案与脚本调整:根据目标受众的偏好和媒体渠道,动态调整文案或脚本,实现内容的最佳适配。 6. 流程结果存储与分析:最后,将所有处理结果系统化地存储到飞书,以供未来策略优化和决策支持。 此外,基于大模型的智能体具有强大的学习能力、灵活性和泛化能力。在开发过程中,提示词的设计直接影响智能体的表现和输出结果。您可以基于一些公开的大模型应用产品(如 Chat GLM、Chat GPT、Kimi 等),按照以下步骤尝试开发属于自己的智能体: 1. 点击“浏览 GPTs”按钮。 2. 点击“Create”按钮创建自己的智能体。 3. 使用自然语言对话进行具体设置。 4. 使用手工设置。 5. 开始调试您的智能体并发布。
2025-01-09
有那些AI工具支持处理流程搭建,类似Dify那样
以下是一些支持处理流程搭建的 AI 工具,类似 Dify 那样: 1. Dify: 是一个开源的大模型应用开发平台。 结合后端即服务和 LLMOps 理念,提供直观界面快速构建和部署生产级别的生成式 AI 应用。 具备强大工作流构建工具,支持广泛模型集成,有功能丰富的提示词 IDE 和全面的 RAG Pipeline 用于文档处理和检索。 允许定义 Agent 智能体,通过 LLMOps 功能对应用程序性能持续监控和优化。 提供云服务和本地部署选项,满足不同用户需求。 开源特性确保对数据完全控制和快速产品迭代。 设计理念注重简单性、克制和快速迭代,为创业团队构建 MVP、企业集成 LLM 增强现有应用能力、技术爱好者探索 LLM 潜力提供支持和工具。 官方手册:https://docs.dify.ai/v/zhhans 。个人研究推荐单独使用,企业级落地项目推荐多种框架结合。 2. FastGPT:是成熟的高质量 AI 编排框架,有大量开源工作者维护,集成各种主流的模型供应商、工具及算法实现等。 3. Coze:服务端可用于在线编辑 Agent 应用,然后通过 API 方式集成。
2025-01-08
Aigc国漫风格制作流程
以下是 AIGC 国漫风格的制作流程: 1. 主题与文案:确定国漫风格作品的主题,可借助 ChatGPT 等文本类 AI 工具协助完成文案。 2. 风格与布局:选择想要的国漫风格意向,背景可根据文案和风格灵活调整画面布局。 3. 生成与筛选:使用相关的 AIGC 绘图平台,输入关键词,生成并挑选出满意的底图。 4. 配文与排版:将上述素材进行合理排版,得到成品。排版同样可以参考 AIGC 相关的海报成果。 此外,还有一些相关的案例供您参考: 在制作海报方面,使用无界 AI 等软件,按照需求场景、大致流程进行操作。 在文旅视频制作中,如山西文旅宣传片,运用 Defense 及 SD 制作艺术字,通过 PS 处理和反复跑图提高画面完整度。 在游戏 PV 制作中,如《追光者》,结合多种 AI 工具,包括 chaGPT、MJ 绘图、SD 重绘等,进行前期脑暴拉片和风格参考情绪版的准备。
2025-01-08