Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何微调deepseek

Answer

微调 DeepSeek 可以通过以下步骤和方法:

  1. 应用 KL 散度约束更新策略来调整策略的概率分布。例如,已知 ABC 策略初始概率分布为[1/3, 1/3, 1/3],根据相对优势调整后的权重可以通过指数函数来转换,以确保权重为正数且总和为 1。计算未归一化的权重,如 A: e^1≈2.178,B:e^0=1,C: e^-1≈0.368,然后归一化权重,总和=2.718+1+0.368=4.086,新权重分别为 A: 2.718/4.086≈0.665,B: 1/4.086≈0.245,C: 0.368/4.086≈0.09。通过这样的步骤,策略 A 的总体优势最高,其权重增加,策略 B 表现中等,权重基本保持不变,策略 C 表现较差,权重减少。在不同场景(不同组)的计算中,每个策略的权重会相应调整以获得更高的分数。在文本生成阶段,可以用来评估和调整不同生成策略(比如贪婪搜索,随机采样,束搜索)的有效性,从而提高生成文本(尤其是复杂文本)的连贯性和多样性。
  2. 模型蒸馏微调方面,用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。同时,Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。
  3. 在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。
  4. 关于部署方面,讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。同时介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。

更加完善的训练说明,可直接阅读官方论文:DeepSeek-AI《DeepSeek-R1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948

Content generated by AI large model, please carefully verify (powered by aily)

References

[算法学习]Deepseek的算法创新:GRPO(Group Relative Policy Optimization)

调整策略的概率分布:已知ABC策略初始概率分布为[1/3,1/3,1/3]。根据相对优势调整后的权重可以通过指数函数来转换,以确保权重为正数且总和为1。计算未归一化的权重:A:$$e^1≈2.178$$B:$$e^0=1$$C:$$e^-1≈0.368$$归一化权重:总和=2.718+1+0.368=4.086新权重:A:$$\frac{2.718}{4.086}≈0.665$$B:$$\frac{1}{4.086}≈0.245$$C:$$\frac{0.368}{4.086}≈0.09$$结论通过上面的步骤可以看到:策略A的总体优势最高,因此其权重增加到约0.665。策略B表现中等,权重基本保持不变,约为0.245。策略C表现较差,权重减少到约0.090。在不同场景(不同组)的计算,每个策略的权重会相应调整以获得更高的分数。在文本生成阶段,可以用来评估和调整不同生成策略(比如贪婪搜索,随机采样,束搜索)的有效性,从而提高生成文本(尤其是复杂文本)的连贯性和多样性。(DeepSeek在2024年4月推出的DeepSeekMath模型中首次采用了GPRO算法。该模型专门针对数学推理与计算问题设计,通过结合7B参数和GPRO算法,其数学能力宣称超越需要千亿参数的GPT-4。之后的V3和R1也应用了GPRO提升模型的推理能力,所以爆火还是有扎实基础的)

智能纪要:02-26 | DeepSeek部署+蒸馏 2025年2月26日

关于AI模型部署与相关知识的讲解本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。免费额度说明:指出在freely.aliyun.com可领取500元免费额度,但有使用限制,不能部署满血版和较大的增流模型。平台服务差异:介绍了DLC、DSW和EAS等模型部署平台服务的差别。模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。Deepseek R1模型的制作及相关模型比较R1模型的强化学习:通过强化学习,在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。R1模型的蒸馏与微调:用Deepseek RE Zero蒸馏出带思考的数据,基于Deepseek V3微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成R1。R1与其他模型的差别:R1是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。模型的相互帮助:Deepseek R1反过来蒸馏数据微调V3,形成互相帮助的局面,使两个模型都更强。

非技术人 10 分钟读懂 Deepseek R1|天才模型养成与 AI 超越人类的破晓时刻

这个版本甚至没有进行任何的初始引导,而是采用了完全从零开始的强化学习。实验表明,无需任何人类的监督训练,R1-zero自然而然地学会了用更多的思考步骤来解决推理任务,还学会了在推理过程中反思先前的推理步骤,探索解决问题的替代方法。——没错,AI在纯强化学习中,自发涌现出了更强的推理能力与顿悟时刻:*但因为没有微调,R1-zero的输出内容可读性差、语言混合,且风险不可控。所以我们见到的才是经过符合人类阅读偏好的冷启动与微调过的R1版本,确保AI生成内容的稳定、安全、道德、无害。纯强化学习,在Alpha Zero完胜所有人类棋手之后,再次点燃了AI全面超越人类的希望。当AI挣脱人类经验的束缚,真正的智能革命或许才刚刚拉开序幕。[heading2]💬附:DeepSeek R1完整训练过程[content]因文章定位与行文节奏设计,上文仅对影响R1涌现关键智能的前两个训练步骤进行了讲解。更加完善的训练说明,可直接阅读官方论文:DeepSeek-AI《DeepSeek-R1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948

Others are asking
deepseek提示词
以下是关于 deepseek 提示词的相关内容: 1. 生成小红书爆款单词视频: 开始时输入单词主题、图片风格、单词数量。 选择 deepseekr1 模型生成单词数组,以数组方式输出,包括单词、中文、美式音标、英文句子及其中文翻译。 提示词中角色设定为专业的单词生成助手,技能是输出关联英语单词,限制为仅围绕用户输入主题输出相关内容,且以特定数组形式呈现。 2. Deepseek 时代提示词之关键诉求: 完整的长提示词可能不如片段有效,甚至干扰模型思考流程,带来 Token 浪费和上下文污染,特别是在多轮对话中。 新一代 LLM 的正确打开方式是“关键诉求直通车”模式,如像对聪明助理打暗号,让模型自主发挥。 3. 让 DeepSeek 生成相机运动轨迹的提示词: 以往的提示词包括场景、构图、尺寸、位置、形态、半身全身、环境等组合。 现在要求以“相机运动轨迹”的方式描写,如“相机向上飞升至上空轨道视角,拍摄站在泳池旁的女子”。 对空间理解和对语义的遵循能让相关元素自然生成,如生成有光影变化的泳池,为主角匹配场景的拖鞋。
2025-03-03
DeepSeek提示词
以下是关于 DeepSeek 提示词的相关内容: 1. 生成小红书爆款单词视频: 开始:输入单词主题、图片风格、单词数量,如非洲动物、真实风格、2。 生成单词数组:选择 deepseekr1 模型,输入单词主题、单词数量,为用户输出指定数量的单词,并以数组方式输出,包括单词、中文、美式音标、英文句子及其中文翻译。提示词中角色设定为专业的单词生成助手,技能是输出关联英语单词,限制为仅围绕用户输入主题输出相关内容,且输出必须为符合要求的数组形式。 2. Deepseek 时代提示词之关键诉求: 观察发现完整的提示词可能不如片段有效,甚至可能干扰模型的思考流程,过长提示会带来大量的 Token 浪费和上下文污染,特别是在多轮对话中。在 deepseek 时代,用户只需要在关键点进行引导,让模型自主发挥,“关键诉求直通车”模式是新一代 LLM 的正确打开方式。新旧提示法对比,传统方法像唠叨家长,新型技巧像对聪明助理打暗号。 3. 让 DeepSeek 生成相机运动轨迹的提示词:以往的提示词是场景、构图、尺寸、位置、形态、半身全身、环境的组合,现在把这些提示词喂给 DeepSeek,要求以“相机运动轨迹”的方式来描写,可以得到新提示词,如“相机向上飞升至上空轨道视角,拍摄站在泳池旁的女子”。对空间理解和对语义的遵循能让有光影变化的泳池自然地生成出来,海螺 AI 甚至还知道给主角穿上与场景匹配的拖鞋。
2025-03-03
如何给deepseek写提示词
以下是关于给 DeepSeek 写提示词的相关内容: 1. 效果对比:用 Coze 做了小测试,可对比查看。 2. 使用方法: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白后正式开始对话。 3. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计阈值系统,可能会根据反馈修改。 用 XML 进行更规范设定,而非 Lisp 和 Markdown。 4. 完整提示词:版本 v1.3。 5. 特别鸣谢:李继刚的【思考的七把武器】提供思考方向,Thinking Claude 是设计灵感来源,Claude 3.5 Sonnet 是得力助手。 6. 生成单词方面: 输入单词主题、图片风格、单词数量。 选择 deepseekr1 模型,输入单词主题、单词数量,DeepSeek 为用户输出指定数量单词,以数组方式输出。 提示词中,角色为专业单词生成助手,技能是输出关联英语单词,限制为仅围绕用户输入主题输出相关内容,以符合要求的数组形式呈现。 7. 生成相机运动轨迹的提示词:以往提示词是场景、构图、尺寸等的组合,现在把这些喂给 DeepSeek,要求以“相机运动轨迹”方式描写,如“相机向上飞升至上空轨道视角,拍摄站在泳池旁的女子”。
2025-03-03
deepseek到底是什么?打个比方
DeepSeek 是一个在 AI 领域受到关注的品牌。它在硅谷受到关注和追逐,早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新引发了小范围轰动。DeepSeek 不是“中国式创新”的产物,其秘方更具硅谷风格。 DeepSeek 是基于 AI 模型的产品,需要搭配具体模型,如 DeepSeek V3(类 GPT4o)和 DeepSeek R1(类 OpenAI o1)。它展示出媲美领先 AI 产品性能的模型,但成本较低,在全球主要市场的 App Store 登顶。在实际使用体验方面,在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化表现不错,编程能力略逊于 GPT。 需要注意的是,将 DeepSeek 比喻成“AI 界的拼多多”是偏颇的,认为其秘方就是多快好省也是不全面的。
2025-03-03
用deepseek写论文指令
以下是关于用 DeepSeek 写论文的相关指令和方法: 1. 高级调试策略: 模糊指令优化:对于宽泛需求,可添加维度约束;对于主观表述,可量化标准。例如,将“写小说”修正为“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构”,将“写得专业些”修正为“符合 IEEE 论文格式,包含 5 项以上行业数据引用”。 迭代优化法:包括首轮生成获取基础内容、特征强化、风格调整和最终校验等步骤。如加强第三段的技术细节描述,改用学术会议报告语气,添加结论部分,检查时间逻辑一致性,列出可能的事实性错误。 2. 高阶能力调用: 文风转换矩阵:如作家风格移植、文体杂交、学术口语化等指令结构和效果示例。 领域穿透技术:如行业黑话破解,例如“解释 Web3 领域的'胖协议瘦应用'理论”。 3. 场景化实战策略:包括商业决策支持、创意内容生成、技术方案论证等。 4. 效能增强技巧: 对话记忆管理:如上下文锚定、信息回溯、焦点重置。 输出质量控制:针对过度抽象、信息过载、风格偏移等问题类型的修正指令。 5. 特殊场景解决方案: 长文本创作:可采用分段接力法和逻辑粘合剂。如“先完成故事大纲→逐章扩展→最后进行伏笔校验”,“确保新章节与前文的三处细节呼应”。 敏感内容处理:如概念脱敏法和场景移植法。 此外,在使用 DeepSeek 写论文时,还需注意以下几点: 示例是一种隐性的需求说明书,添加示例可让大模型更懂需求,但 few short 可能影响模型性能。 自用和他用的提示词在稳定性、经济性、可维护性等方面有较大区别,工业化提示词需稳定、经济且易维护。 将 R1 的思维链给 cloud 回答,结果可能大大改进。 同时,不同的模型有其特点,如 Cloud 3.5 模型多样性差,Deepseek R1 有缺陷但也不错,可根据需求选择合适的模型,如街悦新城的文学大师版等。
2025-03-03
如何高效使用“deepseek+”?
以下是一些关于高效使用“DeepSeek+”的信息: 各地举办了相关活动,如在郑州场展示了搭建的工作流,深圳场分享了出海的落地方案,北京场玩起了 AR+机械汪,广州场探讨了如何辅助速通吃“霸王餐”,福州场有最年轻的分享者展示玩转示例。 可以结合飞书多维表格来发挥其强大之处。 向阳乔木介绍了通过结合 VS Code、Cline 插件和 Deepseek API 等工具提升应用能力,实现自动发送邮件、查找重复文件、网页抓取翻译等功能。 伊登展示了最新 Deepseek+coze 实现新闻播报自动化工作流,具有全自动化处理、40 秒快速出片、成本低廉、输出质量稳定专业等优势,还能进行一系列改进,如加入配套 BGM、增加画面内容和转场效果、使用免费节点替代付费插件、优化模板样式、增加自动化程度支持批量处理等。您可以在扣子商店体验,也可以自己搭建。 您可以参考以上内容,根据您的具体需求来高效使用“DeepSeek+”。
2025-03-03
蒸馏和微调分别是什么意思,他们有关联吗
蒸馏和微调是在人工智能领域中常见的概念,它们有一定的区别和联系。 蒸馏是一种模型压缩技术,通过将复杂的大模型的知识和能力“提炼”到较小的模型中,以减少模型的参数和计算量,同时保持一定的性能。 微调则是在已有的预训练模型基础上,使用特定任务的数据对模型进行进一步的训练,以使其在特定任务上表现得更好。 它们的关联在于:都是为了优化模型在特定场景下的性能。不同之处在于,蒸馏侧重于模型压缩,而微调侧重于针对特定任务的适应性训练。 提示词和微调都是提高模型表现的方法,但方式不同。提示词是在使用模型时直接提供特定的指令或上下文,引导模型生成合适的回答,灵活方便,无需重新训练模型。微调则需要对模型进行额外训练,使用特定任务的数据调整模型参数,使其在该任务上表现更佳,但需要时间和计算资源。 微调具有一些优点,如能提高特定任务的性能和效率,适用于强调现有知识、自定义结构或语气、教授复杂指令等,但不适用于添加新知识和快速迭代。成功案例如 Canva 通过微调显著提高了性能。最佳实践包括从提示工程和小样本学习开始、建立基线、从小处着手并注重质量,还可以将微调和 RAG 相结合以获得最佳性能。
2025-02-26
微调
微调(Finetuning)是一种迁移学习技术,常用于深度学习中。其基本思路是先有一个在大量数据上预训练过的模型,该模型已学会一些基本模式和结构,然后在特定任务数据上继续训练,使其适应新任务。 例如在情感分类中,可先使用大量语料库预训练模型,再用标注过的电影评论继续训练以判断情感;在图像分类中,先使用大量图片预训练模型,再用标注过的猫和狗的图片继续训练以区分二者。 微调的超参数选择很重要,默认超参数适用于一系列用例,唯一需要的参数是训练文件。调整超参数通常能产生更高质量输出的模型,可能需要配置的内容包括: 模型:可选择“ada”“babbage”“curie”或“davinci”之一。 n_epochs:默认为 4,指训练模型的时期数。 batch_size:默认为训练集中示例数量的 0.2%,上限为 256。 learning_rate_multiplier:默认为 0.05、0.1 或 0.2,取决于 final batch_size。 compute_classification_metrics:默认为假,若为真,在每个 epoch 结束时在验证集上计算特定于分类的指标。 微调能为应用程序定制模型带来更多收益,如比即时设计更高质量的结果、能训练更多例子、节省 Token、降低延迟请求。微调通过训练更多示例改进小样本学习,在大量任务中取得更好结果。微调涉及准备和上传训练数据、训练新的微调模型、使用微调模型等步骤。 目前微调仅适用于 davinci、curie、babbage 和 ada 等基础模型,还可继续微调微调模型以添加其他数据。建议使用 OpenAI 命令行界面,安装时需注意相关要求。
2025-02-26
rag 模型微调
RAG(检索增强生成)模型微调相关知识如下: 通用语言模型通过微调可完成常见任务,如分析情绪和识别命名实体。对于更复杂和知识密集型任务,可基于语言模型构建系统并访问外部知识源。Meta AI 引入的 RAG 方法把信息检索组件和文本生成模型结合,可微调且内部知识修改高效,无需重新训练整个模型。 RAG 接受输入并检索相关支撑文档,给出来源,与输入原始提示词组合后送给文本生成器得到输出,能适应事实变化,获取最新信息并生成可靠输出。 通用的 RAG 微调方法如 Lewis 等人(2021)提出的,使用预训练的 seq2seq 作为参数记忆,用维基百科的密集向量索引作为非参数记忆。 在微调阶段: 检索器微调的常用方法包括直接微调、添加可训练的 Adapter 模块、LSR、LLM Reward RL。 生成器微调的主要方法包括直接微调、GPT4 蒸馏、基于反馈的强化学习。 协同微调是在 RAG 系统中同时对检索器和生成器进行微调,如 RADIT 分别对 LLM 和检索器进行微调。 同时,RAG 提高了嵌入模型质量,传统 RAG 解决方案中的问题也得到解决。
2025-02-24
模型微调
以下是关于模型微调的相关信息: 微调步骤: 1. 微调脚本: LoRA 微调: 脚本见: 具体实现代码见: 单机多卡的微调可通过修改脚本中的include localhost:0 来实现。 全量参数微调: 脚本见: 具体实现代码见: 2. 加载微调模型: LoRA 微调:基于 LoRA 微调的模型参数见基于 Llama2 的中文微调模型,LoRA 参数需要和基础模型参数结合使用。通过加载预训练模型参数和微调模型参数。 全量参数微调:调用方式同模型调用代码示例,只需要修改其中的模型名称或者保存路径即可。 微调介绍: 微调可让您从 API 提供的模型中获得更多收益,包括比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省了 Token、更低的延迟请求。GPT3 已经在来自开放互联网的大量文本上进行了预训练。微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例。这样可以节省成本并实现更低延迟的请求。在高层次上,微调涉及准备和上传训练数据、训练新的微调模型、使用您的微调模型等步骤。 可微调的模型: 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。 OpenAI 的模型概述: OpenAI API 由具有不同功能和价位的多种模型提供支持。您还可以通过微调针对您的特定用例对我们的原始基本模型进行有限的定制。包括 GPT4 Beta、GPT3.5、DALL·E Beta、Whisper Beta、Embeddings、Codex Limited Beta、Moderation、GPT3 等模型。
2025-02-24
本地部署Deepseek如何微调呢
对于本地部署 DeepSeek 的微调,以下是一些相关信息: 对于企业级部署,首先要根据实际业务场景评估所需部署的模型规格以及所需的服务器资源,预估完服务器资源后,还需评估业务场景是否需要二次开发模型。如果只是简单微调模型就能符合业务需求,使用 Ollama、LM Studio、GTP4All 或许可以满足诉求;若需要定制化开发模型,则要考虑进行模型的原生部署。 关于微调的方法,LoRA/QLoRA 论文指出其是对模型进行廉价微调的可行方法,如 。 另外,DeepSeek 模型如 JanusPro 有特别的训练法,先进行预训练,然后老师手把手教(监督微调),最后用“精华浓缩法”保存最好的学习成果。
2025-02-23
如何在本地服务器上微调LLM
在本地服务器上微调 LLM 可以参考以下内容: 1. 提示词工程: 提示词工程主要由提示词注入和工具结果回传两部分代码组成。 提示词注入用于将工具信息及使用工具的提示词添加到系统提示中,其中 INSTRUCTION 包含 TOOL_EAXMPLE、tools_instructions、REUTRN_FORMAT 三个部分。TOOL_EAXMPLE 用于提示 LLM 如何理解和使用工具,编写时应注意用无关紧要的工具作示例。tools_instructions 可通过输入不同工具动态调整,让 LLM 得知可用工具及使用方法。REUTRN_FORMAT 定义调用 API 的格式。 工具结果回传阶段利用正则表达式抓取输出中的“tool”和“parameters”参数,对于 interpreter 工具使用另一种正则表达式提取 LLM 输出的代码,提高成功率。通过识别 LLM 返回的调用工具字典,提取对应值传入工具函数,将结果以 observation 角色返回给 LLM,对于不接受相关角色的 LLM 接口,可改为回传给 user 角色。 2. 微调方法: 传统微调:采用在通用数据集上预训练的模型,复制模型后在新的特定领域数据集上重新训练,但大型语言模型微调面临训练时间长、计算成本高等挑战。 参数有效调优:这是一种创新的调优方法,旨在通过仅训练一部分参数来减少微调 LLM 的挑战,参数可以是现有模型参数的子集或全新的参数。 为使微调达到最佳效果,应从明确目标和高质量数据集开始,使用体现所需输出类型的数据,进行迭代测试,从小的渐进变化开始并评估结果。 对于 OpenAI 的模型,微调包括使用其提供的 API 在数据集上进一步训练,需调整超参数并监控性能。对于开源 LLM,微调可能需要更多实践工作,包括设置训练环境、管理数据流及调整模型架构。 对于需要快速迭代新用例的场景,微调作用较小。要实现微调功能,需创建大型训练数据集,整理成适当格式,启动训练任务并评估性能。建立模型改进工作流程,监控性能变化,依据反馈改进模型,记录生成的模型及评分指标,许多 LLMOps 平台能自动收集和显示最佳数据,方便微调。
2025-02-21