Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Deepseek微调

Answer

DeepSeek 微调相关信息如下:

  • DeepSeek 有更聪明的 R1-zero 实验版本,它采用完全从零开始的强化学习,无需人类监督训练,学会了用更多思考步骤解决推理任务和反思推理步骤,但存在输出内容可读性差、语言混合、风险不可控等问题,所以常见的是经过冷启动与微调的 R1 版本,以确保生成内容稳定、安全、道德、无害。
  • 在模型蒸馏微调方面,会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。R1 是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。
  • DeepSeek 在 2024 年 4 月推出的 DeepSeekMath 模型中首次采用了 GRPO(Group Relative Policy Optimization)算法,之后的 V3 和 R1 也应用了该算法提升模型的推理能力。
Content generated by AI large model, please carefully verify (powered by aily)

References

非技术人 10 分钟读懂 Deepseek R1|天才模型养成与 AI 超越人类的破晓时刻

这个版本甚至没有进行任何的初始引导,而是采用了完全从零开始的强化学习。实验表明,无需任何人类的监督训练,R1-zero自然而然地学会了用更多的思考步骤来解决推理任务,还学会了在推理过程中反思先前的推理步骤,探索解决问题的替代方法。——没错,AI在纯强化学习中,自发涌现出了更强的推理能力与顿悟时刻:*但因为没有微调,R1-zero的输出内容可读性差、语言混合,且风险不可控。所以我们见到的才是经过符合人类阅读偏好的冷启动与微调过的R1版本,确保AI生成内容的稳定、安全、道德、无害。纯强化学习,在Alpha Zero完胜所有人类棋手之后,再次点燃了AI全面超越人类的希望。当AI挣脱人类经验的束缚,真正的智能革命或许才刚刚拉开序幕。[heading2]💬附:DeepSeek R1完整训练过程[content]因文章定位与行文节奏设计,上文仅对影响R1涌现关键智能的前两个训练步骤进行了讲解。更加完善的训练说明,可直接阅读官方论文:DeepSeek-AI《DeepSeek-R1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948

智能纪要:02-26 | DeepSeek部署+蒸馏 2025年2月26日

关于AI模型部署与相关知识的讲解本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。免费额度说明:指出在freely.aliyun.com可领取500元免费额度,但有使用限制,不能部署满血版和较大的增流模型。平台服务差异:介绍了DLC、DSW和EAS等模型部署平台服务的差别。模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。Deepseek R1模型的制作及相关模型比较R1模型的强化学习:通过强化学习,在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。R1模型的蒸馏与微调:用Deepseek RE Zero蒸馏出带思考的数据,基于Deepseek V3微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成R1。R1与其他模型的差别:R1是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。模型的相互帮助:Deepseek R1反过来蒸馏数据微调V3,形成互相帮助的局面,使两个模型都更强。

[算法学习] Deepseek的算法创新:GRPO(Group Relative Policy Optimization)

调整策略的概率分布:已知ABC策略初始概率分布为[1/3,1/3,1/3]。根据相对优势调整后的权重可以通过指数函数来转换,以确保权重为正数且总和为1。计算未归一化的权重:A:$$e^1≈2.178$$B:$$e^0=1$$C:$$e^-1≈0.368$$归一化权重:总和=2.718+1+0.368=4.086新权重:A:$$\frac{2.718}{4.086}≈0.665$$B:$$\frac{1}{4.086}≈0.245$$C:$$\frac{0.368}{4.086}≈0.09$$结论通过上面的步骤可以看到:策略A的总体优势最高,因此其权重增加到约0.665。策略B表现中等,权重基本保持不变,约为0.245。策略C表现较差,权重减少到约0.090。在不同场景(不同组)的计算,每个策略的权重会相应调整以获得更高的分数。在文本生成阶段,可以用来评估和调整不同生成策略(比如贪婪搜索,随机采样,束搜索)的有效性,从而提高生成文本(尤其是复杂文本)的连贯性和多样性。(DeepSeek在2024年4月推出的DeepSeekMath模型中首次采用了GPRO算法。该模型专门针对数学推理与计算问题设计,通过结合7B参数和GPRO算法,其数学能力宣称超越需要千亿参数的GPT-4。之后的V3和R1也应用了GPRO提升模型的推理能力,所以爆火还是有扎实基础的)

Others are asking
进行DeepSeek本地化部署有哪些方法?
进行 DeepSeek 本地化部署的方法如下: 如果拥有云服务器,可以进行本地部署,了解满血版本地部署的实际情况。 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。
2025-03-08
DEEPSEEK 相关资料
以下是关于 DeepSeek 的相关资料: 集合·DeepSeek 提示词方法论:https://waytoagi.feishu.cn/wiki/ISVZwe05Tio9hEkFSF5cIjZ7nVf?from=from_copylink DeepSeek 从入门到精通.pdf:https://waytoagi.feishu.cn/wiki/EfWpw8arIiEoOKkjSalcMVZZnme?from=from_copylink DeepSeek 13 大官方提示词通俗解读,让新手也能用出高手的效果:https://waytoagi.feishu.cn/wiki/YIGKwXlgUi8RKlkkklxclpDYnbg?from=from_copylink 【今晚 8 点】聊聊你怎么使用 DeepSeek!2025 年 2 月 6 日:https://waytoagi.feishu.cn/wiki/MKfgwiN2FigRp1knbxJcdj4lnAf?from=from_copylink Deepseek"4+1"黄金提问法——情境化:https://waytoagi.feishu.cn/wiki/JZu4wrdsSi9gNSktaPCcgDNNnvf?from=from_copylink Deepseek"4+1"黄金提问法——迭代优化:https://waytoagi.feishu.cn/wiki/R56OwQb4KiP9klk5CPbcR49yn9f?from=from_copylink 如果您的 DeepSeek 一直显示服务器繁忙,可尝试以下替代网站: 秘塔搜索:https://metaso.cn 360 纳米 Al 搜索:https://www.n.cn/ 硅基流动:https://siliconflow.cn/zhcn/ 字节跳动火山擎:https://console.partner.volcengine.com/auth/login?redirectURI=%2Fpartner%2F5. 百度云千帆:https://login.bce.baidu.com/ 英伟达:https://build.nvidia.com/deepseekai/deepseekr1 Groq:https://groq.com/ Chutes:https://chutes.ai/app 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 Github:https://github.com/marketplace/models/azuremldeepseek/DeepSeekR1/playground POE:https://poe.com/DeepSeekR1 Cursor:https://cursor.sh/ Monica:https://monica.im/invitation?c=ACZ7WJJ9 Lambda:https://lambdalabscom/6 Cerebras:https://cerebras.ai Perplexity:https://www.perplexity.ai 阿里云百炼:https://api.together.ai/playground/chat/deepseekai/DeepSeekR1 【今晚 8 点】聊聊你怎么使用 DeepSeek!2025 年 2 月 6 日的智能纪要: DP 模型的使用分享: 功能:能进行自然语言理解与分析、编程、绘图,如 SVG、MA Max 图表、react 图表等。 使用优势:可以用更少的词让模型做更多事,思维发散,能给出创意思路和高级内容。 存在问题:思维链长不易控制,可能输出看不懂或胡编乱造的内容,增加纠错成本。 审核方法:可以用其他大模型来解读 DP 模型给出的内容。 使用建议:使用时要有自己的思维雏形,多看思考过程,避免被模型冲刷原有认知。 使用场景:包括阅读、育儿、写作、随意交流等方面。 案例展示:通过与孩子共读时制作可视化互动游戏,以及左脚踩右脚式的模型交互来展示 DP 模型的应用。 音系学和与大模型互动的分享: 音系学研究:对音系学感兴趣,通过对比不同模型的回答来深入理解,如 bug 和 DIFF SIG,探讨语言概念在音系学下的心理印象等。 大模型取队名:与大模型进行多轮对话来取队名,通过不断约束和披露喜好,最终得到满意的队名及相关内容。 Deepseek 的介绍与活动预告: Deepseek 文档分享:在 3 群和 4 群分享了 Deepseek 的相关文档,也可在 v to a gi 的飞书知识库中搜索获取。 Deepseek 使用介绍:介绍了 Deepseek 的模型、收录内容、提示词使用技巧和好玩的案例等。 未来活动预告:明天后天在摩纳社区提供免费算力资源带大家学习炼丹,周一晚上学习多维表格中接入 Deepseek。
2025-03-08
最近想要出一本书,书籍的主题是“Deepseek的应用革命:打造AI时代的竞争力”主要是面相企业家和企业高管,希望能够将知识库内容中关于企业应用的部分提炼成书,请根据知识库素材,输出一个图书内容规划和重点参考资料
以下是为您规划的图书内容和重点参考资料: 一、图书内容规划 1. 引言 介绍 AI 时代的背景和企业面临的挑战与机遇。 阐述 DeepSeek 在塑造企业竞争力方面的重要性。 2. DeepSeek 的技术创新 详细介绍 DeepSeek 最新模型 V3 与 R1 的架构创新,如混合专家(MoE)架构、多头潜注意力(MLA)等。 解释其如何提升计算效率和推理能力,打破算力壁垒。 3. 多领域的应用案例 字节跳动的新技术 OmniHuman 在视频生成方面的突破。 Coinbase 全面推动 AI 应用的实践,如在欺诈预防和客户支持等领域的应用。 4. 对企业管理的影响 探讨善于沟通上下文、明晰 AI 能力边界、合理授权并监督等管理经验如何提升 AI 协作效率。 5. 行业趋势与挑战 分析 AI 基础大模型参数量的变化趋势。 讨论初级程序员面临的职业挑战以及编程领域的颠覆性变化。 6. 未来展望 预测 DeepSeek 及相关技术在未来的发展方向和可能的创新。 二、重点参考资料 1. 《》 2. 《》 3. 《》 4. 《》 5. 《》 6. 《[零基础掌握 Deepseek》》 7. 日报 8. 日报
2025-03-08
怎么把OFFICE 和DEEPSEEK 结合
以下是关于将 Office 和 DeepSeek 结合的一些信息: 1. 可以参考《》,其中介绍了通过结合 VS Code、Cline 插件和 Deepseek API 等工具提升 AI 的应用能力,用户可以实现自动发送邮件、查找重复文件、网页抓取翻译等功能。 2. 参考《》,了解如何将飞书多维表格与 DeepSeek R1 结合,实现批量处理信息,提升工作效率,如批量转换文风、快速回复消息,甚至利用 AI 生成文案。 目前提供的信息中暂未直接提及 Office 与 DeepSeek 结合的具体方式,但您可以从上述类似的结合案例中获取一些思路和启发。
2025-03-08
deepseek
DeepSeek 是一家具有独特特点和影响力的公司: 1. 秘方是硅谷味儿的:将其比喻成“AI 界的拼多多”是偏颇的,其在 2024 年 5 月发布的 DeepSeekV2 以多头潜在注意力机制(MLA)架构创新在硅谷引发轰动,而在国内被描摹成“大模型价格战的发起者”,这体现了其与硅谷更有对话和交流的密码。 2. V3 可能是 DeepSeek 的 GPT3 时刻:若 V3 真是如此,未来充满未知,但 DeepSeek 应会为全人类的人工智能事业做出更大贡献,且它已是中国最全球化的 AI 公司之一,赢得全球尊重的秘方也是硅谷味儿的。 3. 一个提示词让其能力更上一层楼:通过 Coze 做效果对比测试,使用方法为在 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 DeepSeek,阅读开场白后正式开始对话。其设计思路包括将 Agent 封装成 Prompt 并储存、实现联网和深度思考功能、优化输出质量、设计阈值系统、用 XML 规范设定等。完整提示词版本为 v1.3,特别鸣谢李继刚的【思考的七把武器】和 Thinking Claude、Claude 3.5 Sonnet 等。
2025-03-08
怎么用deepseek找图表
DeepSeek 中查找图表的相关信息如下: DeepSeek 具有需求解译 2.0 功能,能通过关键词联想完整场景,比如当您说“要数据”时,它能自动提供图表和最新统计。 DeepSeek 的 DP 模型能够进行自然语言理解与分析、编程、绘图,如 SVG、MA Max 图表、react 图表等。 但目前没有直接关于如何在 DeepSeek 中专门查找图表的明确步骤和方法。您可以尝试通过输入与图表相关的明确关键词来获取所需内容。
2025-03-07
本地部署ollama+deep seek后怎么有效搭机械领域建知识库或微调为机械领域
以下是本地部署 ollama + deep seek 后有效搭建机械领域知识库或微调为机械领域的步骤: 1. 下载 Ollama 程序:官方网址为 https://ollama.com/ 。默认下载到 C 盘,若想修改安装目录到 D 盘,后续会有相关说明。下载完成后,右下角会出现 Ollama 的图标,打开命令行输入相应命令回车。根据自身独立显卡性能选择模型,如英伟达 2060Super 可选择 Deepseekr1:14b 的模型。若下载速度慢,可按 Ctrl+C 强制退出重新下载。下载完毕后,再下载一个嵌入模型,Ollama 的 bge 模型官方网址:https://ollama.com/library/bgem3 ,输入相应命令,下载好后直接退出终端。 2. 配置模型:返回 RAGFlow 中,打开右上角设置,进入模型提供商进行配置。选择 Ollama,并配置相关信息,基础 URL 按要求设置,设置完成后点击确定。 3. 导入嵌入模型:导入一个嵌入模型用于文本向量化。 4. 设置系统模型:完成相关设置。 5. 创建知识库:返回知识库,进入数据集,可导入文件或设置文件夹当作知识库,自行设置。导入完毕后,对文件进行解析,解析速度取决于本机 GPU 性能,越好的显卡解析越快。解析完成后,进行检索测试,测试没问题即可进入聊天界面,助理设置可自行设置。
2025-03-07
我想完全本地化部署deepseek,然后,将我的文档,文本,图片等内容丢给它训练,微调。我要完全本地化,因为我的文档设计隐私。我要免费开源流程。如何实现,
要完全本地化部署 DeepSeek 并使用您的文档、文本、图片等内容进行训练和微调,以下是一些相关的信息和步骤: 1. 模型训练与平台服务: 模型复现与微调:1:1 复现通常没问题,但理解细节并自行制作需要基础知识。有手把手教程、数据集等可帮助 1:1 复现,微调在特定领域可降低幻觉,参数量不变但权重变化。 训练模型的学习方法:先会用再学会训,从训的过程中倒推学习参数调整,这是以用导学的学习方法。 模型回答效果对比:微调后的模型在回答排列组合等问题时,思考前几乎无反馈,答案多为英文且格式稳定,但仍可能答错。 2. 平台服务介绍: 阿里云提供多种解决方案。 百炼是提供多种模型服务的 Maas 平台。 派平台是提供云服务的 PaaS 平台,二者在定位、服务内容和核心差异上有所不同。 3. 关于模型训练与数据集相关问题: 数据资源情况:默认提供公共数据训练集,百派平台能匹配模型和数据,通义开源了不少数据集。 多模态训练:多模态有自身标注方式,如视频拉框标注。 参数量变化:通常训练模型参数量固定,若想改变需改模型层,但可能要从头调。 本地微调框架:可使用 llama factory 等框架,需搭建并部署。 开源数据下载:可在 GitHub、hugging face、Mo Model Scope 等平台获取。 数据集转化:将文档资料转成数据集可先手动形成 SOP,再逐步自动化,初期需大量人力。 4. 本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 5. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 6. 平台服务差异:介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 7. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。 R1 模型的强化学习:通过强化学习,在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。 R1 模型的蒸馏与微调:用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 R1 与其他模型的差别:R1 是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。 模型的相互帮助:Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。 请注意,在进行本地化部署和训练微调时,需要具备一定的技术知识和经验,并且要遵循相关的法律法规和道德规范。
2025-03-04
哪里可以找到了解AI模型微调和RAG知识库的外包开发团队?
以下是一些可能找到了解 AI 模型微调和 RAG 知识库的外包开发团队的途径: 1. 相关技术社区和论坛:例如一些专注于 AI 开发的社区,开发者可能会在其中分享经验和提供服务。 2. 专业的自由职业者平台:如 Upwork、Freelancer 等,您可以在这些平台上发布需求,寻找合适的团队或个人。 3. 参考行业报告和研究:部分报告中可能会提及相关的优秀开发团队或公司。 4. 联系 AI 领域的知名机构或公司:他们可能会推荐或提供相关的外包服务。 5. 社交媒体和专业群组:在如 LinkedIn 等社交媒体上的 AI 相关群组中发布需求,可能会得到相关团队的回应。 另外,从提供的资料中,以下信息可能对您有所帮助: 红杉的相关分析提到,迁移学习技术如 RLHF 和微调正变得更加可用,开发者可以从 Hugging Face 下载开源模型并微调以实现优质性能,检索增强生成(RAG)正在引入关于业务或用户的上下文,像 Pinecone 这样的公司的向量数据库已成为 RAG 的基础设施支柱。彬子的经历中,有出海垂直领域 Agent 平台的项目经理咨询 RAG 策略优化。2024 人工智能报告中提到对增强生成检索(RAG)的兴趣增长促使了嵌入模型质量的提高,传统 RAG 解决方案中的问题得到解决。
2025-03-04
如何微调deepseek
微调 DeepSeek 可以通过以下步骤和方法: 1. 应用 KL 散度约束更新策略来调整策略的概率分布。例如,已知 ABC 策略初始概率分布为,根据相对优势调整后的权重可以通过指数函数来转换,以确保权重为正数且总和为 1。计算未归一化的权重,如 A: e^1≈2.178,B:e^0=1,C: e^1≈0.368,然后归一化权重,总和=2.718+1+0.368=4.086,新权重分别为 A: 2.718/4.086≈0.665,B: 1/4.086≈0.245,C: 0.368/4.086≈0.09。通过这样的步骤,策略 A 的总体优势最高,其权重增加,策略 B 表现中等,权重基本保持不变,策略 C 表现较差,权重减少。在不同场景(不同组)的计算中,每个策略的权重会相应调整以获得更高的分数。在文本生成阶段,可以用来评估和调整不同生成策略(比如贪婪搜索,随机采样,束搜索)的有效性,从而提高生成文本(尤其是复杂文本)的连贯性和多样性。 2. 模型蒸馏微调方面,用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。同时,Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。 3. 在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。 4. 关于部署方面,讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。同时介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948
2025-03-02
蒸馏和微调分别是什么意思,他们有关联吗
蒸馏和微调是在人工智能领域中常见的概念,它们有一定的区别和联系。 蒸馏是一种模型压缩技术,通过将复杂的大模型的知识和能力“提炼”到较小的模型中,以减少模型的参数和计算量,同时保持一定的性能。 微调则是在已有的预训练模型基础上,使用特定任务的数据对模型进行进一步的训练,以使其在特定任务上表现得更好。 它们的关联在于:都是为了优化模型在特定场景下的性能。不同之处在于,蒸馏侧重于模型压缩,而微调侧重于针对特定任务的适应性训练。 提示词和微调都是提高模型表现的方法,但方式不同。提示词是在使用模型时直接提供特定的指令或上下文,引导模型生成合适的回答,灵活方便,无需重新训练模型。微调则需要对模型进行额外训练,使用特定任务的数据调整模型参数,使其在该任务上表现更佳,但需要时间和计算资源。 微调具有一些优点,如能提高特定任务的性能和效率,适用于强调现有知识、自定义结构或语气、教授复杂指令等,但不适用于添加新知识和快速迭代。成功案例如 Canva 通过微调显著提高了性能。最佳实践包括从提示工程和小样本学习开始、建立基线、从小处着手并注重质量,还可以将微调和 RAG 相结合以获得最佳性能。
2025-02-26
微调
微调(Finetuning)是一种迁移学习技术,常用于深度学习中。其基本思路是先有一个在大量数据上预训练过的模型,该模型已学会一些基本模式和结构,然后在特定任务数据上继续训练,使其适应新任务。 例如在情感分类中,可先使用大量语料库预训练模型,再用标注过的电影评论继续训练以判断情感;在图像分类中,先使用大量图片预训练模型,再用标注过的猫和狗的图片继续训练以区分二者。 微调的超参数选择很重要,默认超参数适用于一系列用例,唯一需要的参数是训练文件。调整超参数通常能产生更高质量输出的模型,可能需要配置的内容包括: 模型:可选择“ada”“babbage”“curie”或“davinci”之一。 n_epochs:默认为 4,指训练模型的时期数。 batch_size:默认为训练集中示例数量的 0.2%,上限为 256。 learning_rate_multiplier:默认为 0.05、0.1 或 0.2,取决于 final batch_size。 compute_classification_metrics:默认为假,若为真,在每个 epoch 结束时在验证集上计算特定于分类的指标。 微调能为应用程序定制模型带来更多收益,如比即时设计更高质量的结果、能训练更多例子、节省 Token、降低延迟请求。微调通过训练更多示例改进小样本学习,在大量任务中取得更好结果。微调涉及准备和上传训练数据、训练新的微调模型、使用微调模型等步骤。 目前微调仅适用于 davinci、curie、babbage 和 ada 等基础模型,还可继续微调微调模型以添加其他数据。建议使用 OpenAI 命令行界面,安装时需注意相关要求。
2025-02-26