Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何在coze上做deepseek?

Answer

在 Coze 上做 DeepSeek 的步骤如下:

  1. 搜索 www.deepseek.com,点击“开始对话”。
  2. 将装有提示词的代码发给 DeepSeek。
  3. 认真阅读开场白之后,正式开始对话。

此外,关于 DeepSeek 还有以下相关内容:

  • 设计思路:
    • 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。
    • 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。
    • 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。
    • 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。
    • 用 XML 来进行更为规范的设定,而不是用 Lisp(对作者有难度)和 Markdown(运行下来似乎不是很稳定)。
  • 完整提示词:v 1.3
  • 特别鸣谢:李继刚的【思考的七把武器】在前期为作者提供了很多思考方向;Thinking Claude 是作者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。

如果官网的搜索不能用,一直崩溃,可以用火山的满血版,在相关视频的最后 10 分钟左右有手把手教程。

同时,还有以下相关的历史更新:

  • 2024 年 7 月 18 日:
    • 长文深度解析 Coze 的多 Agent 模式的实现机制》来自艾木老师,深入研究了 Coze 的多 Agent 模式机制,针对多 Agent 跳转不可靠的现象,分析了 Coze 提供的三种节点跳转模式,包括使用对话模型、独立模型以及自定义模型。通过对《谁是卧底》游戏的节点跳转实例进行解析,揭示了每种模式的应用场景和不足之处。
    • 揭秘 DeepSeek: 一个更极致的中国技术理想主义故事》来自暗涌,DeepSeek 是一家低调却引人关注的大模型公司,以独特的技术创新在市上崭露头角。他们发布了价格颠覆性的源模型 DeepSeek V2,引发了中国大模型战。与其他公司不同,DeepSeek 重模型架创新,成功降低成本,受到业内关注。始人梁文锋是技术理想主义者,坚持只做研究探索,希望将中国公司带入全技术创新的浪潮中。
    • 10 万卡集群:通往 AGI 的新门票》来自海外独角兽,各大公司争建设 10 万集群,投入巨大,但建涉及技术挑和运营问题。文章详细分析数据中心的力问题、并行计算方式、网络、可靠性、成本计算等方面,展示 10 万 GPU 集的算力和效率。同时,也出了数据中心设计和网络拓扑结构对于型 AI 训练集的重要性。
Content generated by AI large model, please carefully verify (powered by aily)

References

一个提示词,让 DeepSeek 的能力更上一层楼?——HiDeepSeek

用Coze做了个小测试,大家可以对比看看[e8c1a8c3012fedad10dc0dfcc8b1e263_raw.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Jz9cbKxDbocGtIxXFFEcdiHjnRc?allow_redirect=1)[heading1]如何使用?[content]Step1:搜索www.deepseek.com,点击“开始对话”Step2:将装有提示词的代码发给DeepseekStep3:认真阅读开场白之后,正式开始对话[heading1]设计思路[content]1.将Agent封装成Prompt,将Prompt储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担2.通过提示词文件,让DeepSeek实现:同时使用联网功能和深度思考功能3.在模型默认能力的基础上优化输出质量,并通过思考减轻AI味,增加可读性4.照猫画虎参考大模型的temperature设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改5.用XML来进行更为规范的设定,而不是用Lisp(对我来说有难度)和Markdown(运行下来似乎不是很稳定)[heading1]完整提示词[heading2]v 1.3[heading1]特别鸣谢[content]李继刚:【思考的七把武器】在前期为我提供了很多思考方向Thinking Claude:这个项目是我现在最喜欢使用的Claude提示词,也是我设计HiDeepSeek的灵感来源Claude 3.5 Sonnet:最得力的助手

deepseek论文解读

下面是2篇论文,pc端鼠标移到文章上面,会有下载链接,手机端类似[deepseek v3.pdf](https://bytedance.feishu.cn/space/api/box/stream/download/all/SaMdbJDdlo72xwx6d4AcYNJWnZg?allow_redirect=1)[deepseek r1.pdf](https://bytedance.feishu.cn/space/api/box/stream/download/all/L77IbDDzGoJyCRxpcz5cDPl0nyf?allow_redirect=1)[heading1]技巧分享[heading2]万能提示词[content]这个是用DS小技巧用这个提示词来DeepSeek R1。基本可以算万能了。你是一名顶尖的提示词优化专家,请按以下步骤优化下方提示:1.分析原提示的模糊性、冗余项和潜在歧义2.基于[目标输出示例],重构提示结构(可参考CRISPE/BROKE框架)3.生成3个优化版本,并解释每版的改进逻辑原提示:[你的原始提示][heading2]官网的搜索不能用,一直崩溃怎么办[content]可以用火山的满血版,在视频的最后10分钟左右有手把手教程[heading1]学习笔记心得[content]///大家可以把学习心得放这里,进[手残党福音!用扣子爆加DeepSeek-R1满血版全记录](https://cohlzhtweb.feishu.cn/docx/ZHWidAi99o91BpxFQPJcuaFtnjh)饿修罗鬼根据罗文老师教学手捏coze+DeepSeek-R1记录

2024 年历史更新(归档)

《[长文深度解析Coze的多Agent模式的实现机制](https://mp.weixin.qq.com/s/8_998tbRd6yuzZwnKR2crA)》来自给我们社区分享过的艾木老师,他深入研究了Coze的多Agent模式机制,针对多Agent跳转不可靠的现象,分析了Coze提供的三种节点跳转模式,包括使用对话模型、独立模型以及自定义模型。通过对《谁是卧底》游戏的节点跳转实例进行解析,揭示了每种模式的应用场景和不足之处。《[揭秘DeepSeek:一个更极致的中国技术理想主义故事](https://mp.weixin.qq.com/s/r9zZaEgqAa_lml_fOEZmjg)》来自暗涌,DeepSeek是一家低调却引人关注的大模型公司,以独特的技术创新在市上崭露头角。他们发布了价格颠覆性的源模型DeepSeek V2,引发了中国大模型战。与其他公司不同,DeepSeek重模型架创新,成功降低成本,受到业内关注。始人梁文锋是技术理想主义者,坚持只做研究探索,希望将中国公司带入全技术创新的浪潮中。《[10万卡集群:通往AGI的新门票](https://mp.weixin.qq.com/s/3VoCKTcxp_FRUsFH-UHbPQ)》来自海外独角兽,各大公司争建设10万集群,投入巨大,但建涉及技术挑和运营问题。文章详细分析数据中心的力问题、并行计算方式、网络、可靠性、成本计算等方面,展示10万GPU集的算力和效率。同时,也出了数据中心设计和网络拓扑结构对于型AI训练集的重要性。

Others are asking
Coze教程
以下是关于 Coze 的教程: 一泽 Eze 的教程: 可能是全网最好的 Coze 教程之一,能一次性带您入门 Coze 工作流。 即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。 阅读指南:长文预警,请视情况收藏保存。 核心看点:通过实际案例逐步演示,用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent;开源 AI Agent 的设计到落地的全过程思路;10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。 适合人群:任何玩过 AI 对话产品的一般用户(若没用过,可先找个国内大模型耍耍);希望深入学习 AI 应用开发平台(如 Coze、Dify),对 AI Agent 工作流配置感兴趣的爱好者。 注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 大圣的教程: Coze 概述:字节的官方解释为 Coze 是新一代一站式 AI Bot 开发平台,无论是否有编程基础,都可在其上快速搭建基于 AI 模型的各类问答 Bot,从解决简单问答到处理复杂逻辑对话,并能将搭建的 Bot 发布到各类社交平台和通讯软件上互动。个人认为 Coze 是字节针对 AI Agent 领域的初代产品,在 Coze 中称 AI Agent 为 Bot。字节针对 Coze 部署了国内版和海外版两个站点。 国内版:网址为 https://www.coze.cn ,官方文档教程为 https://www.coze.cn/docs/guides/welcome ,使用字节自研的云雀大模型,国内网络可正常访问。 海外版:网址为 https://www.coze.com ,官方文档教程为 https://www.coze.com/docs/guides/welcome ,使用 GPT4、GPT3.5 等大模型(可参考文档白嫖 ChatGPT4),访问需要突破网络限制的工具,参考文档:https://www.coze.com/docs/zh_cn/welcome.html 。 AI Agent 的开发流程:Bot 的开发和调试页面布局主要分为提示词和人设的区块、Bot 的技能组件、插件、工作流、Bot 的记忆组件、知识库、变量、数据库、长记忆、文件盒子、一些先进的配置、触发器(例如定时发送早报)、开场白(用户和 Bot 初次对话时,Bot 的招呼话语)、自动建议(每当和 Bot 一轮对话完成后,Bot 给出的问题建议)、声音(和 Bot 对话时,Bot 读对话内容的音色),下面会逐一讲解每个组件的能力以及使用方式。
2025-02-07
coze
Coze 是由字节跳动推出的具有以下特点的产品: 1. 是一个 AI 聊天机器人和应用程序编辑开发平台,旨在简化 AI 机器人的开发过程,让开发者和非技术用户都能快速搭建基于 AI 模型的各类问答 Bot,处理从简单问答到复杂逻辑对话的任务。 2. 字节跳动旗下的子公司推出的 AI Agent 构建工具,允许用户在无编程知识的基础上,使用自然语言和拖拽等方式构建 Agent。 3. 目前可以白嫖海量的大模型免费使用,有丰富的插件生态。 4. 多语言模型支持,如使用 GPT48K 和 GPT4128K 及云雀语言模型等。 5. 拥有插件系统,集成超过 60 款插件,涵盖资讯阅读、旅游出行、效率办公、图片理解等功能,同时支持用户创建自定义插件。 6. 具备知识库功能,允许用户上传和管理多种格式的数据,并支持 Bot 与用户数据交互。 7. 提供数据库和记忆能力,允许 Bot 访问会话内存和上下文,持久记住用户对话中的重要参数或内容。 8. 支持工作流设计,用户可通过拖拉拽方式搭建工作流,处理复杂任务流,提供大量灵活可组合的节点。 9. 具有多代理模式,一个机器人中可运行多个任务,允许添加多个代理。 10. 对用户完全免费,且易于发布和分享,用户可将搭建的 Bot 发布到各类社交平台和通讯软件上。 此外,Coze 可以接入抖音评论区,帮用户自动回复评论。还有基于 Coze 平台能力搭建的记账管家应用,用户可直接和 Coze 说收入或支出情况,Coze 会自动记账并计算账户余额,且不会丢失记账记录。 如果您想了解更多关于 Coze 的内容,可参考以下文章:
2025-02-07
coze上的工作流是怎么运行的
Coze 上的工作流运行主要包括以下步骤: 1. 梳理工作流:明确工作流的核心,如对于类似秘塔搜索的 Bot,要清楚其主要能力,包括使用搜索引擎进行搜索、对搜索内容整理成答案、给出答案中的引用等,从而形成创建 Bot 的思路。 2. 创建工作流: 任务处理阶段:将开始节点输入的用户指令配置给模型,保证指令顺利进入大模型组件中处理。 最终阶段:将任务处理的输出内容配置到结束节点,结束节点将处理完的回复反馈给用户,完成工作流闭环。 输出节点:注意回答模式有两种选择,一是返回变量由 Bot 生成回答,适用于复杂任务;二是直接根据设定内容进行回答,适用于一般性任务。 3. 试运行工作流:目的是确保工作流中的所有节点按预期协同工作,输出结果准确无误。可能需要多次调整和优化工作流,包括检查数据流动、条件判断和最终输出是否符合预期。 4. 评估并优化 Agent 效果: 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。 具体操作包括试运行整个工作流,验证整体运行效果(包括响应速度、生成质量);迭代优化工作流,提升性能;在外层 bot 中封装工作流;进行外层 bot 调试;最后发布 bot。
2025-02-07
coze
Coze 是由字节跳动推出的: 1. 是一个 AI 聊天机器人和应用程序编辑开发平台,专为开发下一代 AI 聊天机器人而设计,旨在简化开发过程,让开发者和非技术用户都能快速搭建基于 AI 模型的各类问答 Bot,处理从简单问答到复杂逻辑对话的任务。 2. 字节跳动旗下子公司推出的 AI Agent 构建工具,允许用户在无编程知识的基础上,使用自然语言和拖拽等方式构建 Agent,目前可以白嫖海量的大模型免费使用,有丰富的插件生态。 3. 其特点包括: 多语言模型支持,如 GPT48K 和 GPT4128K,并提供云雀语言模型等。 集成超过 60 款插件,涵盖资讯阅读、旅游出行、效率办公、图片理解等功能,支持用户创建自定义插件。 具有知识库功能,允许用户上传和管理多种格式的数据,并支持 Bot 与用户数据交互。 提供数据库功能,允许 Bot 访问会话内存和上下文,持久记住用户对话中的重要参数或内容。 支持通过拖拉拽的方式快速搭建工作流,处理逻辑复杂的任务流,提供大量灵活可组合的节点。 具有多代理模式,在一个机器人中可以运行多个任务,允许添加多个代理。 对用户完全免费。 易于发布和分享,用户可以将搭建的 Bot 发布到各类社交平台和通讯软件上。 Coze 还可以接入抖音评论区,帮用户自动回复评论。此外,基于 Coze 平台的能力搭建了记账管家应用,用户可以直接和 coze 说收入或支出情况,coze 会自动记账并计算账户余额,且每一笔记账记录都不会丢失。 如果您还想了解更多关于 Coze 的信息,可以参考: 。
2025-02-07
coze插件
以下是关于 coze 插件的相关内容: 通过已有服务 api 创建: 进入 coze,在个人空间中选择插件,新建一个插件并命名(如 api_1),在插件的 URL 部分填入 ngrok 随机生成的 https 链接地址。注意服务不能关闭,按照 coze 的指引配置输出参数,测试后发布插件。 完成插件创建后可手捏简单的 bot,将创建的插件接入,在 prompt 里设置调用插件,即可大功告成。 通过 Coze API 打造强大的微信图片助手: 先安装 COW 插件(),目前版本只针对图片处理。 在服务器后台找到 plugins/coze_wrapper/config.json.template 文件,复制粘贴相同目录下并改名为 config.json,根据自己 Coze 实现的功能和插件配置修改里面的配置项(开关、提示词等)。 重新启动 COW,扫码登录,发送一张图片测试各个功能。 使用 Coze IDE 创建插件: 登录,在左侧导航栏的工作区区域选择进入指定团队。 在页面顶部进入插件页面,或者在某一 Bot 的编排页面,找到插件区域并单击“+”图标,单击创建插件。 在新建插件对话框,完成插件图标(可选)、插件名称、插件描述、插件工具创建方式、IDE 运行时等配置并单击确认。 在插件详情页,单击在 IDE 中创建工具,在弹出的创建工具对话框设置工具名称和介绍,确定后跳转到 Coze IDE 页面进行编码。 (可选)在 IDE 左上角工具列表区域单击“+”图标添加更多工具,还可在左下角依赖包区域管理依赖包。 需要注意的是,本案例中使用的是 coze 国内版,整体过程仅为说明 coze 的插件指引好用。在生产环境中,如果已有准备好的 https 的 api,可直接接入。同时,ngrok 在本案例中仅供娱乐,生产环境中勿用。
2025-02-07
我想要搭建一个能够帮我阅读并总结提炼,同时能在我提出问题时,随时在我给他提供的知识库中检索的AI Agent,如何用Coze搭建?
搭建能够阅读、总结提炼并在给定知识库中检索的 AI Agent 可以使用 Coze 按照以下步骤进行: 1. 规划 制定任务的关键方法。 总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。 关于一些其他问题: 1. 如何判断自己的任务/Prompt 是否需要拆解为工作流? 构建稳定可用的 AI Agent 是一个需要不断调试和迭代的过程。通常先从当前性能最强的 LLM(如 ChatGPT4 和 Claude 3.5 sonnet)着手,先用单条 Prompt 或 Prompt Chain 来测试任务的执行质量和稳定性。然后,根据实际执行情况、最终投产使用的 LLM,逐步拆解子任务,降低 LLM 执行单任务的难度,直到达成工程目标。一般对于场景多样、结构复杂、对输出格式要求严格的内容,基本可以预见到需要将其拆解为工作流。此外,如果涉及生成多媒体内容或从网络自主获取额外信息等能力,必然需要通过工作流来调用相应的插件。 2. 只用了一段 Prompt 的 Agent,还算 AI Agent 吗? 算。详见
2025-02-06
deepseek入门到精通
以下是关于 DeepSeek 从入门到精通的相关内容: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对作者有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为作者提供了很多思考方向;Thinking Claude 是作者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 此外,《》是清华大学新闻与传播学院新媒体研究中心出品的指南,详细阐述了 DeepSeek 的功能,包括智能对话、文本生成、代码生成、自然语言理解等,并探讨了如何使用 DeepSeek,包括推理模型与通用模型的区别、提示语设计策略以及如何从入门到精通。文章还介绍了提示语设计的核心技能、常见陷阱及应对方法,旨在帮助用户更好地掌握 AI 工具的使用,提升工作效率和创新能力。 DeepSeek R1 不同于先前的普通模型,它与 OpenAI 现在最先进的模型 o1、o3 一样,同属于基于强化学习 RL 的推理(Reasoning)模型。其标志性表现是在回答用户问题前,会先进行“自问自答”式的推理思考,凭此提升最终回答的质量。这种能力源于其背后独特的“教育方式”,在许多其他的 AI 模型还在接受“填鸭式教育”时,DeepSeek R1 已经率先进入了“自学成才”的新阶段。
2025-02-07
用deepseek建立个人知识库
以下是关于用 DeepSeek 建立个人知识库的相关知识: RAG(Retrieval Augmented Generation,检索增强生成)是利用大模型的能力搭建知识库的关键技术。在进行本地知识库搭建实操前,需先了解 RAG。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过 RAG 实现。RAG 应用包括 5 个过程: 1. 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:把文档切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 此外,搭建基于 GPT API 的定制化知识库,涉及给 GPT 输入定制化知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度。将文本转换成向量能节省空间,可理解为索引。比如有大文本,可拆分成小文本块并转换成 embeddings 向量,保存在向量储存库作为问答知识库。当用户提问时,问题先转换成向量,与储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。例如,对于一篇万字长文拆分成多个文本块,提问“此文作者是谁?”,可通过比较 embeddings 向量得出关联度高的文本块。
2025-02-07
提供一些deepseek提示词
以下是一些关于 DeepSeek 的提示词相关信息: 1. 效果对比:用 Coze 做了小测试,可对比查看。访问 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 DeepSeek,认真阅读开场白后正式开始对话。 2. 设计思路:将 Agent 封装成 Prompt 并储存在文件,实现同时使用联网和深度思考功能,优化输出质量,设计阈值系统,用 XML 进行规范设定。 3. 完整提示词:v 1.3 ,特别鸣谢李继刚和 Thinking Claude 等。 4. 使用案例: 借助 AI 分析好文章,如找出喜欢的文章投喂给 deepseek R1,从写作和读者角度分析,询问文章缺点和提升空间,对作者进行侧写等。 让 AI 对自己写的文章点评,给出详细优缺点分析和指导建议。 根据文章内容对作者心理侧写。 5. 集合·DeepSeek 提示词方法论:可查看相关文章,如南瓜博士的相关内容,以及 DeepSeek 官方提示词等。最新文章观点学术报告及业界评论可参考特定链接。R1 模型也有一些使用建议。
2025-02-07
你比deepseek聪明吗
DeepSeek 具有以下优秀特点: 1. 在语气上能够还原特定角色的语气,如帝王的语气,相比其他模型输出更准确恰当,兼顾了古典文字和可读性。 2. 对历史细节非常熟悉,这可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原历史称谓。 3. 输出极其具体且充满惊人细节,行文的隐喻拿捏到位,高级感十足。 此外,DeepSeek R1 属于基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,提升回答质量,这种能力源于其独特的“教育方式”,在其他模型还在接受“填鸭式教育”时,它已进入“自学成才”新阶段。 至于我是否比 DeepSeek 聪明,这很难直接比较,因为我们在不同的方面和场景中可能各有优势。
2025-02-07
帮我找到deepseek的培训教程,我是一个技术小白
以下是关于 DeepSeek R1 的培训教程相关内容: DeepSeek R1 引入了纯强化学习(RL),不依赖大量人类标注数据,而是通过自我探索和试错来学习。在“冷启动”阶段,仅通过少量(数千条)人工精选的思维链数据进行初步引导,建立起符合人类阅读习惯的推理表达范式。随后主要依靠强化学习,在奖励系统的反馈下(只对结果准确率与回答格式进行奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。 准确率奖励用于评估 AI 提供的最终答案是否正确,格式奖励强制结构化输出,让模型把思考过程置于<think></think>标签之间,以便人类观察模型的推理过程。 更有趣的是,DeepSeek 还有一个更加聪明的 R1zero 实验版本,这个版本甚至没有进行任何的初始引导,而是采用了完全从零开始的强化学习。实验表明,无需任何人类的监督训练,R1zero 自然而然地学会了用更多的思考步骤来解决推理任务,还学会了在推理过程中反思先前的推理步骤,探索解决问题的替代方法。但因为没有微调,R1zero 的输出内容可读性差、语言混合,且风险不可控。所以我们见到的是经过符合人类阅读偏好的冷启动与微调过的 R1 版本,确保 AI 生成内容的稳定、安全、道德、无害。 附:DeepSeek R1 完整训练过程,因文章定位与行文节奏设计,上文仅对影响 R1 涌现关键智能的前两个训练步骤进行了讲解。更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948 参考文献: 1. 碎瓜波斯兔子《Deepseek R1 可能找到了超越人类的办法》https://mp.weixin.qq.com/s/YgRgDw8ndSHJwcPNMqWZNQ 2. 大聪明赛博禅心《DeepSeek R1 是怎么训练的?》https://mp.weixin.qq.com/s/Wuz0H9jmZYV1jM1YtwTlA 3. 老刘说 NLP《可视化角度具象化理解 DeepSeekR1 类推理大模型的习得进程》https://mp.weixin.qq.com/s/ytKTGTgU2T7jSNrBghX1cA 4. Tianzhe Chu et al.《SFT 记忆,RL 泛化:基础模型训练后的比较研究》https://arxiv.org/html/2501.17161 5. Metaso 长思考对话《RL 和 SFT 在后训练中的区别》https://metaso.cn/s/WGdOwPC
2025-02-07
deepseek
DeepSeek 是一家具有独特特点和影响力的公司: 1. 秘方特点:DeepSeek 不是“中国式创新”的产物,其秘方是硅谷味儿的。早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发轰动。同时,它在国内舆论场被描摹成“大模型价格战的发起者”,形成了一种平行时空的感觉。 2. V3 时刻:如果 V3 是 DeepSeek 的 GPT3 时刻,接下来的发展充满未知,但 DeepSeek 作为中国最全球化的 AI 公司之一,赢得全球同行尊重的秘方也是硅谷味儿的。 3. 提示词提升:一个提示词“HiDeepSeek”能让 DeepSeek 的能力更上一层楼。通过 Coze 做了效果对比测试,使用方法包括搜索 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 DeepSeek 等步骤。其设计思路包括将 Agent 封装成 Prompt 并储存、实现联网和深度思考功能、优化输出质量等。完整提示词版本为 v1.3,特别鸣谢了李继刚和 Thinking Claude 等。
2025-02-07