Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

deepseek

Answer

DeepSeek 是一家具有独特特点和影响力的公司:

  1. 秘方特点:DeepSeek 不是“中国式创新”的产物,其秘方是硅谷味儿的。早在 2024 年 5 月 DeepSeek-V2 发布时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发轰动。同时,它在国内舆论场被描摹成“大模型价格战的发起者”,形成了一种平行时空的感觉。
  2. V-3 时刻:如果 V-3 是 DeepSeek 的 GPT-3 时刻,接下来的发展充满未知,但 DeepSeek 作为中国最全球化的 AI 公司之一,赢得全球同行尊重的秘方也是硅谷味儿的。
  3. 提示词提升:一个提示词“HiDeepSeek”能让 DeepSeek 的能力更上一层楼。通过 Coze 做了效果对比测试,使用方法包括搜索 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 DeepSeek 等步骤。其设计思路包括将 Agent 封装成 Prompt 并储存、实现联网和深度思考功能、优化输出质量等。完整提示词版本为 v1.3,特别鸣谢了李继刚和 Thinking Claude 等。
Content generated by AI large model, please carefully verify (powered by aily)

References

DeepSeek 的秘方是硅谷味儿的

将DeepSeek比喻成“AI界的拼多多”是偏颇的,认为DeepSeek的秘方就是多快好省也是不全面的。中国的大多数AI公司都缺卡,也都因为缺卡而拼命搞架构创新,这点没什么不同。要知道,DeepSeek在硅谷受到关注和追逐不是这两周刚发生的事。早在2024年5月DeepSeek-V2发布的时候,它就以多头潜在注意力机制(MLA)架构的创新,在硅谷引发了一场小范围的轰动。V2的论文就引发了AI研究界的广泛分享和讨论。当时,一个非常有意思的现象是:X和Reddit上AI从业者在讨论DeepSeek-V2,同时,DeepSeek在国内舆论场被描摹成了“大模型价格战的发起者”,有点平行时空的感觉。这也许能说明:DeepSeek跟硅谷更有对话和交流的密码,它的秘方应该是硅谷味儿的。

DeepSeek 的秘方是硅谷味儿的

如果V-3真的是DeepSeek的GPT-3时刻,那接下来将发生什么?是DeepSeek的GPT-3.5——也就是ChatGPT时刻,或是其它?没人知道,但有意思的事儿应该还在后头。DeepSeek应该不会永远是一个“计算机系Pro”的存在,它也理应为全人类的人工智能事业做出更大的贡献。无论如何,DeepSeek已经是中国最全球化的AI公司之一,它赢得来自全球同行甚至对手的尊重的秘方,也是硅谷味儿的。

一个提示词,让 DeepSeek 的能力更上一层楼?——HiDeepSeek

用Coze做了个小测试,大家可以对比看看[e8c1a8c3012fedad10dc0dfcc8b1e263_raw.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Jz9cbKxDbocGtIxXFFEcdiHjnRc?allow_redirect=1)[heading1]如何使用?[content]Step1:搜索www.deepseek.com,点击“开始对话”Step2:将装有提示词的代码发给DeepseekStep3:认真阅读开场白之后,正式开始对话[heading1]设计思路[content]1.将Agent封装成Prompt,将Prompt储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担2.通过提示词文件,让DeepSeek实现:同时使用联网功能和深度思考功能3.在模型默认能力的基础上优化输出质量,并通过思考减轻AI味,增加可读性4.照猫画虎参考大模型的temperature设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改5.用XML来进行更为规范的设定,而不是用Lisp(对我来说有难度)和Markdown(运行下来似乎不是很稳定)[heading1]完整提示词[heading2]v 1.3[heading1]特别鸣谢[content]李继刚:【思考的七把武器】在前期为我提供了很多思考方向Thinking Claude:这个项目是我现在最喜欢使用的Claude提示词,也是我设计HiDeepSeek的灵感来源Claude 3.5 Sonnet:最得力的助手

Others are asking
deepseek入门到精通
以下是关于 DeepSeek 从入门到精通的相关内容: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对作者有难度)和 Markdown(运行下来似乎不是很稳定)。 完整提示词:v 1.3 特别鸣谢:李继刚的【思考的七把武器】在前期为作者提供了很多思考方向;Thinking Claude 是作者现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 此外,《》是清华大学新闻与传播学院新媒体研究中心出品的指南,详细阐述了 DeepSeek 的功能,包括智能对话、文本生成、代码生成、自然语言理解等,并探讨了如何使用 DeepSeek,包括推理模型与通用模型的区别、提示语设计策略以及如何从入门到精通。文章还介绍了提示语设计的核心技能、常见陷阱及应对方法,旨在帮助用户更好地掌握 AI 工具的使用,提升工作效率和创新能力。 DeepSeek R1 不同于先前的普通模型,它与 OpenAI 现在最先进的模型 o1、o3 一样,同属于基于强化学习 RL 的推理(Reasoning)模型。其标志性表现是在回答用户问题前,会先进行“自问自答”式的推理思考,凭此提升最终回答的质量。这种能力源于其背后独特的“教育方式”,在许多其他的 AI 模型还在接受“填鸭式教育”时,DeepSeek R1 已经率先进入了“自学成才”的新阶段。
2025-02-07
用deepseek建立个人知识库
以下是关于用 DeepSeek 建立个人知识库的相关知识: RAG(Retrieval Augmented Generation,检索增强生成)是利用大模型的能力搭建知识库的关键技术。在进行本地知识库搭建实操前,需先了解 RAG。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,可通过 RAG 实现。RAG 应用包括 5 个过程: 1. 文档加载:从多种来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:把文档切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:包括将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 此外,搭建基于 GPT API 的定制化知识库,涉及给 GPT 输入定制化知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。embeddings 是浮点数字的向量,向量之间的距离衡量关联性,小距离表示高关联度。将文本转换成向量能节省空间,可理解为索引。比如有大文本,可拆分成小文本块并转换成 embeddings 向量,保存在向量储存库作为问答知识库。当用户提问时,问题先转换成向量,与储存库中的向量比对,提取关联度高的文本块与问题组合成新的 prompt 发送给 GPT API。例如,对于一篇万字长文拆分成多个文本块,提问“此文作者是谁?”,可通过比较 embeddings 向量得出关联度高的文本块。
2025-02-07
提供一些deepseek提示词
以下是一些关于 DeepSeek 的提示词相关信息: 1. 效果对比:用 Coze 做了小测试,可对比查看。访问 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 DeepSeek,认真阅读开场白后正式开始对话。 2. 设计思路:将 Agent 封装成 Prompt 并储存在文件,实现同时使用联网和深度思考功能,优化输出质量,设计阈值系统,用 XML 进行规范设定。 3. 完整提示词:v 1.3 ,特别鸣谢李继刚和 Thinking Claude 等。 4. 使用案例: 借助 AI 分析好文章,如找出喜欢的文章投喂给 deepseek R1,从写作和读者角度分析,询问文章缺点和提升空间,对作者进行侧写等。 让 AI 对自己写的文章点评,给出详细优缺点分析和指导建议。 根据文章内容对作者心理侧写。 5. 集合·DeepSeek 提示词方法论:可查看相关文章,如南瓜博士的相关内容,以及 DeepSeek 官方提示词等。最新文章观点学术报告及业界评论可参考特定链接。R1 模型也有一些使用建议。
2025-02-07
你比deepseek聪明吗
DeepSeek 具有以下优秀特点: 1. 在语气上能够还原特定角色的语气,如帝王的语气,相比其他模型输出更准确恰当,兼顾了古典文字和可读性。 2. 对历史细节非常熟悉,这可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原历史称谓。 3. 输出极其具体且充满惊人细节,行文的隐喻拿捏到位,高级感十足。 此外,DeepSeek R1 属于基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考,提升回答质量,这种能力源于其独特的“教育方式”,在其他模型还在接受“填鸭式教育”时,它已进入“自学成才”新阶段。 至于我是否比 DeepSeek 聪明,这很难直接比较,因为我们在不同的方面和场景中可能各有优势。
2025-02-07
帮我找到deepseek的培训教程,我是一个技术小白
以下是关于 DeepSeek R1 的培训教程相关内容: DeepSeek R1 引入了纯强化学习(RL),不依赖大量人类标注数据,而是通过自我探索和试错来学习。在“冷启动”阶段,仅通过少量(数千条)人工精选的思维链数据进行初步引导,建立起符合人类阅读习惯的推理表达范式。随后主要依靠强化学习,在奖励系统的反馈下(只对结果准确率与回答格式进行奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。 准确率奖励用于评估 AI 提供的最终答案是否正确,格式奖励强制结构化输出,让模型把思考过程置于<think></think>标签之间,以便人类观察模型的推理过程。 更有趣的是,DeepSeek 还有一个更加聪明的 R1zero 实验版本,这个版本甚至没有进行任何的初始引导,而是采用了完全从零开始的强化学习。实验表明,无需任何人类的监督训练,R1zero 自然而然地学会了用更多的思考步骤来解决推理任务,还学会了在推理过程中反思先前的推理步骤,探索解决问题的替代方法。但因为没有微调,R1zero 的输出内容可读性差、语言混合,且风险不可控。所以我们见到的是经过符合人类阅读偏好的冷启动与微调过的 R1 版本,确保 AI 生成内容的稳定、安全、道德、无害。 附:DeepSeek R1 完整训练过程,因文章定位与行文节奏设计,上文仅对影响 R1 涌现关键智能的前两个训练步骤进行了讲解。更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948 参考文献: 1. 碎瓜波斯兔子《Deepseek R1 可能找到了超越人类的办法》https://mp.weixin.qq.com/s/YgRgDw8ndSHJwcPNMqWZNQ 2. 大聪明赛博禅心《DeepSeek R1 是怎么训练的?》https://mp.weixin.qq.com/s/Wuz0H9jmZYV1jM1YtwTlA 3. 老刘说 NLP《可视化角度具象化理解 DeepSeekR1 类推理大模型的习得进程》https://mp.weixin.qq.com/s/ytKTGTgU2T7jSNrBghX1cA 4. Tianzhe Chu et al.《SFT 记忆,RL 泛化:基础模型训练后的比较研究》https://arxiv.org/html/2501.17161 5. Metaso 长思考对话《RL 和 SFT 在后训练中的区别》https://metaso.cn/s/WGdOwPC
2025-02-07
本地 部署deepseek
DeepSeek 相关信息如下: DeepSeek 有多种含义,包括公司、网站、手机应用和大模型,尤其是具有推理功能的 DeepSeek R1 大模型,其权重文件开源,可本地部署。 模型方面,JanusPro 是一种新型自回归框架,将图像理解和生成统一在一个模型中,模型(7B):https://huggingface.co/deepseekai/JanusPro7B ,模型(1B):https://huggingface.co/deepseekai/JanusPro1B 。 联网版的实现方式:通过工作流+DeepSeek R1 大模型,需要拥有扣子专业版账号,开通 DeepSeek R1 大模型的访问地址为:https://console.volcengine.com/cozepro/overview?scenario=coze ,添加在线推理模型,添加后在扣子开发平台才能使用,还需创建智能体。 相关新闻: 《》提到 DeepSeek 最新模型 V3 与 R1 采用混合专家(MoE)架构,显著提升计算效率,挑战 OpenAI 的闭源模型。V3 引入多头潜注意力(MLA),将 KV 缓存压缩至新低,提升计算性能。R1 则通过强化学习激活推理能力,首次验证无需监督微调即可实现推理。 《》介绍了字节跳动推出的新技术 OmniHuman,利用单张图片和音频生成生动的视频,突破了传统技术的局限。 《》指出 DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构,显著提升了算力利用效率,打破了算力至上的传统认知。同时,AI 基础大模型的参数量迎来拐点,2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能。此外,报告强调 2025 年是算法变革的元年,DeepSeek 的推理模型开启了算法变革,其训练过程聚焦于强化学习,提升了模型的推理能力。
2025-02-07