Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

deepseek

Answer

DeepSeek 是一家具有独特特点和影响力的公司:

  1. 秘方特点:DeepSeek 不是“中国式创新”的产物,其秘方是硅谷味儿的。早在 2024 年 5 月 DeepSeek-V2 发布时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发轰动。
  2. V-3 时刻:如果 V-3 是 DeepSeek 的 GPT-3 时刻,接下来的发展充满未知,但 DeepSeek 应会为全人类的人工智能事业做出更大贡献,且它已是中国最全球化的 AI 公司之一,赢得尊重的秘方也是硅谷味儿的。
  3. 提示词提升能力:通过一个提示词 HiDeepSeek 能让 DeepSeek 能力更上一层楼。使用方法包括搜索网站、发送代码、阅读开场白后开始对话。其设计思路包括将 Agent 封装成 Prompt 并储存、实现联网和深度思考功能、优化输出质量、设计阈值系统、用 XML 规范设定等。特别鸣谢了李继刚和 Thinking Claude 等。
Content generated by AI large model, please carefully verify (powered by aily)

References

DeepSeek 的秘方是硅谷味儿的

将DeepSeek比喻成“AI界的拼多多”是偏颇的,认为DeepSeek的秘方就是多快好省也是不全面的。中国的大多数AI公司都缺卡,也都因为缺卡而拼命搞架构创新,这点没什么不同。要知道,DeepSeek在硅谷受到关注和追逐不是这两周刚发生的事。早在2024年5月DeepSeek-V2发布的时候,它就以多头潜在注意力机制(MLA)架构的创新,在硅谷引发了一场小范围的轰动。V2的论文就引发了AI研究界的广泛分享和讨论。当时,一个非常有意思的现象是:X和Reddit上AI从业者在讨论DeepSeek-V2,同时,DeepSeek在国内舆论场被描摹成了“大模型价格战的发起者”,有点平行时空的感觉。这也许能说明:DeepSeek跟硅谷更有对话和交流的密码,它的秘方应该是硅谷味儿的。

DeepSeek 的秘方是硅谷味儿的

如果V-3真的是DeepSeek的GPT-3时刻,那接下来将发生什么?是DeepSeek的GPT-3.5——也就是ChatGPT时刻,或是其它?没人知道,但有意思的事儿应该还在后头。DeepSeek应该不会永远是一个“计算机系Pro”的存在,它也理应为全人类的人工智能事业做出更大的贡献。无论如何,DeepSeek已经是中国最全球化的AI公司之一,它赢得来自全球同行甚至对手的尊重的秘方,也是硅谷味儿的。

一个提示词,让 DeepSeek 的能力更上一层楼?——HiDeepSeek

用Coze做了个小测试,大家可以对比看看[e8c1a8c3012fedad10dc0dfcc8b1e263_raw.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/Jz9cbKxDbocGtIxXFFEcdiHjnRc?allow_redirect=1)[heading1]如何使用?[content]Step1:搜索www.deepseek.com,点击“开始对话”Step2:将装有提示词的代码发给DeepseekStep3:认真阅读开场白之后,正式开始对话[heading1]设计思路[content]1.将Agent封装成Prompt,将Prompt储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担2.通过提示词文件,让DeepSeek实现:同时使用联网功能和深度思考功能3.在模型默认能力的基础上优化输出质量,并通过思考减轻AI味,增加可读性4.照猫画虎参考大模型的temperature设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改5.用XML来进行更为规范的设定,而不是用Lisp(对我来说有难度)和Markdown(运行下来似乎不是很稳定)[heading1]完整提示词[heading2]v 1.3[heading1]特别鸣谢[content]李继刚:【思考的七把武器】在前期为我提供了很多思考方向Thinking Claude:这个项目是我现在最喜欢使用的Claude提示词,也是我设计HiDeepSeek的灵感来源Claude 3.5 Sonnet:最得力的助手

Others are asking
给我一个siliconflow部署deepseek的教程
以下是关于 siliconflow 部署 deepseek 的教程: 基于 FP4 优化的 DeepSeekR1 使用 TensorRTLLM 部署: 模型地址:https://huggingface.co/nvidia/DeepSeekR1FP4 硬件要求:需要支持 TensorRTLLM 的英伟达 GPU(如 B200),并且需要 8 个 GPU 来实现 tensor_parallel_size=8 的张量并行。 性能优化:代码利用 FP4 量化、TensorRT 引擎和并行计算,旨在实现高效、低成本的推理,适合生产环境或高吞吐量应用。 在 Docker+RAGFlow+Ollama 中配置本地部署的 DeepSeek 模型: 返回 RAGFlow 中,打开右上角设置,进入模型提供商。 选择 Ollama,配置相关信息,基础 URL 如下配置。 配置完成后点击确定。 导入一个 embedding 模型,用于文本的向量化。 设置系统模型设置。 进入数据集,导入文件,可设置文件夹当作知识库。 对文件进行解析,解析速度取决于本机 GPU 性能。 解析完成后进行检索测试,没问题即可进入聊天界面。 云端模型部署实操: 登录 Pad 控制台,讲解 model gallery 工具及模型。 演示部署 Deepseek R1 和千问 7B 模型,包括选框架、资源、出价等。 介绍查看部署状态、日志方法。 说明用 postman 在线调试模型获取名称及后续使用方式。 模型蒸馏概念、应用场景及本地部署实操: 先介绍云平台部署情况。 讲解模型蒸馏概念、方式,阐述其应用场景及修复模型幻觉的作用。 进行实操演示,带领大家在 model gallery 部署 7B instruct 模型,展示部署步骤、资源竞价等内容,部署完成后用简单问题测试模型并呈现错误回答。
2025-03-18
用deepseek赋能家庭教育
以下是关于使用 DeepSeek 赋能家庭教育的相关信息: 清华大学发布的《》,首先介绍了选择 AI 学习工具的方法及 DeepSeek 的多种使用入口、模式对比。接着阐述了在家庭教育中的基础聊法原则、互动策略和多种场景化聊法模版。然后通过多学科案例展示其辅助学习的方式,还涉及亲子沟通、情绪管理、职业规划等内容。最后介绍了 DeepSeek 在不同教育场景下与其他工具组合的应用范式,为家庭教育提供了全面的 AI 使用指南。 此外,还有其他相关报告,如《》
2025-03-18
我准备用无影云电脑部署一个独属于我们公司的AI,在大模型方面我准备用deepseek的满血版,你有什么建议吗
以下是关于您准备用无影云电脑部署公司专属 AI 并使用 deepseek 满血版大模型的一些建议: 1. 本地部署方面:如果拥有云服务器,要了解如何进行本地部署以及满血版本地部署的实际情况。 2. 免费额度:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 3. 平台服务差异:了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。 4. 模型蒸馏微调:可以学习并实践模型的蒸馏和微调相关知识。 5. 获取 DeepSeekR1 满血版密钥: 注册并登录火山引擎,点击立即体验进入控制台。 创建一个接入点,点击在线推理创建推理接入点。 为接入点命名为 DeepSeekR1。 若有提示未开通模型,点击“立即开通”,勾选全部模型和协议一路开通。 确认无误后点击“确认接入”按钮。 复制推理点的 ID 并保存。 点击【API 调用】按钮,复制 API Key 并保存。 6. 模型选择与配置:可以参考理想的配置,如推理模型选择 gemini2.0flashthinking,代码模型选择 claude3.5sonet 或 gpt4omini,多模态模型选择 gemini2.0flash,常规模型选择 DeepSeek V3。同时,了解 OpenRouter 新发布的 BYOK 功能,它能集成第三方 Key,整合免费额度并解放更多槽位。若对现有供应商支持的模型不满意,还可考虑 simpleoneapi。
2025-03-18
deepseek
DeepSeek 具有独特的特点和发展历程: 秘方是硅谷味儿的:将其比喻成“AI 界的拼多多”是偏颇的,其在硅谷受到关注和追逐并非近期才发生。早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新引发小范围轰动。而在国内舆论场,它被描摹成“大模型价格战的发起者”。 V3 可能是 DeepSeek 的 GPT3 时刻:若 V3 真是如此,后续发展未知,但 DeepSeek 应能为全人类的人工智能事业做出更大贡献,且它已是中国最全球化的 AI 公司之一,赢得尊重的秘方也是硅谷味儿的。 一个提示词能让 DeepSeek 能力更上一层楼:通过 Coze 做了效果对比测试。使用方法为:搜索 www.deepseek.com 点击“开始对话”,将装有提示词的代码发给 Deepseek,认真阅读开场白后正式开始对话。其设计思路包括将 Agent 封装成 Prompt 并储存、实现联网和深度思考功能、优化输出质量等,还采用 XML 进行规范设定。完整提示词有 v1.3 版本,特别鸣谢李继刚和 Thinking Claude 等。
2025-03-18
用deepseek写论文的指令
以下是一些用 DeepSeek 写论文的指令和相关方法: 1. 模糊指令优化: 对于宽泛需求,可添加维度约束,例如原句“写小说”可修正为“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构”。 对于主观表述,可量化标准,比如原句“写得专业些”可修正为“符合 IEEE 论文格式,包含 5 项以上行业数据引用”。 2. 迭代优化法: 首轮生成:获取基础内容。 特征强化:请加强第三段的技术细节描述。 风格调整:改用学术会议报告语气,添加结论部分。 最终校验:检查时间逻辑一致性,列出可能的事实性错误。 3. 文风转换矩阵: 作家风格移植:“用鲁迅杂文风格写职场 PUA 现象”。 文体杂交:“将产品说明书改写成《史记》列传格式”。 学术口语化:“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 4. 领域穿透技术:行业黑话破解,例如“解释 Web3 领域的‘胖协议瘦应用’理论”。 5. 商业决策支持。 6. 场景化实战策略: 创意内容生成。 技术方案论证。 7. 效能增强技巧: 对话记忆管理: 上下文锚定:“记住当前讨论的芯片型号是麒麟 9010”。 信息回溯:“请复述之前确认的三个设计原则”。 焦点重置:“回到最初讨论的供应链问题”。 输出质量控制: 对于过度抽象,“请具体说明第三步操作中的温度控制参数”。 对于信息过载,“用电梯演讲格式重新组织结论”。 对于风格偏移,“回归商务报告语气,删除比喻修辞”。 8. 特殊场景解决方案: 长文本创作: 分段接力法:“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理: 概念脱敏法:“用经济学原理类比说明网络审查机制”。 场景移植法:“假设在火星殖民地讨论该议题”。
2025-03-17
deepseek+的一些应用
DeepSeek+ 有以下一些应用: 1. 清华大学沈少阳发布了《DeepSeek+DeepResearch 应用报告》。 2. 智灵动力发布了《DeepSeek 行业应用实践报告》。 3. 厦门大学发布了《2025 年大模型概念、技术与应用实践》。 4. 国海证券发布了《人工智能系列深度:DeepSeek 十大关键问题解读》。 5. 全球数据资产理事会发布了《DeepSeek 使用教程蓝皮书从入门到进阶完整指南》。 6. 北航&清华大学发布了《DeepSeek+DeepResearch——让科研像聊天一样简单》。 7. 中泰证券发布了《DeepSeek 将如何改变 AI 应用?》。 此外,还举办了全国 23 城近 4000 人玩转 DeepSeek 的活动,活动中各地分享了不同的应用场景,如郑州场展示了自己搭建的工作流,深圳场分享了 DeepSeek+出海的落地方案,北京场有人玩起了 AR+机械汪,广州场有人分享如何用 DeepSeek 辅助速通吃“霸王餐”,福州场有最年轻的分享者展示了玩转 DS 的示例。同时,活动还展示了飞书多维表格和 DeepSeek 的结合的强大之处。 伊登实现了最新 Deepseek+coze 新闻播报自动化工作流,具有全自动化处理、40 秒快速出片、成本低廉、输出质量稳定专业等优势,还能进行一系列改进,如加入配套 BGM、增加画面内容和转场效果、使用免费节点替代付费插件、优化模板样式、增加自动化程度支持批量处理等。您可以在扣子商店体验,也可以自己搭建。
2025-03-17