DeepSeek 公式的发展历程如下:
[heading2]智能章节[00:00](https://waytoagi.feishu.cn/minutes/obcnmo3hj6o3pw99e79386lx?t=0)Deepseek热度高,陈财猫将分享提示词及小说创作心得本章节中,AJ提到Deepseek热度极高,微信指数达10亿多次,借此热度邀请陈财猫分享相关提示词用法。还设计一起写主题为“反转”、不超1000字小说的环节。随后陈财猫先做调查,见大家都用过Deepseek后,准备先讲讲该模型的特点。[03:40](https://waytoagi.feishu.cn/minutes/obcnmo3hj6o3pw99e79386lx?t=220000)财猫分享AI内容创作见解及对AI创作好文字的论证本章节财猫先进行自我介绍,分享过往经历及公司业务,认为AI加内容创作是现阶段好赛道。接着探讨大模型难以完成生产力任务,还介绍自身用AI创作的内容。此外,以纳伯科夫对好文字的定义论证AI能写出好文字,并借万能逼近定律说明大模型可引发情感共鸣。[11:00](https://waytoagi.feishu.cn/minutes/obcnmo3hj6o3pw99e79386lx?t=660000)AI写作探讨:从好文字基础到模型挑选及变化本章节财猫先引用美国大学心理学教材观点,阐述共鸣是文学基础,因人类共性大于差异,AI能写出好文字。还提到曾讲过如何用AI写出比人更好的文字,随着Deepseek re出现情况有变化。指出写出好文字首要挑选好模型,模型能力差异大,认为Deepseek R1是目前最好的模型。
就我观察而言,大多数人讨论的DeepSeek,基本指的是它的深度思考版本——DeepSeek R1。DeepSeek R1不同于先前的普通模型(如ChatGPT-4、Claude 3.5 sonnet、豆包、通义等),它与OpenAI现在最先进的模型o1、o3一样,同属于一条技术路线:基于强化学习RL的推理(Reasoning)模型。其标志性表现就是,在回答用户问题前,R1会先进行“自问自答”式的推理思考,凭此提升最终回答的质量。这种“自问自答”,并非简单的自言自语,而是AI在模拟人类的深度思考。从用户初始问题“先有鸡还是先有蛋”出发,AI唤醒解决该问题所需的推理逻辑与知识,对问题进行多步推导,为最终回答提供更加完备的思考准备。这种能力,并非凭空而来。如果把AI比作人类,那么DeepSeek R1的“聪明”,源于其背后独特的“教育方式”。——在许多其他的AI模型还在接受“填鸭式教育”时,DeepSeek R1已经率先进入了“自学成才”的新阶段。
将DeepSeek比喻成“AI界的拼多多”是偏颇的,认为DeepSeek的秘方就是多快好省也是不全面的。中国的大多数AI公司都缺卡,也都因为缺卡而拼命搞架构创新,这点没什么不同。要知道,DeepSeek在硅谷受到关注和追逐不是这两周刚发生的事。早在2024年5月DeepSeek-V2发布的时候,它就以多头潜在注意力机制(MLA)架构的创新,在硅谷引发了一场小范围的轰动。V2的论文就引发了AI研究界的广泛分享和讨论。当时,一个非常有意思的现象是:X和Reddit上AI从业者在讨论DeepSeek-V2,同时,DeepSeek在国内舆论场被描摹成了“大模型价格战的发起者”,有点平行时空的感觉。这也许能说明:DeepSeek跟硅谷更有对话和交流的密码,它的秘方应该是硅谷味儿的。