DeepSeek V3 相关信息如下:
如果V-3真的是DeepSeek的GPT-3时刻,那接下来将发生什么?是DeepSeek的GPT-3.5——也就是ChatGPT时刻,或是其它?没人知道,但有意思的事儿应该还在后头。DeepSeek应该不会永远是一个“计算机系Pro”的存在,它也理应为全人类的人工智能事业做出更大的贡献。无论如何,DeepSeek已经是中国最全球化的AI公司之一,它赢得来自全球同行甚至对手的尊重的秘方,也是硅谷味儿的。
中国杭州的人工智能创业公司DeepSeek是近一段时间硅谷的AI研究者和开发者的心魔。它在2024年12月发布的大语言模型DeepSeek-V3被认为实现了诸多的不可能:550万美元和2000块英伟达H800 GPU(针对中国市场的低配版GPU)训练出的开源模型,多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等顶级开源模型,亦与GPT-4o和Claude 3.5-Sonnet这样世界顶级的闭源模型不相上下——而训练后者的成本保守估计也要数亿美元和几十万块最强劲的英伟达H100。可以想象它在人工智能界引发的震撼——尤其是在AI领域的研究人员、创业者、资金、算力和资源最扎堆的硅谷。不少硅谷AI领域的重要人士都不吝惜对DeepSeek的称赞,比如OpenAI联合创始人Andrej Kaparthy和Scale.ai的创始人Alexandr Wang。尽管OpenAI CEO Sam Altman发了一条疑似影射DeepSeek抄袭借鉴其它先进成果的推文(很快就被人回怼“是指把Google发明的Transformer架构拿过来用么?),但DeepSeek收获的赞誉确实是广泛而真诚的,尤其是在开源社区,开发者用脚投票。
🔔Xiaohu.AI日报「12月27」✨✨✨✨✨✨✨✨1⃣️🚀Deepseek v3预览版发布参数量:685B,磁盘占用:687.9 GB架构:混合专家模型(MoE),256个专家,每个token使用8个专家竞争对手:Meta AI的Llama 3.1(405B参数)✨亮点:理解能力提升:准确理解复杂和nuanced查询知识更新至2023年,提供更及时、更相关的信息多语言支持和个性化服务增强数据安全和隐私保护加强在BigCodeBench-Hard排名第一🔗评分情况:Aider Polyglot排行榜预览得分48.4%,排名第二,仅次于o1-2024-12-17(high)。领先于Claude 3.5 Sonnet-20241022和Gemini Exp-1206。🔗详细信息:[https://x.com/imxiaohu/status/1872182632584561056](https://x.com/imxiaohu/status/1872182632584561056)🔗模型下载:[https://huggingface.co/deepseek-ai/DeepSeek-V3-Base/tree/main](https://huggingface.co/deepseek-ai/DeepSeek-V3-Base/tree/main)🔗在线体验:[https://chat.deepseek.com/sign_in](https://chat.deepseek.com/sign_in)2⃣️🔍Google使用Claude对比测试GeminiGoogle外包人员通过多项指标对Gemini和Claude进行输出对比Claude安全策略最严格:拒绝不安全提示,例如角色扮演或特定不合规请求Gemini的部分回答被标记为“严重安全违规”