Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

deepseek最新消息

Answer

以下是关于 DeepSeek 的最新消息:

  • DeepSeek 深夜发布大一统模型 Janus-Pro,将图像理解和生成统一在一个模型中。模型(7B):https://huggingface.co/deepseek-ai/Janus-Pro-7B ;模型(1B):https://huggingface.co/deepseek-ai/Janus-Pro-1B 。Janus-Pro 是一种新型的自回归框架,通过将视觉编码解耦为独立的路径来解决先前方法的局限性,同时利用单一的统一变压器架构进行处理,超越了之前的统一模型,并匹配或超过了特定任务模型的性能。
  • DeepSeek 以小成本实现媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶。高盛认为 DeepSeek 或改变科技格局,降低 AI 行业的进入门槛。
  • DeepSeek 在中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱。数学能力不错,编程能力逊于 GPT。采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。
  • 1 月 28 日(除夕)有一场关于 DeepSeek 的高质量闭门会,其创始人梁文锋强调团队文化与长远智能探索。DeepSeek 在技术上虽有优势,但资源有限,需聚焦核心;其推理模型推动效率提升,挑战传统 SFT 方法,标志着新的模型训练范式。
  • DeepSeek 近日开源了多模态模型 Janus-Pro,寓意古罗马双面神雅努斯,既能进行视觉理解,也能生成图像。与 DALL-E 3 相比,Janus-Pro 在参数上领先,并具备图像识别、地标识别等多种能力。该模型通过更优化的训练策略、更海量的数据和更大规模的参数(70 亿)实现了更强的智能表现。全面开源,支持商用,MIT 协议,部署使用便捷,Benchmark 表现优异,能力更全面。
Content generated by AI large model, please carefully verify (powered by aily)

References

详解:DeepSeek深度推理+联网搜索 目前断档第一

本篇内容可编辑,欢迎大家补充自己的观点最新消息:[DeepSeek深夜发布大一统模型Janus-Pro将图像理解和生成统一在一个模型中](https://waytoagi.feishu.cn/wiki/SneLwRmsYiUaI6kvxltcEBPPnhb)deepseek刚刚发布了新模型-一个强大的框架,它将图像理解和生成统一在一个模型中!!!上一个是智源开源的Emu3模型(7B):https://huggingface.co/deepseek-ai/Janus-Pro-7B模型(1B):https://huggingface.co/deepseek-ai/Janus-Pro-1BJanus-Pro是一种新型的自回归框架,它统一了多模态理解和生成。它通过将视觉编码解耦为独立的路径来解决先前方法的局限性,同时仍然利用单一的统一变压器架构进行处理。解耦不仅缓解了视觉编码器在理解和生成中的角色冲突,还增强了框架的灵活性。Janus-Pro超越了之前的统一模型,并匹配或超过了特定任务模型的性能。Janus-Pro的简单性、高灵活性和有效性使其成为下一代统一多模态模型的有力候选者。DeepSeek爆火,价格亲民却实力超群,智慧开源领航者,实时联网深度推理双冠王,用技术普惠重新定义AI边界!便宜+开源+能联网,东方神秘力量Appstore排行第一,导致算力股大跌

1月28日 社区动态速览

1⃣️💹华尔街分析师对DeepSeek的反应DeepSeek以小成本实现媲美领先AI产品的性能,并在全球主要市场App Store登顶。高盛认为DeepSeek或改变科技格局,降低AI行业的进入门槛。[🔗详情](https://www.xiaohu.ai/c/xiaohu-ai/deepseek)2⃣️📝DeepSeek的实际使用体验中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱。数学能力不错,编程能力逊于GPT。采用GRPO算法替代传统PPO,提升语言评价灵活性与训练速度。[🔗更多信息](https://x.com/imxiaohu/status/1883843200756170873)|🔗[GRPO详情](https://www.xiaohu.ai/c/ai/grpo-deepseek-r1-8c6cff0c-deb8-4937-a419-7066af987e43)3⃣️🎙️复旦大学OpenMOSS发布实时语音交互模型中文语音体验近似GPT-4o高级语音,响应时间低于200毫秒,支持打断和自然互动。可生成多情感、多风格语音,包含方言、戏剧化台词等;多语言适配,嘈杂环境下仍具备强逻辑推理能力。[🔗相关推文](https://x.com/imxiaohu/status/1883739294315274331)|🔗[项目主页](https://github.com/OpenMOSS/SpeechGPT-2.0-preview)|🔗[在线体验](https://sp2.open-moss.com)4⃣️📚阿里巴巴推出Qwen2.5-1M模型

1月29日 社区动态速览

《[一场关于DeepSeek的高质量闭门会:“比技术更重要的是愿景”](https://mp.weixin.qq.com/s/cXafYIotJUGUmWasXrJvcw)》DeepSeek以“比技术更重要的是愿景”引发全球AI热潮,其创始人梁文锋强调团队文化与长远智能探索。讨论会上指出,DeepSeek在技术上虽有优势,但资源有限,需聚焦核心;其推理模型推动效率提升,挑战传统SFT方法,标志着新的模型训练范式。DeepSeek不仅是低成本的开源项目,更是推动AI进步的力量。正如Marc Andreessen所言:“作为开源项目,这是对世界的一份深远馈赠。”《[DeepSeek再度开源:用Janus-Pro撕开算力铁幕](https://mp.weixin.qq.com/s/Sy9zG7nL7S8eSDzxH5LqSg)》DeepSeek近日开源了多模态模型Janus-Pro,寓意古罗马双面神雅努斯,既能进行视觉理解,也能生成图像。与DALL-E 3相比,Janus-Pro在参数上领先,并具备图像识别、地标识别等多种能力。该模型通过更优化的训练策略、更海量的数据和更大规模的参数(70亿)实现了更强的智能表现。正如文章所言:“以开源筑长阶,邀世界共赴星辰。”《[DeepSeek深夜发布大一统模型Janus-Pro将图像理解和生成统一在一个模型中](https://waytoagi.feishu.cn/wiki/SneLwRmsYiUaI6kvxltcEBPPnhb)》1.统一Transformer架构,使用同一个模型就能完成图片理解,图片生成2.提供1B和7B两种规模,适配多元应用场景3.全面开源,支持商用,MIT协议,部署使用便捷4.Benchmark表现优异,能力更全面

Others are asking
deepseek
DeepSeek 是一家具有独特特点和优势的公司: 它不是“中国式创新”的产物,其在硅谷受到关注和追逐并非近期才发生。早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新引发小范围轰动,而在国内舆论场却被描摹成“大模型价格战的发起者”。 如果 V3 是 DeepSeek 的 GPT3 时刻,未来充满未知但值得期待,DeepSeek 应能为全人类的人工智能事业做出更大贡献,且已是中国最全球化的 AI 公司之一,其赢得尊重的秘方是硅谷味儿的。 作为推理型大模型,它具有以下特点: 无需用户提供详细步骤指令,能通过理解真实需求和场景提供答案。 能理解用户用“人话”表达的需求,无需特定提示词模板。 回答问题时能深度思考,而非简单罗列信息。 可以模仿不同作家的文风进行写作,适用于多种文体和场景。 使用 DeepSeek 的正确方法包括: 用自然语言描述,直接描述真实场景和具体需求,提示词模板可用可不用。 在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,让回答更通俗易懂。 激发其进行批判性思考、反面思考和复盘,恢复深度思考能力。 通过指定模仿的作家和文体,让其生成符合特定风格的文本。
2025-01-31
deepseek 使用手册
以下是关于 DeepSeek 的使用手册: 1. 效果对比:用 Coze 做了小测试,可对比查看 2. 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白之后,正式开始对话。 3. 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定)。 4. 完整提示词:v 1.3 5. 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 6. 使用技巧: DeepSeek 的特点与优势: 推理型大模型:核心是推理型大模型,与指令型大模型不同,它不需要用户提供详细的步骤指令,而是通过理解用户的真实需求和场景来提供答案。 更懂人话:能够理解用户用“人话”表达的需求,而不需要用户学习和使用特定的提示词模板。 深度思考:在回答问题时能够进行深度思考,而不是简单地罗列信息。 文风转换器:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 使用 DeepSeek 的正确方法: 可以扔掉提示词模板:用自然语言描述,直接描述真实场景和具体需求,提示词模板的目的是清晰表达,如果使用也完全没问题。 让 DeepSeek“说人话”:在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,可以让 DeepSeek 的回答更加通俗易懂。 激发深度思考:让 DeepSeek 进行批判性思考、反面思考和复盘,以恢复其深度思考能力。 文风转换:通过指定模仿的作家和文体,让 DeepSeek 生成符合特定风格的文本。
2025-01-31
deepseek的多模态大模型?
DeepSeek 发布了大一统模型 JanusPro,将图像理解和生成统一在一个模型中。以下是关于该模型的一些重要信息: 最新消息:DeepSeek 深夜发布该模型,它是一个强大的框架。 特点: 统一了多模态理解和生成,通过将视觉编码解耦为独立路径解决先前方法的局限性,利用单一的统一 Transformer 架构进行处理,缓解了视觉编码器在理解和生成中的角色冲突,增强了框架的灵活性。 超越了之前的统一模型,匹配或超过了特定任务模型的性能,其简单性、高灵活性和有效性使其成为下一代统一多模态模型的有力候选者。 规模:提供 1B 和 7B 两种规模,适配多元应用场景。 开源及商用:全面开源,支持商用,采用 MIT 协议,部署使用便捷。 测试案例: 模型直接支持中文交互(图像理解+图像生成)。 云上 L4 测试,显存需 22GB。 图像生成速度约 15s/张。 图像理解质量方面,文字和信息识别基本准确,内容理解完整清晰,局部细节有欠缺。 Colab(需 Pro,因需 20GB 以上显存):https://colab.research.google.com/drive/1V3bH2oxhikj_B_EYy5yRG_9yqSqxxqgS?usp=sharing 模型地址: 7B 模型:https://huggingface.co/deepseekai/JanusPro7B 1B 模型:https://huggingface.co/deepseekai/JanusPro1B 下载地址:https://github.com/deepseekai/Janus
2025-01-30
Deepseek 使用逻辑
DeepSeek 的使用逻辑如下: 效果对比:用 Coze 做了小测试,可对比查看相关视频。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 DeepSeek。 认真阅读开场白后正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力基础上优化输出质量,减轻 AI 味,增加可读性。 设计了阈值系统,可能会根据反馈修改。 用 XML 进行更为规范的设定,而非 Lisp 和 Markdown。 关于 DeepSeek 的其他信息: 1 月 26 日社区动态速览: 提示词框架包含四大模块:任务目的、计划规则、格式规则、输出说明。通过明晰的任务拆分与规则定义,让提示更具可操作性,但不可过度依赖,有示例模板可清晰展现相关内容。 Anthropic 的“计算机使用”模型,Claude 有新能力,如可识别屏幕截图,计算光标像素坐标并执行操作,结合了图像识别、推理和动作能力,能将用户指令转化为具体步骤并执行,少量软件训练后能自我纠正并迅速上手。 OpenAI Operator 工作机制,利用虚拟主机、Chrome 浏览器、CUA 实现网页实时操控,能执行复杂导航任务,结合 GPT4o 的视觉处理与强化学习,可处理屏幕截图、推理操作并发送指令,在感知—推理—动作循环中迭代,遇敏感任务则提示用户确认。 开源项目 Browser Use。 1 月 28 日社区动态速览: 华尔街分析师认为 DeepSeek 以小成本实现媲美领先 AI 产品的性能,并在全球主要市场 App Store 登顶,高盛认为其或改变科技格局,降低 AI 行业进入门槛。 DeepSeek 中文场景表现优秀,日常写作和表达习惯贴近人类,但专业论文总结略弱,数学能力不错,编程能力逊于 GPT,采用 GRPO 算法替代传统 PPO,提升语言评价灵活性与训练速度。 复旦大学 OpenMOSS 发布实时语音交互模型,中文语音体验近似 GPT4o 高级语音,响应时间低于 200 毫秒,支持打断和自然互动,可生成多情感、多风格语音,包含方言、戏剧化台词等,多语言适配,嘈杂环境下仍具备强逻辑推理能力。 阿里巴巴推出 Qwen2.51M 模型。
2025-01-30
deepseek
DeepSeek 是一家具有独特特点和优势的公司: 1. 秘方具有硅谷风格:在硅谷受到关注和追逐,其创新架构在硅谷引发轰动,与硅谷有更好的对话和交流。 2. 核心是推理型大模型:不需要用户提供详细步骤指令,能通过理解用户真实需求和场景提供答案。 3. 更懂人话:能够理解用户用自然语言表达的需求,无需学习特定提示词模板。 4. 深度思考:回答问题时能进行深度思考,而非简单罗列信息。 5. 文风转换器:可模仿不同作家文风写作,适用于多种文体和场景。 使用技巧: 1. 可以扔掉提示词模板,用自然语言描述,直接描述真实场景和具体需求,使用提示词模板也没问题。 2. 让 DeepSeek“说人话”,在提问时加上“说人话”“小学生能听懂”“菜市场大妈能听懂的话”等,使其回答更通俗易懂。 3. 激发深度思考,如让其进行批判性思考、反面思考和复盘,恢复深度思考能力。 4. 进行文风转换,通过指定模仿的作家和文体,让其生成符合特定风格的文本。 如果 V3 是 DeepSeek 的 GPT3 时刻,接下来的发展充满未知,但 DeepSeek 应会为全人类的人工智能事业做出更大贡献,且已是中国最全球化的 AI 公司之一。
2025-01-30
deepseek的技术路线是什么样的
DeepSeek 从一开始就选择了与国内诸多大模型新秀不同的技术路线。它走的是全球开源社区路线,分享最直接的模型、研究方法和成果,吸引反馈,再迭代优化,自我进益。开源十分彻底,从模型权重、数据集到预训练方法都悉数公开,高质量的论文也是开源的一部分。 DeepSeek 先后发布了多款开源模型: 1. 2023 年 11 月,发布 DeepSeek Coder 和 DeepSeek LLM,但在计算的效率和可扩展性上遇到挑战。 2. 2024 年 5 月,发布 V2,以混合专家模型(MoE)和多头潜在注意力机制(MLA)技术的结合,大幅降低了模型训练特别是推理的成本,开始引发广泛讨论和推荐。 3. 2024 年 12 月,发布 V3,以 OpenAI、Anthropic 和 Google 百分之一的成本,实现了模型性能超越同类开源模型 Llama 3.1 和 Qwen 2.5,媲美闭源模型 GPT4o 和 Claude 3.5 Sonnet 的成绩,引发轰动,成为世界大语言模型发展的里程碑。 DeepSeek 与 OpenAI 在实现里程碑式跃迁的进程中有以下区别: 1. OpenAI 致力于实现计算资源规模与成本的无限扩张,而 DeepSeek 一直致力用尽可能低成本的计算资源实现更高的效率。 2. OpenAI 花了两年时间达到 GPT3 时刻,而 DeepSeek 用了一年摘得了 V3 的圣杯。 3. OpenAI 在 GPT 路线上一直聚焦在预训练的进步,而 DeepSeek 则是训练与推理并重。 DeepSeek 从隐秘低调到备受关注,以及它从 Coder 到 V3 模型的三次迭代,与 OpenAI 从 GPT1 到 GPT3 的升级节奏和引发的反响非常接近。
2025-01-29
ai最新消息
以下是 AI 领域的一些最新消息: 10 月: Gartner 发布 2025 年十大战略技术趋势。 开源多模态 LLM 框架 Janus。 开源大模型能力评估模型 CompassJudger。 Anthropic 发布新功能 computer use 以及 Claude 3.5 Haiku,更新 Claude 3.5 Sonnet。 Stability AI 发布 Stable Diffusion 3.5。 x.AI 正式推出 API。 ComfyUI V1 官方桌面版开放内测。 华为发布纯血操作系统鸿蒙 OS NEXT。 Jina AI 推出高性能分类器 Classifier API。 OpenAI 发布图像生成模型 sCM。 Midjourney 上线外部图片编辑器。 Runway 发布动画视频功能 ActOne。 Ideogram 推出 AI 画板工具 Canvas。 Genmo 开源视频生成模型 Mochi 1。 荣耀发布操作系统 MagicOS 9.0。 美国 14 岁少年与 C.AI 聊天后离世。 新华社发文表示警惕「AI 污染」乱象。 港中文&趣丸推出 TTS 模型 MaskGCT。 科大讯飞发布讯飞星火 4.0 Turbo。 阿里通义代码模式开始内测。 Anthropic Claude 新增数据分析功能。 北京市大中小学推广 AI 学伴和 AI 导学应用。 稚晖君开源「灵犀 X1」全套资料。 OpenAI 高管 Miles Brundage 离职。 3 月: 有 23 个 AI 新产品,包括来自大公司和成熟创业公司的新产品、有用的、有趣的以及华人开发者所搭建的小产品。 有关于呼吁暂停/禁止大模型训练以及研究 AI 技术发展、垂直领域应用、商业落地形态和人机共生问题的不同立场。 2024 年: 来自剑桥大学、AI 风险投资公司 Air Street Capital 创始人兼 CEO Nathan Benaich 和来自牛津大学、Air Street Capital 平台负责人 Alex Chalmers 共同发表《State of AI Report》2024 人工智能现状报告,主要围绕人工智能(AI)领域的最新进展、政治动态、安全挑战及未来预测几大方面进行说明。
2024-12-16
chatpgt有什么最新消息
以下是关于 ChatGPT 的一些最新消息: Gradio 发布了 Gradio Discord Bot,允许在 Discord 服务器中使用 Spaces 中的演示进行语言翻译、文字转语音、文字生成图像等。 Hugging Face 现在可以使用 Docker Spaces。 OpenAI 预测到 2024 年收入将达到 10 亿美元。 ChatGPT 推出了更新,现在可以查看以前的历史对话。 2024 年 1 月 27 日,ChatGPT 又更新了,推出了新的 Mention 功能,可以在聊天窗口中通过@直接召唤任何 GPTS。 2024 年 4 月 26 日,ChatGPT 更新,正式推出个性化新功能,可以记住用户过去提到的内容,用户可自行决定要记住什么。
2024-09-26
24小时内中国AI医美最新消息
以下是为您找到的关于中国 AI 医美的相关消息: 有一个将 AI 和中医结合的项目,其先是用摄像头观察患者的口腔和舌苔,再用指尖传感器号脉,然后根据观测的数据生成选择题让患者作答,最后 AI 会生成药方。该项目目前应用在辅助看诊,能够提高诊疗效率,创始人的愿景是在未来实现 24 小时独立问诊开药。 但目前没有关于 24 小时内中国 AI 医美最新消息的准确和详尽内容。要获取最新的信息,您可以查阅相关的科技新闻网站、学术论坛或关注人工智能领域的社交媒体平台。
2024-09-17
24小时内中国AI前沿科技最新消息
以下是 24 小时内中国 AI 前沿科技的最新消息: 阿里 CEO 吴泳铭表示将开源国内最大 720 亿参数模型。 京东 CEO 称正在测试 AI 自动生成营销内容。 此外,还有一些国际上的 AI 相关消息: 苹果新专利:CGR 技术生成虚拟形象,展示穿戴效果。 微软 AI 专利:充当治疗师,疏导心理问题。 苹果改造 Siri:明年或用大语言模型。 谷歌 Open Se Cura:为 Pixel 带来低功耗 AI。 微软计划:AI 助手 Copilot 将进入 Windows 10。 亚马逊成立 AI 训练团队,投资数百万美金。 ChatGPT 持续宕机,CEO 道歉。 GitHub Universe 2023 新功能:新的 Copilot 聊天功能,Copilot 支持手机应用,GitHub Copilot Workspace,产问题查询 GitHub Copilot 企业版:每月 39 美元的高级服务。GitHub Copilot 合作伙伴计划,GitHub 高级安全功能。
2024-09-17
AI 数字人最新消息
以下是关于 AI 数字人的最新消息: 目前业界对于数字人的定义尚未统一,一般可根据技术栈分为真人驱动和算法驱动两类。算法驱动数字人的相关开源代码有很多,如 ASR 语音识别方面的 openai 的 whisper(https://github.com/openai/whisper)、wenet(https://github.com/wenete2e/wenet)、speech_recognition(https://github.com/Uberi/speech_recognition,这是一个语音识别的接口集合,包含不同实现的语音识别接口)。AI Agent 大模型部分包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等,Agent 部分可使用 LangChain 的模块进行自定义(https://www.langchain.com/)。TTS 方面,有微软的 edgetts(https://github.com/rany2/edgetts,只能使用里面预设的人物声音,目前接口免费)、VITS(https://github.com/jaywalnut310/vits)以及专注于唱歌的 sovitssvc(https://github.com/svcdevelopteam/sovitssvc,前段时间很火的 AI 孙燕姿就与其相关)。 4 月 25 日的消息: Synthesia 推出新型虚拟数字人 Expressive1,能通过脚本预测表情,数字人可自动解析和理解文本情绪,实现表情和声音同步。链接:https://x.com/imxiaohu/status/1783505405488054433 360 AI 浏览器新版增加了视频总结、提问、转录和翻译功能,支持本地和网络视频的内容分析,但无法提取无对白视频摘要。链接:http://browser.360.cn/ai https://x.com/imxiaohu/status/1783495437422649719 全球最大 AI 知识库“通往 AGI 之路”网站访问量突破 1000 万,网站内容丰富,旨在推动 AI 知识的普及。链接:http://WaytoAGI.com https://x.com/imxiaohu/status/1783475002815471669 日本横须贺市使用 AI 技术克隆市长,用于发布英语信息,技术应用广泛,包括灾难信息传播和旅游信息发布。
2024-09-12
AI数字人的最新消息
以下是关于 AI 数字人的最新消息: 4 月 25 日,Synthesia 推出新型虚拟数字人 Expressive1,能通过脚本预测表情,可自动解析和理解文本情绪,实现表情和声音同步。链接:https://x.com/imxiaohu/status/1783505405488054433 11 月 7 日,百度虚拟数字人“度晓晓”携文心一言入驻淘宝。链接:https://x.com/xiaohuggg/status/1721876724798136544?s=20
2024-09-12