Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

deepseek为什么在古诗词理解上这么弱智?

Answer

DeepSeek 在很多方面表现出色,并非像您认为的在古诗词理解上弱智。它具有以下优点:

  1. 语气还原:能还原帝王的语气,相比其他模型输出更准确恰当,兼顾了古典文字和可读性。
  2. 熟悉历史细节:可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原唐初的历史称谓,如“太极宫”“甘露殿”“掖庭局”“观音婢”“宫门鱼符”等,对“魏徵”等字词的使用也很讲究。
  3. 输出具体且细节惊人:其输出充满具体而惊人的细节,行文的隐喻拿捏到位,如“狼毫蘸墨时发现指尖残留着未洗净的血痂”等句子,虽未直接写“愧疚与野心,挣扎与抱负”,但句句体现。
Content generated by AI large model, please carefully verify (powered by aily)

References

详解:DeepSeek深度推理+联网搜索 目前断档第一

很显然,它的回答是极其优秀的,深入研究,会发现它牛逼在下面几个方面——第一,它首先在语气上还原了一个帝王的语气。而上面其他模型输出尽管表达了意思,但语气完全不对。李世民作为千古一君,绝不可能用上面四家输出结果那样傻的语气说话,而DeepSeek也并没有用力过猛,用相对古典的文字但并没有直接用文言文,体贴地兼顾了可读性。第二,它对历史细节异常熟悉。我猜测这大概率和它支持“深度探索”和“联网搜索”同时开启有关。“太极宫”、“甘露殿”、“掖庭局”、“观音婢”、“宫门鱼符完全还原了唐初的历史称谓。我特意查了一下,“观音婢”是李世民的长孙皇后的乳名,“掖庭局”是内廷用于史官和其他人员的一个专属机构。"魏徵"我以为是想写“魏征”写错了,后来发现“征”是“徵”的简体字,可以说这个AI非常讲究了。第三,和其他AI泛泛而谈的各种大词不同,Deepseek的输出极其具体而充满惊人的细节。“狼毫蘸墨时发现指尖残留着未洗净的血痂”,“史官们此刻定在掖庭局争吵。该用"诛"还是"戮","迫"还是"承"。“只是这次,他不敢触碰我甲胄上元吉的掌印”这些让画面跃然纸上的句子,每一句都没有写“愧疚与野心,挣扎与抱负”,但每一句都写的是“愧疚与野心,挣扎与抱负”,其中行文的隐喻拿捏非常到位,很高级。

详解:DeepSeek深度推理+联网搜索 目前断档第一

很显然,它的回答是极其优秀的,深入研究,会发现它牛逼在下面几个方面——第一,它首先在语气上还原了一个帝王的语气。而上面其他模型输出尽管表达了意思,但语气完全不对。李世民作为千古一君,绝不可能用上面四家输出结果那样傻的语气说话,而DeepSeek也并没有用力过猛,用相对古典的文字但并没有直接用文言文,体贴地兼顾了可读性。第二,它对历史细节异常熟悉。我猜测这大概率和它支持“深度探索”和“联网搜索”同时开启有关。“太极宫”、“甘露殿”、“掖庭局”、“观音婢”、“宫门鱼符完全还原了唐初的历史称谓。我特意查了一下,“观音婢”是李世民的长孙皇后的乳名,“掖庭局”是内廷用于史官和其他人员的一个专属机构。"魏徵"我以为是想写“魏征”写错了,后来发现“征”是“徵”的简体字,可以说这个AI非常讲究了。第三,和其他AI泛泛而谈的各种大词不同,Deepseek的输出极其具体而充满惊人的细节。“狼毫蘸墨时发现指尖残留着未洗净的血痂”,“史官们此刻定在掖庭局争吵。该用"诛"还是"戮","迫"还是"承"。“只是这次,他不敢触碰我甲胄上元吉的掌印”这些让画面跃然纸上的句子,每一句都没有写“愧疚与野心,挣扎与抱负”,但每一句都写的是“愧疚与野心,挣扎与抱负”,其中行文的隐喻拿捏非常到位,很高级。

集合·DeepSeek 提示词方法论

很显然,它的回答是极其优秀的,深入研究,会发现它牛逼在下面几个方面——第一,它首先在语气上还原了一个帝王的语气。而上面其他模型输出尽管表达了意思,但语气完全不对。李世民作为千古一君,绝不可能用上面四家输出结果那样傻的语气说话,而DeepSeek也并没有用力过猛,用相对古典的文字但并没有直接用文言文,体贴地兼顾了可读性。第二,它对历史细节异常熟悉。我猜测这大概率和它支持“深度探索”和“联网搜索”同时开f启有关。“太极宫”、“甘露殿”、“掖庭局”、“观音婢”、“宫门鱼符完全还原了唐初的历史称谓。我特意查了一下,“观音婢”是李世民的长孙皇后的乳名,“掖庭局”是内廷用于史官和其他人员的一个专属机构。"魏徵"我以为是想写“魏征”写错了,后来发现“征”是“徵”的简体字,可以说这个AI非常讲究了。第三,和其他AI泛泛而谈的各种大词不同,Deepseek的输出极其具体而充满惊人的细节。“狼毫蘸墨时发现指尖残留着未洗净的血痂”,“史官们此刻定在掖庭局争吵。该用"诛"还是"戮","迫"还是"承"。“只是这次,他不敢触碰我甲胄上元吉的掌印”这些让画面跃然纸上的句子,每一句都没有写“愧疚与野心,挣扎与抱负”,但每一句都写的是“愧疚与野心,挣扎与抱负”,其中行文的隐喻拿捏非常到位,很高级。

Others are asking
有关名言警句或古诗词的ai工具
以下是为您找到的一些可能与名言警句或古诗词相关的 AI 工具: 1. Verb.ai:这是一个面向小说作家的 AI 增强型、以故事为中心、面向作家的工具。除了文本生成外,还支持创作过程的各个方面,包括计划、写作、审查、获取反馈和修订。官网链接:Verb.ai 2. Orchard:帮助学生克服写作难题,并提升写作水平。 3. Lex:协助学生处理写作相关问题。 此外,文中还提到在教育领域,学生们在作业中利用 AI 助手,如 Grammarly 等。但这些工具并非专门针对名言警句或古诗词。
2024-08-29
本地部署deepseek
DeepSeek 具有多种含义,包括 DeepSeek 公司(深度求索),其网页和手机应用目前免费,但 API 调用收费。DeepSeek 大模型尤其是具有推理功能的 DeepSeek R1 大模型,权重文件开源,可本地部署。 一夜之间,DeepSeek R1 大模型成为国民刚需,但官网卡顿,不能使用联网搜索等问题困扰了很多人。很多平台上线的版本存在各种不足,本地部署的版本能作为替补,但难以长期使用。 通过工作流 + DeepSeek R1 大模型,可实现联网版的 R1 大模型。实现的核心路径包括:拥有扣子专业版账号(若为普通账号,请自行升级或注册专业号),开通 DeepSeek R1 大模型(访问地址:https://console.volcengine.com/cozepro/overview?scenario=coze ,在火山方舟中找到开通管理,开通服务,并添加在线推理模型),创建智能体。
2025-02-19
我是一个小白,我想要一个deepseek学习路线
以下是为您提供的 DeepSeek 学习路线: 1. 首先,通过相关报道和研究,了解 DeepSeek 在全球 AI 社区的意义,包括技术突破与资源分配策略。重点关注其长上下文能力、量化商业模式以及对 AI 生态系统的深远影响。您可以参考: 2. 深入研究 DeepSeek 在架构和工程上的创新,例如 MoE、MLA、MTP 和 FP8 混合精度训练。思考其在工程和应用平衡中的高效优化方式,以及开源与闭源竞争的相关反思和 AI 生态未来发展方向。相关内容: 3. 了解 DeepSeek R1 模型,它属于基于强化学习 RL 的推理模型,在回答用户问题前会先进行“自问自答”式的推理思考来提升回答质量。理解这种模拟人类深度思考的能力以及其背后独特的“教育方式”。 4. 学习 DeepSeek 深夜发布的大一统模型 JanusPro,它将图像理解和生成统一在一个模型中。了解其具有的两种本领,包括理解模式和画画模式,以及其核心的 DeepSeek 语言模型、特别训练法、与 Diffusion 模型的区别、好处和关键设计等方面。
2025-02-19
我想了解关于Deepseek的信息
以下是关于 DeepSeek 的信息: 1. 华尔街分析师的反应:DeepSeek 展示出媲美领先 AI 产品性能的模型,成本仅为一小部分,在全球主要市场的 App Store 登顶。但 Jefferies 警告其技术可能打破资本开支狂热,Citi 对其技术突破提出质疑,高盛预测其可能改变科技巨头与初创公司的竞争格局,降低 AI 行业进入门槛。 2. 实际使用体验:在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化,表现不错;编程能力略逊于 GPT。采用 GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。 3. 相关链接:
2025-02-19
deepseek最近有什么新进展
DeepSeek 近期有以下新进展: 深夜发布大一统模型 JanusPro,将图像理解和生成统一在一个模型中。 模型(7B):https://huggingface.co/deepseekai/JanusPro7B 模型(1B):https://huggingface.co/deepseekai/JanusPro1B JanusPro 是一种新型的自回归框架,通过将视觉编码解耦为独立的路径解决先前方法的局限性,同时利用单一的统一变压器架构进行处理。解耦缓解了视觉编码器在理解和生成中的角色冲突,增强了框架的灵活性,超越了之前的统一模型,并匹配或超过了特定任务模型的性能,成为下一代统一多模态模型的有力候选者。 在编码任务中已成为社区的最爱,其组合了速度、轻便性和准确性而推出的 deepseekcoderv2。
2025-02-19
deepseek
DeepSeek 是一家具有独特特点和影响力的公司: 1. 其秘方具有硅谷特色: 不是“中国式创新”的产物,不能简单地将其比喻成“AI 界的拼多多”或认为其秘方就是多快好省。 早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发轰动。 是中国最全球化的 AI 公司之一,赢得全球同行甚至对手尊重的秘方也是硅谷味儿的。 2. V3 可能是 DeepSeek 的 GPT3 时刻,未来发展充满未知但值得期待。 3. 关于提示词 HiDeepSeek: 效果对比:可通过 Coze 做小测试对比。 使用方法:包括搜索 www.deepseek.com 点击“开始对话”、发送装有提示词的代码、阅读开场白后正式开始对话等步骤。 设计思路:将 Agent 封装成 Prompt 并储存在文件,实现多种功能,优化输出质量,设计阈值系统,用 XML 进行规范设定等。 完整提示词:v 1.3。 特别鸣谢:李继刚的【思考的七把武器】提供思考方向,Thinking Claude 是设计灵感来源,Claude 3.5 Sonnet 是得力助手。
2025-02-19
关于deepseek的简介
DeepSeek(深度求索)是一家专注于人工智能基础技术研究的科技公司。 公司背景方面: 成立时间:2023 年 9 月。 总部:中国杭州。 定位:聚焦大模型研发与应用,致力于提供高效、安全、可控的 AI 技术解决方案。 关于其模型 DP 模型: 功能:能进行自然语言理解与分析、编程、绘图,如 SVG、MA Max 图表、react 图表等。 使用优势:可以用更少的词让模型做更多事,思维发散,能给出创意思路和高级内容。 存在问题:思维链长不易控制,可能输出看不懂或胡编乱造的内容,增加纠错成本。 审核方法:可以用其他大模型来解读 DP 模型给出的内容。 使用建议:使用时要有自己的思维雏形,多看思考过程,避免被模型冲刷原有认知。 使用场景:包括阅读、育儿、写作、随意交流等方面。 此外,Deepseek 相关文档在 3 群和 4 群有分享,也可在 v to a gi 的飞书知识库中搜索获取。未来活动预告包括明天后天在摩纳社区提供免费算力资源带大家学习炼丹,周一晚上学习多维表格中接入 DeepSeek。
2025-02-19
deepseek的论文里面讲的混合专家模型怎么理解
混合专家(MoE)模型是一种在深度学习中提升计算效率的架构。以 DeepSeek 为例,其最新模型 V3 与 R1 采用了这种架构。 在 DeepSeek 的 V3 模型中,引入了多头潜注意力(MLA),将 KV 缓存压缩至新低,从而提升了计算性能。R1 模型则通过强化学习激活推理能力,首次验证无需监督微调即可实现推理。 DeepSeek 的 2360 亿参数的 DeepSeekV2 是 60 位专家混合开源模型,在数学、编码和推理方面表现出色,具有 236B 参数,21B 在生成过程中被激活,在 MTBench 上表现优异,中文能力强且性价比高。 您可以通过以下链接获取更详细的介绍:https://xiaohu.ai/p/7468 、https://zhuanlan.zhihu.com/p/21208287743 。
2025-02-19
如何理解Deepseek认知启发式的设计理念
DeepSeek 认知启发式的设计理念主要包括以下几个方面: 1. 将 Agent 封装成 Prompt,并将 Prompt 储存在文件中,以保证最低成本的人人可用,同时减轻调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,通过思考减轻 AI 味,增加可读性。 4. 参照大模型的 temperature 设计了阈值系统,但可能形式大于实质,后续可能根据反馈修改。 5. 用 XML 来进行更为规范的设定,而非 Lisp(有难度)和 Markdown(运行不太稳定)。 此外,DeepSeek 具有以下特点: AI 特性定位:支持多模态理解,包括文本/代码/数学公式混合输入;具备动态上下文,即对话式连续记忆(约 4K tokens 上下文窗口);具有任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 在提示词系统方面: 基础指令框架包括四要素模板、格式控制语法等。格式控制语法中,强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号中>表示关键要求,!表示禁止项。 进阶控制技巧包含思维链引导、知识库调用、多模态输出。思维链引导中有分步标记法和苏格拉底式追问;知识库调用中有领域限定指令和文献引用模式。 HiDeepSeek 是为解决使用 AI 工具时答案思考过程不可见的问题而设计的工具,其核心目标是让 AI 像人类交流时那样展示思考过程,在技术层面通过特别规则实现,例如要求 AI 思考像人类一样自然。它能帮助用户更好地理解和使用 AI,让 AI 成为更好的助手。
2025-02-11
扣子工作流上传图片并让AI理解图片内容
扣子工作流可以实现上传图片并让 AI 理解图片内容。具体步骤如下: 1. 上传输入图片:将本地图片转换为在线 OSS 存储的 URL,以便在平台中进行调用。 2. 理解图片信息,提取图片中的文本内容信息:通过封装的图片理解大模型和图片 OCR 等插件来实现。 3. 场景提示词优化/图像风格化处理。 4. 返回文本/图像结果。 在搭建工作流时,主要关注以下几个步骤: 1. 点击工作流后面的“➕”来添加一个工作流。 2. 点击创建工作流。 3. 给工作流起名字和描述,名字只能用字母、数字和下划线,描述清晰以便区分。 4. 初始化的工作流:左边有各种可用的插件和搭建 Agent 的工具,可通过点击加号或直接拖拽使用。插件一般有对应的参数说明,初始化后会生成开始模块和结束模块,且只能以开始模块启动,结束模块终结工作流。 此外,扣子平台具有以下特点和功能: 1. 集成了丰富的插件工具,包括资讯阅读、旅游出行、效率办公、图片理解等 API 及多模态模型,支持内置插件和自定义插件。 2. 提供简单易用的知识库功能来管理和存储数据,支持多种格式的数据上传,包括文本格式、表格格式,也支持本地文件和在线网页内容及 API JSON 数据的上传。 3. 具有持久化的记忆能力,可记住用户对话的重要参数或内容。 4. 工作流功能灵活,可通过拖拉拽的方式搭建处理逻辑复杂且稳定性要求高的任务流。
2025-02-10
长文本理解能里较强的AI
以下是一些长文本理解能力较强的 AI 模型: 1. 智谱·AI 的 ChatGLM26B32k:这是第二代 ChatGLM 长上下文对话模型,在 ChatGLM26B 的基础上进一步强化了对于长文本的理解能力,能够更好地处理最多 32K 长度的上下文。在实际使用中,如果上下文长度基本在 8K 以内,推荐使用 ChatGLM26B;如果需要处理超过 8K 的上下文长度,推荐使用 ChatGLM26B32K。此外,还有 ChatGLM26B32kint4 版本,它是 ChatGLM26B32K 的 int4 版本。 2. 通义千问的 Qwen2.51M:推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT4omini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速。首次将开源 Qwen 模型的上下文扩展到 1M 长度。在上下文长度为 100 万 Tokens 的大海捞针任务中,Qwen2.51M 能够准确地从 1M 长度的文档中检索出隐藏信息。其开源平台包括 Huggingface(https://huggingface.co/spaces/Qwen/Qwen2.51MDemo)和 Modelscope(https://www.modelscope.cn/studios/Qwen/Qwen2.51MDemo)。
2025-02-09
从行业角度怎么理解AI行业
从行业角度理解 AI 行业可以从以下几个方面来看: 1. 领军人物与公司:以 OpenAI 及其掌舵人山姆·奥特曼为例,了解其为人处事态度和原则,以及宏伟构想,有助于洞悉 AI 行业的理念趋势。 2. 行业渗透率:AI 对各行业的渗透呈现出不同的生态位。如智能驾驶和具身智能行业对 AI 技术需求紧密且伴生性强,处于第一梯队;营销、游戏、影视和智能硬件行业处于第二梯队,通过 AI 技术实现生产降本增效和行业升级;教育和医疗基础行业处于第三梯队,在政策支持下积极拥抱 AI 技术,但对安全可控性有更高要求。行业的数据基础和用户需求是影响 AI 技术渗透和变革力的关键因素。 3. 创投情况:2024 年,AI 仍是最强吸金赛道。国内 AI 行业融资总金额增加,但事件数同比下降,马太效应明显,资本更青睐热点和高成熟度赛道。智能驾驶在各细分赛道中独占鳌头,AI+教育、AI+游戏、AI+医疗等赛道投资总额也有所增长。同时,政府积极推进 AI 原生行业发展,出台政策吸引人才和企业,国家队频繁出手投资体现政策支持。
2025-02-09
请给我整理一套怎么才能学习和使用AI的方法,列举几个例子是怎么能快速的理解ai的发展历史及原理
以下是一套学习和使用 AI 的方法,以及帮助您快速理解 AI 发展历史及原理的途径: 一、学习 AI 的方法 1. 了解 AI 基本概念 阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅 在「」中,找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习 AI 领域广泛(比如图像、音乐、视频等),根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 二、快速理解 AI 发展历史及原理的途径 1. AI 背景知识 基础理论:了解人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等线性代数基本概念。 概率论:基础的概率论知识,如条件概率、贝叶斯定理。 3. 算法和模型 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:简介强化学习的基本概念。 4. 评估和调优 性能评估:了解如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础 网络结构:理解神经网络的基本结构,包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 无论是技术研究还是应用实践,数学和编程基础都是必不可少的。同时需要紧跟前沿技术发展动态,并结合实际问题进行实践锻炼。
2025-02-07