Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

deepseek为什么在古诗词理解上这么弱智?

Answer

DeepSeek 在很多方面表现出色,并非像您认为的在古诗词理解上弱智。它具有以下优点:

  1. 语气还原:能还原帝王的语气,相比其他模型输出更准确恰当,兼顾了古典文字和可读性。
  2. 熟悉历史细节:可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原唐初的历史称谓,如“太极宫”“甘露殿”“掖庭局”“观音婢”“宫门鱼符”等,对“魏徵”等字词的使用也很讲究。
  3. 输出具体且细节惊人:其输出充满具体而惊人的细节,行文的隐喻拿捏到位,如“狼毫蘸墨时发现指尖残留着未洗净的血痂”等句子,虽未直接写“愧疚与野心,挣扎与抱负”,但句句体现。
Content generated by AI large model, please carefully verify (powered by aily)

References

详解:DeepSeek深度推理+联网搜索 目前断档第一

很显然,它的回答是极其优秀的,深入研究,会发现它牛逼在下面几个方面——第一,它首先在语气上还原了一个帝王的语气。而上面其他模型输出尽管表达了意思,但语气完全不对。李世民作为千古一君,绝不可能用上面四家输出结果那样傻的语气说话,而DeepSeek也并没有用力过猛,用相对古典的文字但并没有直接用文言文,体贴地兼顾了可读性。第二,它对历史细节异常熟悉。我猜测这大概率和它支持“深度探索”和“联网搜索”同时开启有关。“太极宫”、“甘露殿”、“掖庭局”、“观音婢”、“宫门鱼符完全还原了唐初的历史称谓。我特意查了一下,“观音婢”是李世民的长孙皇后的乳名,“掖庭局”是内廷用于史官和其他人员的一个专属机构。"魏徵"我以为是想写“魏征”写错了,后来发现“征”是“徵”的简体字,可以说这个AI非常讲究了。第三,和其他AI泛泛而谈的各种大词不同,Deepseek的输出极其具体而充满惊人的细节。“狼毫蘸墨时发现指尖残留着未洗净的血痂”,“史官们此刻定在掖庭局争吵。该用"诛"还是"戮","迫"还是"承"。“只是这次,他不敢触碰我甲胄上元吉的掌印”这些让画面跃然纸上的句子,每一句都没有写“愧疚与野心,挣扎与抱负”,但每一句都写的是“愧疚与野心,挣扎与抱负”,其中行文的隐喻拿捏非常到位,很高级。

详解:DeepSeek深度推理+联网搜索 目前断档第一

很显然,它的回答是极其优秀的,深入研究,会发现它牛逼在下面几个方面——第一,它首先在语气上还原了一个帝王的语气。而上面其他模型输出尽管表达了意思,但语气完全不对。李世民作为千古一君,绝不可能用上面四家输出结果那样傻的语气说话,而DeepSeek也并没有用力过猛,用相对古典的文字但并没有直接用文言文,体贴地兼顾了可读性。第二,它对历史细节异常熟悉。我猜测这大概率和它支持“深度探索”和“联网搜索”同时开启有关。“太极宫”、“甘露殿”、“掖庭局”、“观音婢”、“宫门鱼符完全还原了唐初的历史称谓。我特意查了一下,“观音婢”是李世民的长孙皇后的乳名,“掖庭局”是内廷用于史官和其他人员的一个专属机构。"魏徵"我以为是想写“魏征”写错了,后来发现“征”是“徵”的简体字,可以说这个AI非常讲究了。第三,和其他AI泛泛而谈的各种大词不同,Deepseek的输出极其具体而充满惊人的细节。“狼毫蘸墨时发现指尖残留着未洗净的血痂”,“史官们此刻定在掖庭局争吵。该用"诛"还是"戮","迫"还是"承"。“只是这次,他不敢触碰我甲胄上元吉的掌印”这些让画面跃然纸上的句子,每一句都没有写“愧疚与野心,挣扎与抱负”,但每一句都写的是“愧疚与野心,挣扎与抱负”,其中行文的隐喻拿捏非常到位,很高级。

集合·DeepSeek 提示词方法论

很显然,它的回答是极其优秀的,深入研究,会发现它牛逼在下面几个方面——第一,它首先在语气上还原了一个帝王的语气。而上面其他模型输出尽管表达了意思,但语气完全不对。李世民作为千古一君,绝不可能用上面四家输出结果那样傻的语气说话,而DeepSeek也并没有用力过猛,用相对古典的文字但并没有直接用文言文,体贴地兼顾了可读性。第二,它对历史细节异常熟悉。我猜测这大概率和它支持“深度探索”和“联网搜索”同时开f启有关。“太极宫”、“甘露殿”、“掖庭局”、“观音婢”、“宫门鱼符完全还原了唐初的历史称谓。我特意查了一下,“观音婢”是李世民的长孙皇后的乳名,“掖庭局”是内廷用于史官和其他人员的一个专属机构。"魏徵"我以为是想写“魏征”写错了,后来发现“征”是“徵”的简体字,可以说这个AI非常讲究了。第三,和其他AI泛泛而谈的各种大词不同,Deepseek的输出极其具体而充满惊人的细节。“狼毫蘸墨时发现指尖残留着未洗净的血痂”,“史官们此刻定在掖庭局争吵。该用"诛"还是"戮","迫"还是"承"。“只是这次,他不敢触碰我甲胄上元吉的掌印”这些让画面跃然纸上的句子,每一句都没有写“愧疚与野心,挣扎与抱负”,但每一句都写的是“愧疚与野心,挣扎与抱负”,其中行文的隐喻拿捏非常到位,很高级。

Others are asking
古诗词AI
以下是关于古诗词 AI 的相关内容: 在即梦 AI 视频生成中,对于古诗词的输入,应避免直接使用,而将其转化为更具体、详细的描述,例如“举头望明月”可编写为“一位中国古代的男人抬头看着天空中的月亮”/“An ancient Chinese man is raising his head towards the moon”。同时要注意避免输入超长脚本、抽象描述等。 在游戏《逆水寒》中,有 AI 作宋词的设定,在游戏中超过 40 个热门景点设置了 AI 作词打卡点。但文字生成在游戏中的作用更多是丰富体验,对情节发展影响不大。 关于让 Claude 帮做“古诗词卡片”,整个流程较为简单,输入 Prompt 后,用户再输入主题、风格,AI 就会输出结果。提示词已开源,获取方式多样。
2025-02-24
有关名言警句或古诗词的ai工具
以下是为您找到的一些可能与名言警句或古诗词相关的 AI 工具: 1. Verb.ai:这是一个面向小说作家的 AI 增强型、以故事为中心、面向作家的工具。除了文本生成外,还支持创作过程的各个方面,包括计划、写作、审查、获取反馈和修订。官网链接:Verb.ai 2. Orchard:帮助学生克服写作难题,并提升写作水平。 3. Lex:协助学生处理写作相关问题。 此外,文中还提到在教育领域,学生们在作业中利用 AI 助手,如 Grammarly 等。但这些工具并非专门针对名言警句或古诗词。
2024-08-29
deepseek api
Jina DeepSearch 是一项基于推理大模型的深度搜索服务,其 API 已上线且开源。它可以在搜索时进行不断推理、迭代、探索、读取和归纳总结,直到找到最优答案为止。与 OpenAI 和 Gemini 不同,Jina DeepSearch 专注于通过迭代提供准确的答案,而不是生成长篇文章。它针对深度网络搜索的快速、精确答案进行了优化,而不是创建全面的报告。 使用入口:官方深度搜索 API 与 OpenAI API 架构完全兼容,您可以前往官网(jina.ai/deepsearch)了解详情;或者前往应用页面(search.jina.ai)体验。 此外,北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调。DeepSeekV3 降至原价的 50%,DeepSeekR1 低至 25%,鼓励用户在夜间空闲时段调用 API,以更低成本享受服务。
2025-03-30
DEEPseek 教程
以下是为您整理的关于 DeepSeek 的教程相关信息: 有众多关于 DeepSeek 的学习资料,如《DeepSeek R1本地部署完全手册》.pdf、00 Deepseek 官方提示词.txt、普通人学 AI 指南.pdf、清华大学:DeepSeek 从入门到精通【高清版】.pdf 等。 火山方舟 DeepSeek 申请免费额度及 API 使用方法:包含飞书多维表格调用、Coze 智能体调用、浏览器插件调用等方式。可以使用邀请码 D3H5G9QA,邀请链接为 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA,邀请可拿 3000 万 tokens。 第三期「AI 实训营」手把手学 AI 中,有关于阿里云上 DeepSeek 玩法的教学,课程于 2025.02.25/26 日每晚 20:00 进行,讲师为许键,包括用 DeepSeek 搭建智能体、全网最简单的 DeepSeek 的部署和蒸馏手把手教程等内容,飞书会议链接为 https://vc.feishu.cn/j/254331715 ,共学文档链接为 。
2025-03-30
deepseek
DeepSeek 具有以下特点: 1. 其秘方被认为是硅谷味儿的。将其比喻成“AI 界的拼多多”是偏颇的,早在 2024 年 5 月 DeepSeekV2 发布时,就以多头潜在注意力机制(MLA)架构的创新在硅谷引发轰动,而当时在国内舆论场被描摹成“大模型价格战的发起者”。 2. 如果 V3 是 DeepSeek 的 GPT3 时刻,接下来的发展未知,但它已成为中国最全球化的 AI 公司之一,赢得尊重的秘方也是硅谷味儿的。 3. 华尔街分析师对 DeepSeek 有不同反应,如 Jefferies 警告其技术可能打破资本开支狂热,Citi 对其技术突破提出质疑,高盛预测其可能改变竞争格局等。 4. 在实际使用体验方面,文字能力在中文场景中表现突出,符合日常写作习惯,但在专业论文总结方面稍弱;数学能力经过优化表现不错,编程能力略逊于 GPT。GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。
2025-03-30
怎么下载deepseek
以下是关于 DeepSeek 的相关信息及下载方式: 论文下载: 下载方式:pc 端鼠标移到文章上面,会有下载链接,手机端类似。 模型下载地址:https://github.com/deepseekai/Janus 活动信息: DeepSeek+阿里云实训营全新升级上线,不用下载,教您稳定调用、开发满血版 DeepSeek 智能体,更多隐藏玩法等您解锁。2 月 20 日周四下午 2 点开始在线直播,可通过参与。 金融行业·大模型挑战赛|用大模型理解金融市场,初赛阶段(2024/12/3 2025/2/10),详情: 。 全新 AI 整活第六期|DeepSeek 小说家,投稿内容:使用 DeepSeek 写一篇以“反转”为主题的 1000 字内短篇小说。投稿地址:通往 AGI 之路 腾讯频道 【deepseek 专区】点击投稿,2 月 16 日晚 8 点截止并现场直播评选。活动详情: 。
2025-03-30
deepseek
DeepSeek 的秘方具有硅谷特色: 早在 2024 年 5 月 DeepSeekV2 发布时,其以多头潜在注意力机制(MLA)架构的创新在硅谷引发小范围轰动,V2 的论文在 AI 研究界被广泛分享和讨论。 当时在国内舆论场,DeepSeek 被描摹成“大模型价格战的发起者”,形成平行时空的感觉。 如果 V3 是 DeepSeek 的 GPT3 时刻,接下来的发展充满未知,但 DeepSeek 已成为中国最全球化的 AI 公司之一,其赢得尊重的秘方也是硅谷味儿的。 华尔街分析师对 DeepSeek 的反应: DeepSeek 展示出媲美领先 AI 产品性能的模型,成本低,在全球主要市场的 App Store 登顶。 Jefferies 警告其技术可能打破资本开支狂热,Citi 对其技术突破提出质疑,高盛预测其可能改变科技巨头与初创公司的竞争格局,降低 AI 行业进入门槛。 DeepSeek 的实际使用体验: 文字能力在中文场景中突出,符合日常和写作习惯,但在专业论文总结方面稍弱。 数学能力经过优化表现不错,编程能力略逊于 GPT。 GRPO 算法替代传统 PPO,降低价值函数估计难度,提高语言评价场景的灵活性与训练速度。 此外,复旦大学 OpenMOSS 发布实时语音交互模型。
2025-03-30
deepseek写论文
以下是关于使用 DeepSeek 写论文的相关信息: 有人使用 DeepSeek 写论文,如 Yvonne。 DeepSeek 在写文方面全面领先,但长文可能会太发散,文风用力过猛,可能导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案雷同。 写理性文章时,可先与 DeepSeek 讨论思路,再用 Cloud 3.5 批量生成。 控制创作字数方面,可用 O1 模型对 AI 创作的字数控制有一定效果,也可通过多轮对话让 AI 增删改查来调整字数。
2025-03-30
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26
有哪些公司主要做数据处理,比如把文档转化成ai可理解的东西
以下是一些主要从事数据处理,将文档转化为 AI 可理解内容的公司: 在基础模型领域,有 OpenAI、Google、Cohere、AI21、Stability.ai 等公司,它们在构建大型语言模型方面展开竞争。此外,还有新兴的开源选项如 Eleuther。 像 Hugging Face 这种共享神经网络模型的社群,在软件 2.0 时代可能成为智慧的枢纽和人才中心。 还有一些独立应用公司,例如 Jasper(创意文案)、Synthesia(合成语音与视频)等,它们涉及 Creator&Visual Tools、Sales&Marketing、Customer Support、Doctor&Lawyers、Assistants、Code、Testing、Security 等各种行业。
2025-03-25
模型理解汉字能力很差
目前模型在理解汉字方面存在一些问题,主要表现为: 1. 语义理解较差,例如在某些应用场景中对中文的理解不够准确。 2. 中文汉字的集合较大,纹理结构更复杂,增加了理解难度。 3. 缺少中文文字的图文对数据,影响了模型对汉字的学习和理解。 为了提升模型对中文文字的生成能力,采取了以下措施: 1. 选择 50000 个最常用的汉字,机造生成千万级的中文文字图文对数据集,但机造数据真实性不足。 2. 实用 OCR 和 MLLM 生成海报、场景文字等真实中文文字数据集,约百万量级。通过结合高质量真实数据,提升了中文文字生成能力的真实性,即使是真实数据中不存在的汉字的真实性也有所提高。
2025-03-24
我是一名硬件工程师 如何让ai快速理解我的原理图并优化
以下是关于让 AI 理解原理图并优化的相关知识: 1. 在 AI 硬件发展方面,存算一体的方式是未来的趋势。对比人脑,其能耗低,使用存算一体的芯片有望诞生全新算法,运行几百亿参数的大模型的最佳架构也是存算一体,因其避免了数据搬运。 2. 大模型在通用知识方面较强,但对专业领域知识了解不足。将大模型与私域知识结合有 5 种方法:重新训练(拿私域数据重新训练大模型)、微调(拿私有数据 finetuning 大模型)、RAG(将知识库里的知识搜索送进大模型)、关键词工程(写好提示词)、加长 Context(当 Context 能无限长时,可将知识和记忆 prefill 到 Context 里)。学术界中,做深度学习的人偏向于用 RAG,做过搜索的人偏向于用 Long Context。 3. 在 Trae 优化代码方面,当请求“帮我把当前的代码给优化一下”时,请求先到 Trae 自己的服务器,服务器再请求对应模型返回数据。不会发送本地代码文件,只发送“文件名”加“问题”,且在最开始 Trae 打开项目进行索引构建时,已在云端构建好项目文件。 对于您作为硬件工程师让 AI 快速理解原理图并优化的需求,目前可能需要进一步探索如何将原理图的特征和相关信息转化为适合 AI 处理和理解的形式,或许可以借鉴上述将专业知识与大模型结合的方法,以及利用高效的数据库和模型架构来提高处理效率。
2025-03-23
通俗易懂地解释一下什么叫AGI,和我们平常理解的AI有什么区别
AGI 即通用人工智能,指的是一种能够完成任何聪明人类所能完成的智力任务的人工智能。 与平常理解的 AI 相比,平常的 AI 往往是针对特定领域或任务进行设计和优化的,例如下围棋、图像识别等。而 AGI 涵盖了更广泛的认知技能和能力,不仅限于特定领域,包括推理、规划、解决问题、抽象思维、理解复杂思想、快速学习和从经验中学习等,并且要求这些能力达到或超过人类水平。 在 AI 发展历程中,早期的研究有对智能的宏伟目标追求,但很多研究进展是狭义地关注明确定义的任务。直到 2000 年代初,“通用人工智能”(AGI)这一名词流行起来,强调从“狭义 AI”向更广泛的智能概念转变,回应了早期 AI 研究的长期抱负和梦想。 例如,GPT3 及其后续版本在某种程度上是朝着 AGI 迈出的巨大一步,早期的语言模型则没有像 GPT3 这样连贯回应的能力。
2025-03-22
langchain到底是什么。如何理解。
LangChain 是一个用于构建高级语言模型应用程序的框架,旨在简化开发人员使用语言模型构建端到端应用程序的过程。 它具有以下特点和优势: 1. 提供了一系列工具、组件和接口,使利用大型语言模型(LLM)和聊天模型创建应用程序更便捷。 2. 核心概念包括组件和链,组件是模块化构建块,可组合创建强大应用,链是一系列组件或其他链的组合,用于完成特定任务。 3. 具有模型抽象功能,能为用例选择合适模型,并利用组件构建应用。 4. 支持创建和管理提示模板,引导语言模型生成特定输出。 5. 允许开发人员定义处理步骤链,完成复杂任务。 6. 支持构建代理,能使用语言模型做决策并调用工具。 7. 支持多种用例,如针对特定文档的问答、聊天机器人、代理等,可与外部数据源交互收集数据,并提供内存功能维护状态。 LangChain 还是一个为简化大模型应用开发而设计的开源框架,通过提供模块化的工具和库,允许开发者轻松集成和操作多种大模型,将更多精力投入到创造应用的核心价值上。其设计注重简化开发流程,支持广泛的模型,具备良好的可扩展性,以适应业务需求变化。作为得到社区广泛支持的开源项目,拥有活跃的贡献者和持续更新,提供全面的文档和示例代码帮助新用户快速掌握,同时充分考虑了应用的安全性和用户数据的隐私保护,是多语言支持的灵活框架,适用于各种规模的项目和不同背景的开发者。 LangChain 官方手册:https://python.langchain.com/docs/get_started/introduction/
2025-03-21