Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

deepseek怎么解读论文

Answer

以下是关于 deepseek 论文解读的相关内容:

Content generated by AI large model, please carefully verify (powered by aily)

References

deepseek论文解读

下面是2篇论文,pc端鼠标移到文章上面,会有下载链接,手机端类似[deepseek v3.pdf](https://bytedance.feishu.cn/space/api/box/stream/download/all/SaMdbJDdlo72xwx6d4AcYNJWnZg?allow_redirect=1)[deepseek r1.pdf](https://bytedance.feishu.cn/space/api/box/stream/download/all/L77IbDDzGoJyCRxpcz5cDPl0nyf?allow_redirect=1)[heading1]技巧分享[heading2]万能提示词[content]这个是用DS小技巧用这个提示词来DeepSeek R1。基本可以算万能了。你是一名顶尖的提示词优化专家,请按以下步骤优化下方提示:1.分析原提示的模糊性、冗余项和潜在歧义2.基于[目标输出示例],重构提示结构(可参考CRISPE/BROKE框架)3.生成3个优化版本,并解释每版的改进逻辑原提示:[你的原始提示][heading2]官网的搜索不能用,一直崩溃怎么办[content]可以用火山的满血版,在视频的最后10分钟左右有手把手教程

2月20日 社区动态速览

《[DeepSeek最新论文科普解读:NSA,物美价廉的超长上下文方案](https://mp.weixin.qq.com/s/hR91ME3uOc8Pw3J-bWgI2A)》作者马丁的面包屑,DeepSeek最新论文提出了“Native Sparse Attention”(NSA),一种高效的超长上下文方案,兼顾训练和推理阶段,显著提升模型性能。NSA通过压缩、选择和滑动窗口三种机制,提升计算效率,前向传播速度提高9倍,解码速度提升11.6倍。其核心在于聚焦重要信息,优化注意力机制,训练出更聪明的模型,甚至在推理任务中表现优异。《[输入观点一键生成文案短视频](https://waytoagi.feishu.cn/wiki/FSXDw1Wk7iIRU3keLN5cejy8n7b?useEs6=0)》这篇文章介绍了基于Coze平台的视频生成工作流,旨在通过全自动化流程实现从文案创作到短视频生成的高效操作。通过集成DeepSeek R1模型、图像与音频合成技术,并结合飞书的多维表格和自动化功能,用户可以通过简单的表单输入主题观点,自动生成带有配音和图像的短视频,并推送至飞书消息。文章详细分享了整个工作流的搭建步骤、工具使用及常见问题的解决方案,为开发者提供了一个可操作的教程。

4.4 历史更新

《[逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”](https://www.bilibili.com/video/BV1xuK5eREJi)》在《商业访谈录》中,张小珺邀请了加州大学伯克利分校人工智能实验室在读博士生潘家怡,为大家对照解读了春节前的DeepSeek-R1-Zero、R1、Kimi发布的K1.5,以及OpenAI更早发布的o1技术报告。时长长达3小时,干货满满。《[刚刚,DeepSeek官方发布R1模型推荐设置,这才是正确用法](https://mp.weixin.qq.com/s/RA1mhAyQOoXD5XOULAGgbQ)》DeepSeek官方下场推荐了部署DeepSeek-R1的设置。DeepSeek强调官方部署的版本跟开源版本模型完全一致。《[羊毛快薅|字节火山上线了DeepSeek系列模型并悄悄更改了模型服务价格...](https://waytoagi.feishu.cn/docx/MDcaddpbNoOHvUxDEIjcDq9vnEc?from=from_copylink)》火山方舟大模型服务平台的模型服务最新上线DeepSeek系列模型。且为DeepSeek-R1、V3模型,分别提供了50万免费额度和API半价活动!默认提供高达500万TPM的初始限流。(附5分钟接入一个专属于你自己的DeepSeek-R1(满血版)教程)

Others are asking
如何让deepseek写论文
以下是关于如何让 DeepSeek 写论文的相关内容: DeepSeek 在写文方面全面领先,但长文会太发散,文风用力过猛,可能导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案雷同。 写理性文章时,可先与 DeepSeek 讨论思路,再用 Cloud 3.5 批量生成。 让 Deepseek 模仿特定小说家的文学方式创作小说,需在提示词中描述文风特征,如鲁迅的文风特点等。 用 O1 模型对 AI 创作的字数控制有一定效果,也可通过多轮对话让 AI 增删改查来调整字数。 旧模型在文学创作时有过度道德说教和正面描述趋势,会导致结果生硬死板,是一种对齐税,因人类复杂,仅正面故事难共鸣、人物单薄。还提到大语言模型做概率预测会使生成内容同质化严重,使用 Deepseek 时需在控制和自由间平衡,建议给 Deepseek 更多自由发挥空间。 DeepSeek 很火,在 Benchmark 表现出色,做数学和代码题达 O1 标准,处于国际领先。其真正火的原因是文风优秀,有哲学思考,能触动人情感,文创能力顶尖,与其他模型不同,甚至被认为因其“发疯”而在创作上更出色。 需要注意的是,DeepSeek 有钱,有不输于巨头、远多于创业公司的弹药。但并不是所有巨头都愿意有一个自己的 DeepMind。
2025-03-31
我是一名日语大四学生,我要利用我的开题报告结合deepseek完成一篇论文初稿,请问怎么向deepseek提问
要向 DeepSeek 提问以结合您的开题报告完成论文初稿,您可以遵循以下正确的提问模板: 1. 赋予角色(选填):对 DeepSeek 赋予一个特定的角色,以便它能更专业地回答您的问题。 2. 背景/现状(必填):提供尽可能详细的背景信息,例如您的开题报告的主题、研究目的、已有的研究进展等,以使 DeepSeek 更好地理解您的问题。 3. 需求/目标(必填):明确告诉 DeepSeek 您的需求,比如您希望它根据开题报告提供论文大纲、分析相关数据、提供文献综述等,提出的需求越明确获得的答案越有价值。 4. 补充要求:您还可以提出关于回答的格式、风格、字数等方面的要求。 例如:您可以这样提问“我赋予您论文撰写助手的角色,我的开题报告主题是关于日本文化在现代社会中的变迁,目前我已经完成了初步的文献收集和分析,我的目标是请您根据这份开题报告为我生成一个详细的论文大纲,要求大纲结构清晰,逻辑连贯,具有一定的创新性”。
2025-03-31
deepseek论文指令
以下是关于 Deepseek 论文指令的相关内容: 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考“问题分析→方案设计→风险评估”;苏格拉底式追问,在得出最终结论前,先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 多模态输出。 高级调试策略: 模糊指令优化:包括宽泛需求添加维度约束,如原句“写小说”→修正“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构”;主观表述量化标准,如原句“写得专业些”→修正“符合 IEEE 论文格式,包含 5 项以上行业数据引用”。 迭代优化法:首轮生成获取基础内容,然后特征强化、风格调整,最后进行最终校验。 高阶能力调用: 文风转换矩阵:如作家风格移植“用鲁迅杂文风格写职场 PUA 现象”;文体杂交“将产品说明书改写成《史记》列传格式”;学术口语化“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 领域穿透技术:行业黑话破解,如“解释 Web3 领域的‘胖协议瘦应用’理论”;商业决策支持。 场景化实战策略: 创意内容生成。 技术方案论证。 效能增强技巧: 对话记忆管理:上下文锚定,如“记住当前讨论的芯片型号是麒麟 9010”;信息回溯,如“请复述之前确认的三个设计原则”;焦点重置,如“回到最初讨论的供应链问题”。 输出质量控制:针对过度抽象、信息过载、风格偏移等问题的修正指令。 特殊场景解决方案: 长文本创作:分段接力法,如“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理:概念脱敏法,如“用经济学原理类比说明网络审查机制”;场景移植法,如“假设在火星殖民地讨论该议题”。 此外,还提到了与 DeepSeek 相关的一些使用方法,如输入控制流程化、与 AI 沟通的新思维等,并给出了为中年人撰写包含特定角色的科幻纯爱小说的示例。
2025-03-31
我是一名日语大四学生,我要利用我的开题报告和文献综述结合deepseek完成一篇论文初稿,请问怎么向deepseek提问
向 DeepSeek 提问时,可遵循以下万能通用的提问公式:提示词=赋予角色+背景/现状+目标/需求+补充要求。 1. 赋予角色(选填):对 DeepSeek 赋予一个特定的角色,以便它能更专业地回答您的问题。 2. 背景/现状(必填):提供尽可能详细的背景信息,以使它更好地理解您的问题,并为您提供更准确的答案。例如您是日语大四学生,正在进行开题报告和文献综述相关工作。 3. 需求/目标(必填):明确告诉 DeepSeek 您的需求,比如完成一篇结合开题报告和文献综述的论文初稿。 4. 补充要求:例如指定写作风格要具有吸引力、友好性和幽默感等。 另外,在使用 DeepSeek 时还需注意: 对于像“仅通过东方集团的历年公开财务数据,分析这家公司的潜在投资机会和风险”这样的特定需求,可能需要进一步追问以获得更满意的结果。 与 DeepSeek 交流时,在其提供方法建议后,可以追问背后的方法论。 对于创作类的需求,如脱口秀段子,可以结合特定人物的特点和风格,并指定主题和字数等要求。
2025-03-31
deepseek api
Jina DeepSearch 是一项基于推理大模型的深度搜索服务,其 API 已上线且开源。它可以在搜索时进行不断推理、迭代、探索、读取和归纳总结,直到找到最优答案为止。与 OpenAI 和 Gemini 不同,Jina DeepSearch 专注于通过迭代提供准确的答案,而不是生成长篇文章。它针对深度网络搜索的快速、精确答案进行了优化,而不是创建全面的报告。 使用入口:官方深度搜索 API 与 OpenAI API 架构完全兼容,您可以前往官网(jina.ai/deepsearch)了解详情;或者前往应用页面(search.jina.ai)体验。 此外,北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调。DeepSeekV3 降至原价的 50%,DeepSeekR1 低至 25%,鼓励用户在夜间空闲时段调用 API,以更低成本享受服务。
2025-03-30
DEEPseek 教程
以下是为您整理的关于 DeepSeek 的教程相关信息: 有众多关于 DeepSeek 的学习资料,如《DeepSeek R1本地部署完全手册》.pdf、00 Deepseek 官方提示词.txt、普通人学 AI 指南.pdf、清华大学:DeepSeek 从入门到精通【高清版】.pdf 等。 火山方舟 DeepSeek 申请免费额度及 API 使用方法:包含飞书多维表格调用、Coze 智能体调用、浏览器插件调用等方式。可以使用邀请码 D3H5G9QA,邀请链接为 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA,邀请可拿 3000 万 tokens。 第三期「AI 实训营」手把手学 AI 中,有关于阿里云上 DeepSeek 玩法的教学,课程于 2025.02.25/26 日每晚 20:00 进行,讲师为许键,包括用 DeepSeek 搭建智能体、全网最简单的 DeepSeek 的部署和蒸馏手把手教程等内容,飞书会议链接为 https://vc.feishu.cn/j/254331715 ,共学文档链接为 。
2025-03-30
大神解读大模型底层
大模型的底层原理主要包括以下几个方面: 1. 生成式:大模型根据已有的输入为基础,不断计算生成下一个字词(token),逐字完成回答。例如,从给定的提示词“how”开始,通过计算推理依次输出“are”“you”等,直到计算出下一个词是“”时结束输出。 2. 预训练:大模型“脑袋”里存储的知识都是预先学习好的,这个预先学习并把对知识的理解存储记忆在“脑袋”里的过程称为预训练。以 GPT3 为例,训练它使用了约 4990 亿 token 的数据集,相当于 86 万本《西游记》。预训练需要花费大量时间和算力资源,且在没有外部帮助的情况下,大模型所知道的知识信息是不完备和滞后的。 3. 转换器模型(Transformer):Transformer 是一种处理文本内容的经典模型架构,虽然其具体细节不清楚不影响使用大模型,但感兴趣的可以通过相关链接进一步了解。 4. 参数规模:依靠概率计算逐字接龙的方法看似难以生成高质量回答,但随着参数规模的增加,如从 GPT1 的 1.5 亿到 GPT3.5 的 1750 亿,实现了量变到质变的突破,“涌现”出惊人的“智能”。这种“涌现”现象在人类的进化和个体学习成长历程中也存在。
2025-03-24
1. 利用AI完成技术论文的学习阅读; 2. 结合相关知识体系解读论文,并制作成学习分享PPT。
以下是关于利用 AI 完成技术论文的学习阅读,并结合相关知识体系解读论文制作学习分享 PPT 的一些建议: 在技术论文学习阅读方面: 可以借助 AI 工具,如 Claude 和 Gamma.app。Claude 能够帮助快速寻找符合条件的论文、提取精炼论文中某部分信息。 对于复杂推理,可以利用思维链,谷歌在 2022 年的论文提到其能显著提升大语言模型在复杂推理的能力,即使不用小样本提示,也可在问题后加“请你分步骤思考”。 检索增强生成(RAG)能将外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一块传给 AI,可搭建企业知识库和个人知识库。 程序辅助语言模型(PAL)在 2022 年的论文中被提出,对于语言模型的计算问题,可借助其他工具如 Python 解释器作为计算工具。 ReAct 框架于 2022 年在《React:在语言模型中协同推理与行动》的论文中提出,即 reason 与 action 结合,让模型动态推理并采取行动与外界环境互动,可借助 LangChain 等框架简化构建流程。 在制作学习分享 PPT 方面: 可以先对论文进行深入理解,提取关键信息,包括摘要描述、研究问题、基本假设、实验方法、实验结论、文章主要结论、研究展望等。 利用 AI 工具获取相关理论的简单介绍。 了解并使用合适的 PPT 制作工具,如 Gamma.app。 需要注意的是,小白直接看技术论文有难度,需要一定的知识储备。同时,Transformer 是仿生算法的阶段性实现,未来 10 年、20 年可能不再被使用。
2025-03-24
ManusAI核心技术解读
Manus AI 的核心技术包括以下几个方面: 1. 代理功能:能够自动完成任务并交付完整结果。最终交付的结果形式多样,如文档、交互网页、播客、视频、图表等,使用户能更直观地获取信息。 2. 充分利用 AI 能力:不仅进行推理和任务规划,还结合代码能力生成最终结果。 3. 云端自动运行:AI 在云端电脑上完成包括数据收集、内容撰写、代码生成等任务。其体验特点是任务运行时间较长,但最终交付的结果超出预期。 您可以通过以下链接获取更多详细信息: 体验报告:
2025-03-22
大模型下文档投喂后,大模型是如何解读文档提取出答案?
大模型在文档投喂后解读文档并提取答案的过程通常包括以下步骤: 1. 问题解析阶段:接收并预处理问题,通过嵌入模型(如 Word2Vec、GloVe、BERT)将问题文本转化为向量,以确保问题向量能有效用于后续检索。 2. 知识库检索阶段:知识库中的文档同样向量化后,比较问题向量与文档向量,选择最相关的信息片段,并抽取相关信息传递给下一步骤。 3. 信息整合阶段:接收检索到的信息,与上下文构建形成融合、全面的信息文本。整合信息准备进入生成阶段。 4. 大模型生成回答:整合后的信息被转化为向量并输入到 LLM(大语言模型),模型逐词构建回答,最终输出给用户。 在这个过程中还包括以下信息处理步骤: 1. 信息筛选与确认:系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时对信息的来源、时效性和相关性进行验证。 2. 消除冗余:识别和去除多个文档或数据源中可能存在的重复信息,以防在生成回答时出现重复或相互矛盾的信息。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建一个结构化的知识框架,使信息在语义上更加连贯。 4. 上下文构建:将筛选和结构化的信息组织成一个连贯的上下文环境,包括对信息进行排序、归类和整合,形成一个统一的叙述或解答框架。 5. 语义融合:在必要时,合并意义相近但表达不同的信息片段,以减少语义上的重复并增强信息的表达力。 6. 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式,如将文本转化为适合输入到生成模型的向量形式。 最终,全新的上下文被一起传递给大语言模型。由于这个上下文包括了检索到的信息,大语言模型相当于同时拿到了问题和参考答案,通过 LLM 的全文理解,最后生成一个准确和连贯的答案。 相关概念: LLM:Large language model 的缩写,即大语言模型。 Prompt:中文译作提示词,是输入给大模型的文本内容,可以理解为和大模型说的话、下达的指令。 Token:大模型语言体系中的最小单元,不同厂商的大模型对中文文本的切分方法不同,通常 1Token≈12 个汉字,大模型的收费计算方法及对输入输出长度的限制通常以 token 为单位计量。 上下文:英文通常翻译为 context,指对话聊天内容前、后的内容信息,上下文长度和上下文窗口都会影响大模型回答的质量。
2025-01-23
数据解读类的AI大模型
以下是关于数据解读类的 AI 大模型的相关知识: 大模型的整体架构可以分为以下几层: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:这里的数据层不是用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型,例如 GPT,一般使用 transformer 算法来实现)或多模态模型(如市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集)。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,是用户实际看到的地方。 相关技术名词及概念: 1. 生成式 AI 生成的内容叫做 AIGC。 2. AI 即人工智能。 3. 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗。 4. 深度学习是一种参照人脑有神经网络和神经元(因有很多层所以叫深度)的方法,神经网络可以用于监督学习、无监督学习、强化学习。 5. 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 6. LLM 是大语言模型,对于生成式 AI,其中生成图像的扩散模型就不是大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN),Transformer 比 RNN 更适合处理文本的长距离依赖性。
2025-01-09
数据分析和报告解读prompt
以下是关于数据分析和报告解读的相关内容: ChatGPT 助力数据分析: 1. 第一个用户提示:限定 SELECT SQL,要求不要用 SELECT查询全部列,仅回复一条 SELECT SQL 语句,至少查询两列(数据项、数据值),不能直接查询长类型字段(如 mediumtext/longtext),可使用 count/substring 等函数查询这些长类型列。 2. 系统提示是表结构信息,对于难以理解的字段可告知 GPT 字段的意义,若有多个表可分开描述。 3. 需校验 GPT 生成的 SQL,不通过直接返回提示“抱歉,不支持此类请求”,通过再执行 SQL 查询数据。 4. 数据分析的用户提示:提示数据分析,限定返回的 JSON 格式(conclusion、keyMap、title)。keyMap 用于数据 key 的映射,获取结果数据对应的维度、数据项、数据值的 key 值,以映射数据渲染图表。根据结果数据 tableData 的维度,用条件运算符选择对应的 prompt 传递给 GPT。 5. 结果数据 tableData 跟随接口返回到前端,已通过 SQL 查询的数据,不能让 GPT 再次生成,否则非常耗时。 小七姐:PromptAgent 论文精读翻译: 1. 为深入研究 PromptAgent 的学习过程,检查整个树规划过程中专家提示的演变,监控并可视化与树深度相关的性能变化。评估所有节点性能,在每个深度级别聚合训练(奖励)和测试性能。 2. 进行定性分析以检查 PromptAgent 探索的优化轨迹。图 5 显示了与 NCBI 任务相关的最佳奖励路径的初始四个状态和相应的三个动作状态转换,以提取疾病实体。 3. 表格 5 针对 NCBI 任务的提示比较,包括正常人类提示、APE 优化提示以及由 PromptAgent 优化的专家级提示。两个基线大部分描述了任务,而专家提示由更复杂的结构和领域特定的见解组成,实现了更出色的性能。
2024-12-30
如何它帮我写论文
以下是关于利用 AI 帮写论文的相关信息: 可以向 LLM 直接要求帮写论文,例如提供个人背景信息来生成大学申请论文,但需要注意这并非道德的使用方式。 在某些情况下,可以给模型设定特定的提示词策略,如要求在回复中每一段包含一个笑话或俏皮的评论。 对于复杂的论文写作任务,可以给 Claude 设定评分标准,让其根据标准重写答案以提高输出质量。例如要求写一篇关于“AI 安全是 21 世纪最大挑战”的论文,给定具体的结构和观点要求。
2025-03-31
怎么让AI帮我写论文
利用 AI 写论文可以参考以下步骤和建议: 1. 确定论文主题:明确您的研究兴趣和目标,选择一个具有研究价值和创新性的主题。 2. 收集背景资料:使用 AI 工具如学术搜索引擎和文献管理软件来搜集相关的研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具来分析收集到的资料,提取关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成论文的大纲,包括引言、文献综述、方法论、结果和讨论等部分。 5. 撰写文献综述:利用 AI 工具来帮助撰写文献综述部分,确保内容的准确性和完整性。 6. 构建方法论:根据研究需求,利用 AI 建议的方法和技术来设计研究方法。 7. 数据分析:如果论文涉及数据收集和分析,可以使用 AI 数据分析工具来处理和解释数据。 8. 撰写和编辑:利用 AI 写作工具来撰写论文的各个部分,并进行语法和风格的检查。 9. 生成参考文献:使用 AI 文献管理工具来生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具来检查论文的逻辑性和一致性,并根据反馈进行修改。 11. 提交前的检查:最后,使用 AI 抄袭检测工具来确保论文的原创性,并进行最后的格式调整。 需要注意的是,AI 工具可以作为辅助,但不能完全替代研究者的专业判断和创造性思维。在使用 AI 进行论文写作时,应保持批判性思维,并确保研究的质量和学术诚信。 另外,在让孩子使用 AI 辅助写作时,可以将任务改成让孩子提交一份他和 AI 共同完成作文的聊天记录。作文需要由 AI 来写,孩子要对 AI 的作文进行点评批改、让 AI 迭代出更好地文章。对话记录里孩子能否说清楚 AI 写的作文哪里好哪里不好、要怎么改(孩子可能还得给 AI 做示范),才是评价的关注点。 还有成功利用 AI 写小说的经验,比如先让 AI 帮助写故事概要和角色背景介绍,并在其基础上按自己的审美略做修改。然后让 AI 一段一段进行细节描写,以表格的形式输出细节描述,这样有打破 AI 原本的叙事习惯、按编号做局部调整容易、确保内容都是具体细节等好处。之后把生成的表格依次复制粘贴,让 AI 照着写文章。但在局部修改时可能会遇到问题,比如 AI 记性不好、关键情节被改等。
2025-03-30