以下是为 Deep Seek 设置长篇小说作家角色设定时可以考虑的指令:
在设置指令时,应尽量具体、清晰,避免过于宽泛和模糊的表述,例如将“写小说”优化为“创作以 AI 觉醒为背景的悬疑长篇,采用多视角叙事结构,人物形象鲜明,情节跌宕起伏,语言优美生动,字数不少于 20 万字”。同时,对于生成的内容,可以通过多轮对话进行增删改查,以达到理想的效果。
当用户在【引导】节点输入“开始游戏”之后,Coze会执行如下流程(图5):图5用户输入“开始游戏”触发的执行流程我们先来看一下第一次LLM调用的输入(图5):忽略其他参数,我们关注messages列表。列表中只有一条消息,它的内容是:这是一段系统提示词,这就是Coze用来处理多Agent跳转的关键。提示词有5个部分:INSTRUCTION,是一段指令,包含角色设定和简要的任务描述。注意,这段提示词给LLM描述的任务是“根据用户需求和最新的聊天记录,从以下Agent列表中选择最合适的Agent”。AGENTS/BOTS LIST,是候选的Agent列表。agent_id是一个序号,供LLM选择。agent_name就是你给Agent节点设置的名字。condition就是你在Agent节点设置的适用场景(Scenarios)(图6)。USER REQUEST,就是你在【切换节点设置】界面设置的自定义提示词(见图7)。至于我为什么在这里写了一段有些奇怪的提示词,我下面马上会解释。CONSTRAINT,是一些限制条件。这里还告诉LLM,在没有合适的Agent时,要输出0,表示不跳转。PREVIOUS CONVERSATION HISTORY,是之前的对话历史。Coze提供了一个选项,可以控制这个传给跳转模型的对话记录的长度(见图7),但是这个选项并没有效果(应该是Bug)。图6适用场景图7自定义提示词前面说Coze的多Agent跳转总是不可靠,我们从这段短短的提示词中就可以找到几个导致不稳定的因素:
虽然R1推理能力比较强,有些你想表达的不一定完全与模型吻合,因此建议可以多加清晰指令[heading3]1.模糊指令优化[content]|问题类型|修正方案|示例对比||-|-|-||宽泛需求|添加维度约束|原句:"写小说"→修正:"创作以AI觉醒为背景的悬疑短篇,采用多视角叙事结构"||主观表述|量化标准|原句:"写得专业些"→修正:"符合IEEE论文格式,包含5项以上行业数据引用"|[heading3]2.迭代优化法[content]1.首轮生成:获取基础内容2.特征强化:请加强第三段的技术细节描述3.风格调整:改用学术会议报告语气,添加结论部分4.最终校验:检查时间逻辑一致性,列出可能的事实性错误[heading2]五、行业应用案例[heading3]1.技术开发场景[heading3]2.商业分析场景[heading2]六、异常处理方案[content]信息幻觉:追加请标注所有不确定陈述,并提供验证方法格式偏离:使用严格遵循以下模板:第一行...第二行...深度不足:触发请继续扩展第三章节内容,添加案例佐证[heading2]七、效能监测指标[content]1.首次响应准确率:目标>75%2.多轮对话效率:问题解决平均轮次<33.复杂任务分解:支持5级子任务嵌套
[heading2]总结关于AI工具的探讨与展望DeepSeek的优势与不足:DeepSeek在写文方面全面领先,但长文会太发散,文风用力过猛,可能导致审美疲劳,且模型多样性不够,相同prompt提问多次答案雷同。AI工具的配合使用:写理性文章时,可先与DeepSeek讨论思路,再用Cloud 3.5批量生成。AI的未来发展:认为今年是AI大年,各模型厂压力大,开源使技术路径公开,大厂都在努力赶超,未来AI可能能追本溯源解决最原始需求,带来人类的黄金时代。应对AI发展的策略:Sam Altman提出投资提升自身内在状态等以对冲AGI和ASI未来的风险,科幻小说家可能是未来史学家。关于利用AI创作小说及相关探索模仿小说家写作:让Deepseek模仿特定小说家的文学方式创作小说,需在提示词中描述文风特征,如鲁迅的文风特点等。控制创作字数:用O1模型对AI创作的字数控制有一定效果,也可通过多轮对话让AI增删改查来调整字数。分享创作成果:邀请大家在腾讯频道发布用AI写的小说并鉴赏,比较谁写的更有意思。过往创作经验:回顾了之前用AI创作的相关经历,如用分制法完成复杂任务、开源提示词等,并探讨将以往优秀创作在R1模型中重新尝试。