Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想给deep seek设置长篇小说作家的角色设定,我应该说哪些指令

Answer

以下是为 Deep Seek 设置长篇小说作家角色设定时可以考虑的指令:

  1. 明确写作风格和特点,例如指定模仿某位知名小说家的文风,如鲁迅的文风特点。
  2. 描述故事的背景、主题和情节框架,比如设定故事发生在特定的历史时期或虚构的世界。
  3. 规定小说的体裁和类型,如言情、科幻、悬疑等。
  4. 对人物塑造提出要求,包括主要人物的性格、外貌、经历等。
  5. 设定语言表达的要求,如语言的优美程度、词汇的丰富性等。
  6. 明确字数范围,例如要求创作一部不少于 10 万字的长篇小说。
  7. 给出情节发展的节奏和起伏要求,比如要求情节紧凑、高潮迭起。
  8. 强调故事的逻辑性和连贯性,避免出现逻辑漏洞和情节跳跃。

在设置指令时,应尽量具体、清晰,避免过于宽泛和模糊的表述,例如将“写小说”优化为“创作以 AI 觉醒为背景的悬疑长篇,采用多视角叙事结构,人物形象鲜明,情节跌宕起伏,语言优美生动,字数不少于 20 万字”。同时,对于生成的内容,可以通过多轮对话进行增删改查,以达到理想的效果。

Content generated by AI large model, please carefully verify (powered by aily)

References

长文深度解析 Coze 的多 Agent 模式的实现机制

当用户在【引导】节点输入“开始游戏”之后,Coze会执行如下流程(图5):图5用户输入“开始游戏”触发的执行流程我们先来看一下第一次LLM调用的输入(图5):忽略其他参数,我们关注messages列表。列表中只有一条消息,它的内容是:这是一段系统提示词,这就是Coze用来处理多Agent跳转的关键。提示词有5个部分:INSTRUCTION,是一段指令,包含角色设定和简要的任务描述。注意,这段提示词给LLM描述的任务是“根据用户需求和最新的聊天记录,从以下Agent列表中选择最合适的Agent”。AGENTS/BOTS LIST,是候选的Agent列表。agent_id是一个序号,供LLM选择。agent_name就是你给Agent节点设置的名字。condition就是你在Agent节点设置的适用场景(Scenarios)(图6)。USER REQUEST,就是你在【切换节点设置】界面设置的自定义提示词(见图7)。至于我为什么在这里写了一段有些奇怪的提示词,我下面马上会解释。CONSTRAINT,是一些限制条件。这里还告诉LLM,在没有合适的Agent时,要输出0,表示不跳转。PREVIOUS CONVERSATION HISTORY,是之前的对话历史。Coze提供了一个选项,可以控制这个传给跳转模型的对话记录的长度(见图7),但是这个选项并没有效果(应该是Bug)。图6适用场景图7自定义提示词前面说Coze的多Agent跳转总是不可靠,我们从这段短短的提示词中就可以找到几个导致不稳定的因素:

集合·DeepSeek 提示词方法论

虽然R1推理能力比较强,有些你想表达的不一定完全与模型吻合,因此建议可以多加清晰指令[heading3]1.模糊指令优化[content]|问题类型|修正方案|示例对比||-|-|-||宽泛需求|添加维度约束|原句:"写小说"→修正:"创作以AI觉醒为背景的悬疑短篇,采用多视角叙事结构"||主观表述|量化标准|原句:"写得专业些"→修正:"符合IEEE论文格式,包含5项以上行业数据引用"|[heading3]2.迭代优化法[content]1.首轮生成:获取基础内容2.特征强化:请加强第三段的技术细节描述3.风格调整:改用学术会议报告语气,添加结论部分4.最终校验:检查时间逻辑一致性,列出可能的事实性错误[heading2]五、行业应用案例[heading3]1.技术开发场景[heading3]2.商业分析场景[heading2]六、异常处理方案[content]信息幻觉:追加请标注所有不确定陈述,并提供验证方法格式偏离:使用严格遵循以下模板:第一行...第二行...深度不足:触发请继续扩展第三章节内容,添加案例佐证[heading2]七、效能监测指标[content]1.首次响应准确率:目标>75%2.多轮对话效率:问题解决平均轮次<33.复杂任务分解:支持5级子任务嵌套

🐋全新AI整活计划:DeepSeek小说家 2025年2月9日

[heading2]总结关于AI工具的探讨与展望DeepSeek的优势与不足:DeepSeek在写文方面全面领先,但长文会太发散,文风用力过猛,可能导致审美疲劳,且模型多样性不够,相同prompt提问多次答案雷同。AI工具的配合使用:写理性文章时,可先与DeepSeek讨论思路,再用Cloud 3.5批量生成。AI的未来发展:认为今年是AI大年,各模型厂压力大,开源使技术路径公开,大厂都在努力赶超,未来AI可能能追本溯源解决最原始需求,带来人类的黄金时代。应对AI发展的策略:Sam Altman提出投资提升自身内在状态等以对冲AGI和ASI未来的风险,科幻小说家可能是未来史学家。关于利用AI创作小说及相关探索模仿小说家写作:让Deepseek模仿特定小说家的文学方式创作小说,需在提示词中描述文风特征,如鲁迅的文风特点等。控制创作字数:用O1模型对AI创作的字数控制有一定效果,也可通过多轮对话让AI增删改查来调整字数。分享创作成果:邀请大家在腾讯频道发布用AI写的小说并鉴赏,比较谁写的更有意思。过往创作经验:回顾了之前用AI创作的相关经历,如用分制法完成复杂任务、开源提示词等,并探讨将以往优秀创作在R1模型中重新尝试。

Others are asking
目前接入Deepseek 的网站有哪些?
目前接入 DeepSeek 的网站有: 学而思,预计将在 2 月内陆续于相关机型上线“深度思考模式”,全面升级用户的 AI 学习体验。 钉钉,已全面接入 DeepSeek 系列模型。 微信,推出了 AI 搜索功能,提供“快速回答”和“深度思考”选项,用户可获取高质量答案并一键分享。 百度,文心大模型最新上线的深度搜索功能,也集成到百度搜索当中。
2025-03-12
我在用AI辅助学习新概念英语第二册,但是deep seek总是报错,我应该换成什么别的AI呢?
如果您在使用 Deep Seek 辅助学习新概念英语第二册时总是报错,可以考虑换成 Wenxiaobai.com 这个平台。它高速响应,完全免费,支持各种平台使用,与 Deep Seek 官网几乎相同,速度快且稳定性高,最新版本还支持文档与图片分析。
2025-03-12
deepseek 直接抓取网页内容
DeepSeek 直接抓取网页内容的相关工作流程如下: 1. 内容获取:只需输入新闻链接,系统就能自动提取核心内容。开始节点的入参包括新闻链接和视频合成插件 api_key。添加网页图片链接提取插件,以 1ai.net 的资讯为例,输入新闻后会提取出很多链接,其中第一条通常是新闻主图。利用图片链接提取提示词,通过调整图片的节点,将 url 属性的图片内容转化为 image 属性的图片。 2. 文字部分:使用链接读取节点将文字内容提取出来,在提取链接后面接上一个大模型节点,如 DeepSeek R1 模型,用来重写新闻成为口播稿子。若想加上自己的特征,可在提示词里写个性化台词。需注意,DeepSeek R1 基础版本限额使用,可在专业版手动接入。 此外,ChatGPT 无法直接抓取网页内容,其限制原因是不会直接抓取 URL 内容,仅依赖内部知识库或通过必应搜索,且必应搜索结果(尤其中文)往往不够准确。解决方法是手动复制网页内容,粘贴为 Markdown 或纯文本后再提交给 ChatGPT,解析效果更佳。 宝玉日报中提到,通过飞书快捷方式+DeepSeek R1 可实现自动翻译、改写、图片 OCR、AI 抓取等,提高工作效率。关键流程为从 URL 抓取内容➝DeepSeek R1 翻译➝自动改写文章风格➝生成高质量文章。还有更多工作流,如文本翻译、图片翻译、AI 生成爆款标题,飞书模板可直接使用。Deep Research 提示词模板有三大核心要素,包括背景信息(XML 包裹)、任务要求(分析主题、检索范围)、输出格式(语言、表格),适用于生成深度报告、信息检索、数据整理等场景。对于处理大规模代码,可粘贴几千行代码并用 XML 包裹,若让 AI 编写代码,可生成代码、搜索相关代码库。ChatGPT 免费用户可用 GPT4o mini 语音版。
2025-03-12
知识库接入deepseek教程
以下是关于知识库接入 DeepSeek 的相关教程链接: 此外,还有以下相关内容可能对您有帮助: 中包含大模型及知识库使用讲解与问题解答。 中有工作流创建、模型能力及相关问题探讨。 涉及通义千问相关应用及明天课程安排交流。
2025-03-12
我想给deep seek设置角色设定,我应该说哪些指令
以下是为 Deep Seek 设置角色设定时可以参考的一些指令: 1. 明确模型的具体任务,例如专门分析视频并从中找到特定内容。 2. 在向模型提供视频之前添加指令,如说明视频的数量、来源和对模型回答的限制,例如“这里有三个视频。每个都是来自 Deep Learning AI 的 LLM Ops 课程的一课。你的答案只基于视频。” 3. 为模型准备具体的问题,例如“请为每个视频创建一个摘要,概述其中讨论的主要内容。每个摘要限制在 100 词以内。”“在这三个视频中,哪一个视频的讲师运行并解释了 Python 代码'be_query_clients.query'?请指出在视频中可以找到这段代码的具体位置。”
2025-03-12
你什么时候接入deepseek
以下是关于 DeepSeek 的相关信息: 学而思表示将接入 DeepSeek“深度思考模式”,预计在 2 月内陆续于相关机型上线,全面升级用户的 AI 学习体验。 钉钉已经全面接入 DeepSeek 系列模型。 扣子现已支持满血版 Deepseek 全家桶,R1 模型现支持所有用户免费体验,每个用户每日限 20 条对话。 微信接入 DeepSeek 确认为满血 R1,腾讯将有更多 APP 持续接入,微信推出 AI 搜索功能,提供“快速回答”和“深度思考”选项,用户可获取高质量答案并一键分享。 百度官宣全面接入 DeepSeek,文心大模型最新上线的深度搜索功能已集成到百度搜索当中。 关于 DeepSeek 的使用分享: DP 模型的功能:能进行自然语言理解与分析、编程、绘图,如 SVG、MA Max 图表、react 图表等。 使用优势:可以用更少的词让模型做更多事,思维发散,能给出创意思路和高级内容。 存在问题:思维链长不易控制,可能输出看不懂或胡编乱造的内容,增加纠错成本。 审核方法:可以用其他大模型来解读 DP 模型给出的内容。 使用建议:使用时要有自己的思维雏形,多看思考过程,避免被模型冲刷原有认知。 使用场景:包括阅读、育儿、写作、随意交流等方面。 此外,还有关于音系学和与大模型互动的分享,以及 DeepSeek 文档分享和未来活动预告等内容。
2025-03-11
请给我本科生写毕业论文向AI发送的指令
以下是一些本科生写毕业论文时向 AI 发送的指令示例: 1. “根据以下关于我的信息,写一篇四段的大学申请论文:我来自西班牙巴塞罗那。尽管我的童年经历了一些创伤性事件,比如我 6 岁时父亲去世,但我仍然认为我有一个相当快乐的童年。在我的童年时期,我经常换学校,从公立学校到非常宗教的私立学校。我做过的最‘异国情调’的事情之一是在爱达荷州的双子瀑布与我的大家庭一起度过六年级。我很早就开始工作了。我的第一份工作是 13 岁时的英语老师。在那之后,以及在我的学习过程中,我做过老师、服务员,甚至建筑工人。” 2. 请基于以下案例情况,给我推荐 5 个类似案例:某公司员工在公司内部网络中发布了一篇批评公司管理的文章,引起了公司高层的不满。公司以员工违反了公司的规章制度为由,将其解雇。员工认为公司的行为侵犯了他的权利,将公司告上法庭。 3. 【提炼的案例事实(也可以让 AI 先提炼总结)or 直接把案例直接发给 AI,让 AI 基于以上事实推荐类似案例】 4. 根据以下材料内容回答我的问题【每个材料内容都以数字序号+文件名开头】你需要尽可能的参考材料内容:【文档 1 内容】+【文档 2 内容】+...+【文档 n 内容】
2025-03-12
请帮我推荐优化大模型+知识库的提示词技巧,重点是解决将知识库配置给大模型做RAG后,召回率不高或者不遵循指令。
以下是关于优化大模型+知识库的提示词技巧,以解决将知识库配置给大模型做 RAG 后召回率不高或者不遵循指令的问题: 首先,了解 LLM 应用性能优化的推荐路径: 1. 从 prompt 工程开始把 LLM 应用快速跑起来。 2. 若遇到表现性能不足等问题,如结构化提示词占用上下文过长,可尝试精简提示词长度;若指令遵循度不足,则加强指令约束。 3. 若提示工程无法满足要求,分析问题,若缺失知识,先简单做知识库 RAG。 4. RAG 之后若想让模型表现更收敛更稳定,尝试微调模型。 5. 微调模型后,若模型表现变好,使用更多高级 RAG 技术,构造输入输出样本,进一步用于微调模型,构建正向迭代循环。 需要注意的是,该路径有个隐藏前提:该 LLM 应用依赖外部知识,需要 RAG。若不需要外部知识,则不需要使用 RAG,可以直接进入 prompt 工程与微调的正向迭代循环。 对于 RAG 流程中的检索有用信息部分,有以下改进策略: 1. 优化索引: 按照子部分索引:将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引。适用于有多个主题、有冲突信息的复杂长文本信息,确保与查询相关的上下文。 按照文本框可以回答的问题索引:让 LLM 生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,适用于用户没有提出非常明确的问题,减少模糊性。 按照文本块的摘要进行索引:适用于文本框中有多余信息或者与用户查询无关细节的情况。 2. 重排 rerank:搜到相似信息后,选择策略,大部分场景下选择最相似的即可。 在从知识库中检索出内容后利用大模型进行总结时,有两点需要注意: 1. 优化 Prompt,但此处不展开,可参考相关文章。 2. 选择合适的大模型,考虑上下文长度、聪明度和生成速度。若回答场景是很长的文档,可能更关注上下文长度;大多数情况下,大模型越聪明,生成速度可能越慢。
2025-03-12
我需要deepseek或chatgpt辅助完成中文硕士 论文综述的指令
很抱歉,目前没有关于使用 DeepSeek 或 ChatGPT 辅助完成中文硕士论文综述的具体指令。但一般来说,您可以利用这些工具来获取相关主题的信息和观点,为您的综述提供参考。不过需要注意的是,使用这些工具生成的内容不能直接作为您论文的一部分,您仍需要对获取的信息进行筛选、整理、分析和引用,并确保符合学术规范和道德标准。
2025-03-11
通过deepseek生成论文的指令
以下是关于通过 DeepSeek 生成论文的相关指令和信息: 1. 高级调试策略: 模糊指令优化:对于宽泛需求可添加维度约束,如“写小说”可修正为“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构”;对于主观表述可量化标准,如“写得专业些”可修正为“符合 IEEE 论文格式,包含 5 项以上行业数据引用”。 迭代优化法:包括首轮生成获取基础内容、特征强化加强某段的技术细节描述、风格调整改用特定语气并添加结论部分、最终校验检查时间逻辑一致性和列出可能的事实性错误。 2. 高阶能力调用: 文风转换矩阵:如作家风格移植“用鲁迅杂文风格写职场 PUA 现象”、文体杂交“将产品说明书改写成《史记》列传格式”、学术口语化“把这篇论文摘要翻译成菜市场大妈能听懂的话”。 领域穿透技术:如行业黑话破解“解释 Web3 领域的'胖协议瘦应用'理论”。 3. 场景化实战策略:包括创意内容生成、技术方案论证。 4. 效能增强技巧: 对话记忆管理:如上下文锚定“记住当前讨论的芯片型号是麒麟 9010”、信息回溯“请复述之前确认的三个设计原则”、焦点重置“回到最初讨论的供应链问题”。 输出质量控制:对于过度抽象可“请具体说明第三步操作中的温度控制参数”;对于信息过载可用“用电梯演讲格式重新组织结论”;对于风格偏移可“回归商务报告语气,删除比喻修辞”。 5. 特殊场景解决方案: 长文本创作:可采用分段接力法,如“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 敏感内容处理:可采用概念脱敏法“用经济学原理类比说明网络审查机制”、场景移植法“假设在火星殖民地讨论该议题”。 此外,DeepSeek 在写文方面全面领先,但长文会太发散,文风用力过猛,可能导致审美疲劳,且模型多样性不够,相同 prompt 提问多次答案雷同。写理性文章时,可先与 DeepSeek 讨论思路,再用 Cloud 3.5 批量生成。用 O1 模型对 AI 创作的字数控制有一定效果,也可通过多轮对话让 AI 增删改查来调整字数。
2025-03-10
deepseek论文指令
以下是关于 DeepSeek 提示词的详细内容: 一、核心原理认知 1. AI 特性定位 多模态理解:支持文本/代码/数学公式混合输入。 动态上下文:对话式连续记忆(约 8K tokens 上下文窗口,换算成汉字是 4000 字左右)。 任务适应性:可切换创意生成/逻辑推理/数据分析模式。 2. 系统响应机制 采用意图识别+内容生成双通道。 自动检测 prompt 中的任务类型/输出格式/知识范围。 反馈敏感度:对位置权重(开头/结尾)、符号强调敏感。 二、基础指令框架 1. 四要素模板 2. 格式控制语法 强制结构:使用```包裹格式要求。 占位符标记:用{{}}标注需填充内容。 优先级符号:>表示关键要求,!表示禁止项。 三、进阶控制技巧 1. 思维链引导 分步标记法:请逐步思考:1.问题分析→2.方案设计→3.风险评估。 苏格拉底式追问:在得出最终结论前,请先列举三个可能存在的认知偏差。 2. 知识库调用 领域限定指令:基于 2023 版中国药典,说明头孢类药物的配伍禁忌。 文献引用模式:以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 3. 多模态输出 四、高级调试策略 1. 模糊指令优化 问题类型:宽泛需求、主观表述。 修正方案:添加维度约束、量化标准。 示例对比:原句“写小说”→修正“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构”;原句“写得专业些”→修正“符合 IEEE 论文格式,包含 5 项以上行业数据引用”。 2. 迭代优化法 首轮生成:获取基础内容。 特征强化:请加强第三段的技术细节描述。 风格调整:改用学术会议报告语气,添加结论部分。 最终校验:检查时间逻辑一致性,列出可能的事实性错误。 五、行业应用案例 1. 技术开发场景 2. 商业分析场景 六、异常处理方案 1. 信息幻觉:追加请标注所有不确定陈述,并提供验证方法。 2. 格式偏离:使用严格遵循以下模板:第一行...第二行... 3. 深度不足:触发请继续扩展第三章节内容,添加案例佐证。 七、效能监测指标 1. 首次响应准确率:目标>75%。 2. 多轮对话效率:问题解决平均轮次<3。 3. 复杂任务分解:支持 5 级子任务嵌套。 八、高阶能力调用 1. 文风转换矩阵 指令结构:作家风格移植、文体杂交、学术口语化。 效果示例。 2. 领域穿透技术 行业黑话破解:“解释 Web3 领域的'胖协议瘦应用'理论”。 商业决策支持。 九、场景化实战策略 1. 创意内容生成 2. 技术方案论证 十、效能增强技巧 1. 对话记忆管理 上下文锚定:“记住当前讨论的芯片型号是麒麟 9010”。 信息回溯:“请复述之前确认的三个设计原则”。 焦点重置:“回到最初讨论的供应链问题”。 2. 输出质量控制 问题类型:过度抽象、信息过载、风格偏移。 修正指令。 十一、特殊场景解决方案 1. 长文本创作 分段接力法:“先完成故事大纲→逐章扩展→最后进行伏笔校验”“确保新章节与前文的三处细节呼应”。 2. 敏感内容处理 概念脱敏法:“用经济学原理类比说明网络审查机制”。 场景移植法:“假设在火星殖民地讨论该议题”。
2025-03-09
AI人设设定模板
以下是关于 AI 人设设定的相关内容: Niji·journey 5 二次元角色设计 Prompt 编写指南: 示例:“Character concept art,many details,full body view,Front,back and side views,multiple views of the same character,a little Girl wear inside cyberpunk latex tiny tight Pilot suit,wear outside an ultra detailed Futuristic fashion oversized cyberpunk short coat with big wide sleeves,big cyberpunk boots,lineart,beautiful linework,high contrast,alluring,flirtatious,frisky,massive scale,gradient,manga,hd,with exaggerated features and bold colors.The character design should be distinctive and unique,with attention to detail and a strong sense of personality,3 panels dynamic poses various angles,various angles,line art,black and white,white background”。通过替换设计主体描述部分,可以生成不同的角色,如男性赏金猎人、骷髅假面杀手、生化牛头人等。 如何引导 Niji·journey 5 生成多样化二次元角色设计风格: 除了风格关键词,还可以加入时代背景等元素让设计产生更多变化。 可以使用具体游戏风格引导 Niji·journey 5 生成类似风格的角色设计,例如以《最终幻想 14》为例,在 Prompt 中按照模板添加特定游戏的名称。 通用人物模版: 想用真人照片来生成卡通头像,可以用“真人照片”+“照片描述”+“方法 1 的关键词”来处理。 如果生成了自己比较满意的图,一定要记得存起来。下次想要同种类型的就可以直接拿来喂图,效果要比重新找的好很多。
2024-12-24
设定好程序,在没有人工干预的情况下,AI能保持多久的工作效率。
AI 在没有人工干预的情况下能保持的工作效率时长难以给出确切的固定值,其受到多种因素的影响。 一方面,AI 系统的设计和训练质量会对其持续工作效率产生重要影响。如果系统经过良好的设计和充分的训练,具备应对各种情况的能力,可能在较长时间内保持较高的工作效率。 另一方面,运行环境和所处理任务的复杂性也起着关键作用。例如,处理简单、重复性高且规则明确的任务时,AI 可能在较长时间内保持稳定的效率。但对于复杂多变、需要不断适应新情况的任务,其效率可能会随着时间有所波动。 在实际应用中,一些案例显示,如产品经理使用 GPT 解决性能问题,SQL 执行时间大幅缩短,效率显著提升。但也有观点认为,对于某些工作场景,AI 带来的效率提升有限。 此外,政策层面,如拜登签署的 AI 行政命令中,也强调了在医疗、教育等领域推进 AI 的合理使用,并关注其对劳动力市场的影响,采取措施支持工人等。 总之,AI 无人工干预下的工作效率保持时间因多种因素而异,需要综合考虑系统本身、任务特点等多方面因素。
2024-11-13
在一个设定中,使用阿里千问模型,设定角色为“美嘉”,知识库为《爱情公寓》全季剧情,实现问答。
在一个设定中,使用阿里千问模型,将角色设定为“美嘉”,知识库设定为《爱情公寓》全季剧情来实现问答。 大语言模型就像一个学习过无数本书、拥有无穷智慧的人,对公共知识、学识技能、日常聊天很擅长,但在工作场景中需要提示词来告诉它角色和专注技能,变成所需的“员工”。知识库则相当于给这个“聪明员工”发放的工作手册,比如知道老板娘吃饭要打三折等特定信息。 这里的设定为:AI 模型使用阿里千问模型,提示词设定的角色是“美嘉”,按照其人设、背景和对话风格设定,知识库是《爱情公寓》全季剧情,让“美嘉”拥有过往“记忆”。 例如,提问“你是谁?你和子乔在台球厅吵架那次是为了什么吵架?”,回复是“我是陈美嘉,那次在台球厅和吕子乔吵架是因为他约会被人撞见,我讽刺他脸大影响信号,他还反击我。后来谈到过去的事情,我指责他忘恩负义,他就说我平。最后,我伤心地说要分手,因为他之前甩过我。” 然而,有时回答会不准确,比如提问“一菲为美嘉找了一份助教工作”,AI 可能未根据正确的知识库内容回答,这是常见的错误场景,在严肃场景中不能接受。优化 AI 更准确回答问题的过程称为 RAG(RetrievalAugmented Generation),即检索增强生成,由检索器从外部知识中快速找到与问题相关的信息,生成器利用这些信息制作精确连贯的答案,适合处理需要广泛知识的任务,如问答系统,能提供详细准确的回答。
2024-10-29
有没有ai文生图的应用,只要有语言描述就可以设定画幅
以下为一些 AI 文生图的应用及操作流程: Liblibai: 1. 定主题:明确生成图片的主题、风格和表达的信息。 2. 选择 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 4. 设置 VAE:选择 840000 那一串。 5. CLIP 跳过层:设为 2。 6. Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开。 7. 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语组合并用英文半角逗号隔开。 Tusiart: 1. 定主题:确定生成图片的主题、风格和表达的信息。 2. 选择基础模型 Checkpoint:根据主题选择贴近的模型,如麦橘、墨幽的系列模型。 3. 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 4. ControlNet:用于控制图片中的特定图像,如人物姿态、特定文字、艺术化二维码等。 5. 局部重绘:后续学习。 6. 设置 VAE:选择 840000 。 7. Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开。 腾讯混元:在聊天框中询问关于所需风格的知识储备,然后描述需求即可创作。腾讯混元是双语言大模型,中英文均可切换,实现双语沟通。
2024-09-04