Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想训练自己的公文写作模型

Answer

以下是关于训练公文写作模型的一些建议:

首先,如同大语言模型的学习方式,监督学习对于提升写作能力至关重要。您需要接触大量优秀的公文范例,分析其选题思路、文章结构和表达方式,就像 AI 从海量优质内容中学习规律和模式一样,人类也需要通过这种方式不断“训练”自己的“写作模型”。

其次,对于爆款文案模型的训练过程,您可以参考以下要点:

  1. 引人入胜的开头:提出触动读者好奇心的问题,吸引读者注意力。
  2. 提问引出主题:通过提问巧妙引导读者关注论述主题。
  3. 观点与案例结合:阐述观点时结合生动实际的案例,增强说服力。
  4. 社会现象分析:与当前社会现象相联系,引发读者共鸣和思考。
  5. 软广植入:巧妙植入软广告,如成功案例,激发读者兴趣。
  6. 总结与升华:结尾对内容进行总结和升华,突出主题。
  7. 金句收尾:以启发性金句结尾,留下深刻印象。

您可以明确自己希望编写公文的主题或目标,然后按照这些要素和要点来进行训练和创作。

Content generated by AI large model, please carefully verify (powered by aily)

References

夙愿:AI 工作流,赋能我的十倍增长

(如果你已经同意了选题很重要,那么这一段不用看了。)说到找选题,我想到一个很有意思的类比,你知道大语言模型是怎么学习的吗?其中有个关键环节叫"监督学习"。简单说,就是给AI看一堆优秀的文本示例,AI先学习什么是好内容,才能写出好内容,这个过程跟我们公众号创作者学习写作,其实挺像的。想想看,如果你从来没读过任何高阅读量的文章,怎么可能写出高阅读量文章呢?你得先接触大量成功案例,才能培养出好的写作感觉。我之前刚开始写公众号时,我以为自己想到什么就写什么就行了,结果就真不行。后来我开始有意识地学习其他优秀公众号的文章。慢慢地,我发现自己的文笔、选题、结构都在不知不觉中进步了。这就像AI的学习过程。它不是凭空创造,而是从海量优质内容中学习规律和模式。我们人类也一样,需要不断"训练"自己的"写作模型"。所以,当你在刷那些大号的文章时,别只是随便看看。试着分析他们的选题思路、文章结构、表达方式。

爆款文案模型

我理解了,以【一飞冲天】开头提问,我会使用你所指定的“一飞冲天”模型,来帮助你编写一篇文案。这个模型包括以下7个要素,每个要素都有相应的权重:引人入胜的开头(20%)提问引出主题(15%)观点与案例结合(20%)社会现象分析(15%)软广植入(10%)总结与升华(10%)金句收尾(10%)你只需要明确告诉我你希望编写文案的主题或目标,我将会根据这个模型来帮助你完成。

爆款文案模型

已学习这个更深入的文案模型,并理解了以下七个重要的要素:引人入胜的开头:文案开始时提出一个触动读者好奇心的问题,有效地吸引了读者的注意力,促使他们想继续阅读下去。提问引出主题:通过提问的方式,作者巧妙地引导读者理解和关注论述的主题,使得文案更引人入胜,增强读者的阅读兴趣。观点与案例结合:作者在阐述观点时,结合了生动实际的案例,使得观点更具有说服力,增强了文案的吸引力。社会现象分析:将文案内容与当前社会现象相联系,使得文案具有现实意义,能够引发读者的共鸣和思考。软广植入:作者在文案中巧妙地植入了一些软广告,如学员的成功案例,使得读者在不知不觉中对相关产品产生了兴趣。总结与升华:在文案的结尾部分,对之前的内容进行了总结和升华,使得文案主题更加突出,帮助读者深入理解和接受。金句收尾:以一句具有启发性的金句作为结尾,使得文案更具有深度和价值,同时为读者留下深刻的印象。

Others are asking
我是一名AI工具使用小白,渴望快速掌握AI工具,在电子表格制作、ppt制作、公文写作、文案写作等方面提升应用能力,请问应该学习哪些入门课程。
以下是一些适合您入门学习的 AI 课程: 1. 工具入门篇(AI Tools): 数据工具多维表格小白之旅:适合 Excel 重度使用者、手动数据处理使用者、文件工作者。通过表格+AI 进行信息整理、提效、打标签,满足 80%数据处理需求。 文章链接: 视频链接: 2. 工具入门篇(AI Code): 编程工具Cursor 的小白试用反馈:适合 0 编程经验、觉得编程离我们很遥远的小白。通过 AI 工具对编程祛魅,降低技术壁垒。 文章链接: 3. 工具入门篇(AI Music): 音乐工具Suno 的小白探索笔记:适合 0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白。AI 赋能音乐创作,无需乐理知识即可参与音乐制作。 文章链接: 此外,还有以下相关内容供您参考: 1. 关于 AI 视频制作的交流与答疑: 视频流表格制作:在知识库的 AI 视频专栏中有相关教程和模板。 Copy UI 社区:微推有专门研究 Copy UI 的社区,相关内容有趣但本次未展开讲。 SD 类图片作用:国内大厂很卷,一般需求吉梦等产品可完成,特殊精细要求才用 SD,不了解可在微推加 AI 会话中找。 图片视角转移:使用 P 模型,上传图片并告知镜头移动方向和相关内容。 PNG 与背景融合:Recraft 产品目前不太擅长 PNG 与背景的特别好的融合,可通过合并方式处理。 保证文字不崩:使用吉梦的 2.1 模型效果较好。 新手 AI 视频制作:纯小白参与项目时,项目组会做好部分准备工作,上手难度不高,专注出图和出视频,用好相关技术。 关于利用 AI 工具创作北京宣传片相关问题的探讨。 AI 工具使用思路:对于如何利用 AI 工具创作,建议直接上手尝试,通过试错和与 AI 交流获取反馈,遇到具体问题再向社区请教。 素材处理方法:若有故宫相关照片素材,可采用导入参考图生图、让实拍素材动起来等方式,还可通过抠图、融图等操作将素材与虚拟背景融合。 创作需先构思:创作时不能仅考虑如何连接已有素材,而应先构思剧本和想要表达的内容,再合理运用素材。 2. 入门工具推荐: Kimi 智能助手:Chatgpt 的国产平替,实际上手体验最好,推荐新手用 Kimi 入门学习和体验 AI。不用科学🕸️、不用付费、支持实时联网。是国内最早支持 20 万字无损上下文的 AI,也是目前对长文理解做的最好的 Ai 产品。能一次搜索几十个数据来源,无广告,能定向指定搜索源。 PC 端: 移动端 Android/ios: 您还可以通过「飞书」这款工具,浏览其社区的精选课程、先进客户实践。下载飞书:
2025-02-26
我是一名高校新媒体工作人员,由于文字能力一般,需要能力较强的ai文本工具,用于撰写公文,新闻稿,公众号推文,总结简报等。请推荐至少5个,并进行对比分析
以下为您推荐至少 5 个适用于高校新媒体工作人员的 AI 文本工具,并进行对比分析: Copy.ai: 功能强大,提供丰富的新闻写作模板和功能。 可快速生成新闻标题、摘要、正文等内容,节省写作时间,提高效率。 Writesonic: 专注于写作,提供新闻稿件生成、标题生成、摘要提取等功能。 智能算法能根据用户提供信息生成高质量新闻内容,适合新闻写作和编辑人员。 Jasper AI: 人工智能写作助手,写作质量较高,支持多种语言。 虽主打博客和营销文案,也可用于生成新闻类内容。 Grammarly: 不仅是语法和拼写检查工具,还提供一些排版功能,可改进文档整体风格和流畅性。 QuillBot: AI 驱动的写作和排版工具,能改进文本清晰度和流畅性,同时保持原意。 秘塔写作猫: 是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,还能实时同步翻译。 支持全文改写,一键修改,实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作: 是智能写作助手,能应对多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等。 支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作: 由腾讯 AI Lab 开发,能探索用 AI 技术提升写作者的写作效率和创作体验。 选择工具时,您可根据具体需求(如文档类型、个人偏好等)进行考虑。例如,若主要需求是生成新闻类内容,Copy.ai、Writesonic 和 Jasper AI 可能更适合;若还需兼顾排版和语法检查,Grammarly 和 QuillBot 是不错的选择;若注重中文内容的改写,秘塔写作猫、笔灵 AI 写作和腾讯 Effidit 写作可优先考虑。
2025-02-26
AI在强业务规则的公文写作场景可以如何应用?
在强业务规则的公文写作场景中,AI 可以通过以下方式应用: 1. 先梳理传统公文写作工作流,包括选题、搜资料、列提纲、起标题、配图片、排版发布等环节。 2. 在资料搜集环节,可以使用 AI 搜索工具辅助,提高搜集效率和准确性。 3. 在写作环节,可引入如 Claude 等工具辅助创作。 4. 对于公文润色,AI 能够在保留文章结构和准确性的基础上,提升公文质量。 5. 例如“学习强国公文助手”,可以帮助用户进行文汇检索、AI 公文书写等。 需要注意的是,在引入 AI 之前要先理清传统工作流,明确每个环节的因果逻辑和输入输出关系,以业务逻辑为先,让 AI 为更高效地达成业务目标服务。
2025-02-19
如何利用ai写公文
利用 AI 写公文可以参考以下几种方式: 1. 使用“学习强国公文助手”:在文小言 APP 正式上线,具有文汇检索、AI 公文书写、AI 公文润色等功能。它有权威的“学习强国”数据库背书,能快速溯源文字材料,重点用横线标注,还能一键看原文,内容覆盖文汇、重要活动、重要会议、指示批示等。使用方式为下载文小言 APP 找寻学习强国公文助手。 2. 设计恰当的提示词:例如,明确公文的主题、目的、受众、格式要求等,为 AI 提供清晰且具有指导性的信息,以生成更符合需求的公文内容。 3. 参考相关的 AI 工具和平台:如 Recraft AI 等,虽然它主要是平面设计工具,但其中的一些功能和思路可能对公文写作有启发。 此外,在使用 AI 生成公文后,可能需要根据实际情况进行微调,以确保公文完全符合要求和风格。
2025-02-09
PPT制作、公文写作、企业管理方面提升需要学习那些AI工具
以下是一些有助于提升 PPT 制作、公文写作和企业管理能力的 AI 工具: 1. GPT4:可用于生成文本内容、提供创意和思路。 2. WPS AI:能辅助完成 PPT 的大纲内容、排版和动画等。 3. chatPPT:帮助制作 PPT。 此外,还有以下专门的 AI PPT 工具: 1. Gamma:在线 PPT 制作网站,可通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式。 2. 美图 AI PPT:通过输入简单文本描述生成专业 PPT 设计,包含丰富模板库和设计元素。 3. Mindshow:提供智能设计功能,如自动布局、图像选择和文本优化等。 4. 讯飞智文:利用科大讯飞的技术优势,提供智能文本生成、语音输入、文档格式化等功能。 另外,还有以下工具也可用于 PPT 制作: 1. 爱设计 2. 闪击 3. Process ON
2025-02-07
ai辅助公文写作
以下是关于 AI 辅助公文写作的相关信息: AI 公文智能体“学习强国公文助手”在文小言 APP 正式上线,可以帮助用户进行文汇检索、AI 公文书写、AI 公文润色等。其具有权威的“学习强国”数据库背书,文汇检索能力能快速溯源文字材料并重点标注,还覆盖文汇、重要活动、重要会议、指示批示等内容,同时具备公文润色和书写能力。使用方式为下载文小言 APP 找寻学习强国公文助手。 论文写作领域也有不少 AI 工具和平台,如文献管理和搜索方面的 Zotero、Semantic Scholar;内容生成和辅助写作方面的 Grammarly、Quillbot;研究和数据分析方面的 Google Colab、Knitro;论文结构和格式方面的 LaTeX、Overleaf;研究伦理和抄袭检测方面的 Turnitin、Crossref Similarity Check 等。使用时要结合自身需求和写作风格选择合适的工具。 Kimi+推出了一系列辅助写作的功能,如公文笔杆子、论文写作助手等。
2025-01-16
ai写作
以下是关于 AI 写作的相关内容: 《如何用 AI 写出比人更好的文字》(作者:陈财猫) AI+内容创作是现阶段最好的赛道,具有完美的产品模型匹配和产品市场匹配,且天花板高。 AI 写作的实践成果包括营销和小说、短剧创作,开发了智能营销矩阵平台,参与喜马拉雅短故事和短剧写作课程,捣鼓出小财鼠程序版 agent。 好文字能引起人的生理共鸣与情绪,AI 因预训练数据量大能学会引发共鸣,从而写出好文字。 用 AI 写出好文字的方法包括选好模型,评估模型的文风和语言能力、是否有过度道德说教与正面描述趋势、in context learning 能力和遵循复杂指令的能力;克服平庸,平衡“控制”与“松绑”;显式归纳想要的文本特征,通过 prompt 中的描述与词语映射到预训练数据中的特定类型文本,往 prompt 里塞例子。 作者认为 AI 创作的内容有灵魂,期望 AI 能力进一步提升,改变每个人的生活。 《写作:AI 写作变现指南》 项目启动:确定目标客户群体,选择合适的 AI 写作工具。 准备阶段:学习并实践 AI 写作技术,构建团队。 商业模式构建:确定服务内容,制定质量控制标准。 运营与推广:在淘宝等电商平台开设店铺,建立写作培训社群,通过社交媒体和线下活动进行品牌和社群建设,与其他团队合作。 项目优化与发展:持续关注 AI 技术进展,根据市场需求拓展新服务和产品,收集客户反馈优化服务。 内容仿写 AI 工具 推荐几款中文的内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ 。写作猫是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译,支持全文改写,一键修改,实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ 。是得力的智能写作助手,支持多种文体写作,能一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ 。由腾讯 AI Lab 开发,能提升写作者的写作效率和创作体验。 更多 AI 写作类工具可以查看这里:https://www.waytoagi.com/sites/category/2 (内容由 AI 大模型生成,请仔细甄别)
2025-03-04
写作提示词
以下是关于写作提示词的全面介绍: 写提示词(prompt)是决定 AI 模型如何理解并生成文本的关键步骤。一个好的提示词能够帮助 AI 模型更好地理解任务要求,生成更符合预期的文本。 编写提示词的建议: 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,在提示词中提供足够信息。 3. 使用清晰语言:尽量用简单、清晰的语言,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在提示词中明确指出。 5. 使用示例:若有特定期望结果,提供示例帮助 AI 模型理解需求。 6. 保持简洁:避免过多信息导致 AI 模型困惑。 7. 使用关键词和标签:有助于模型理解任务主题和类型。 8. 测试和调整:生成文本后仔细检查结果,根据需要调整提示词。 在 AI 绘画中,根据想画的内容写提示词,多个提示词之间用英文半角符号“,”隔开。一般概念性、大范围、风格化的关键词写在前面,叙述画面内容的其次,描述细节的最后。每个词语在模型中的自带权重可能不同,越靠后的权重越低。关键词应具有特异性,措辞越具体越好,可使用括号人工修改提示词的权重。 在星流一站式 AI 设计工具中: 提示词用于描绘想生成的画面。 输入语言方面,星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言,基础模型 1.5 使用单个词组,支持中英文输入。 写好提示词的方法包括:内容准确,包含人物主体、风格、场景特点等;调整负面提示词,帮助 AI 理解不想生成的内容;利用“加权重”功能让 AI 明白重点内容;使用预设词组,小白用户可点击生图;还可使用辅助功能,如翻译、删除所有提示词、会员加速等。 希望以上内容能帮助您更好地编写提示词。
2025-03-04
ai写作的内容
以下是关于 AI 写作的相关内容: 1. 陈财猫从自身经历出发,认为 AI+内容创作是现阶段最好的赛道,具有完美的产品模型匹配和产品市场匹配,且天花板高。其业务包含营销和小说、短剧创作,开发了智能营销矩阵平台,参与喜马拉雅短故事和短剧写作课程,捣鼓出小财鼠程序版 agent。好文字能引起人的生理共鸣与情绪,AI 因预训练数据量大能学会引发共鸣,从而写出好文字。用 AI 写出好文字的方法包括选好模型,评估模型的文风和语言能力等;克服平庸,平衡“控制”与“松绑”;显式归纳想要的文本特征,通过 prompt 中的描述与词语映射到预训练数据中的特定类型文本,往 prompt 里塞例子。同时,作者认为 AI 创作的内容有灵魂,期望 AI 能力进一步提升,改变每个人的生活。 2. 利用 AI 不到 30 分钟打造爆款公众号文章的关键在于提供清晰且具有指导性的提示词(prompt)。好的提示词能帮助 AI 更准确理解需求并生成符合预期的内容。若已有基本提示词,AI 可生成基础文章,若想提升质量,可提供更详细、具创意的提示词,让 AI 更好地捕捉文章的语气、风格和重点。例如,可给出“请根据我们收集的关于 OpenAI 回应马斯克言论的资讯,创作一篇既深入又易于理解的科技资讯文章。文章应该有一个吸引人的标题,开头部分要概述事件的背景和重要性,主体部分详细分析 OpenAI 的回应内容及其可能产生的影响,结尾处提出一些引人深思的问题或观点。”这样的提示词,它不仅为 AI 提供明确指导,还设定文章基本结构和内容要求,AI 会据此生成结构完整、内容丰富、观点鲜明的文章,但最终产出的内容可能需要微调以符合预期和公众号风格。
2025-03-02
我要学习AI 写作
以下是关于学习 AI 写作的相关内容: 一、陈财猫的观点 1. AI+内容创作是现阶段最好的赛道 基于对大模型发展现状的观察和对“开车”“写作”两类任务的对比,该赛道有完美的产品模型匹配和产品市场匹配,且天花板高。 2. AI 写作的实践成果 业务包含营销和小说、短剧创作,开发了智能营销矩阵平台,参与喜马拉雅短故事和短剧写作课程,捣鼓出小财鼠程序版 agent。 3. 定义好文字 好文字能引起人的生理共鸣与情绪,AI 因预训练数据量大能学会引发共鸣,从而写出好文字。 4. 用 AI 写出好文字的方法 选好模型,评估模型的文风和语言能力、是否有过度道德说教与正面描述趋势、in context learning 能力和遵循复杂指令的能力。 克服平庸,平衡“控制”与“松绑”。 显式归纳想要的文本特征,通过 prompt 中的描述与词语映射到预训练数据中的特定类型文本,往 prompt 里塞例子。 5. 对 AI 创作的看法 AI 创作的内容有灵魂,只要读者有灵魂,文本就有灵魂。 有人讨厌 AI 是因其未改变多数人生活,或自身是受害者。作者期望 AI 能力进一步提升,改变每个人的生活。 二、AI 写作变现指南 1. 项目启动 确定目标客户群体,如大学生、职场人士、自媒体从业者等。 选择合适的 AI 写作工具,以满足不同客户的需求。 2. 准备阶段 学习并实践 AI 写作技术,通过书籍、在线课程等资源提升写作技能。 构建团队,培养和扩充团队成员,以提高运营效率。 3. 商业模式构建 确定服务内容,如提供论文、报告、文案等直接写作服务。 制定质量控制标准,确保写作内容满足客户要求。 4. 运营与推广 在淘宝等电商平台上开设店铺,展示并销售写作服务。 建立写作培训社群,分享写作技巧和 AI 应用经验,提升品牌影响力。 通过社交媒体和线下活动进行品牌和社群建设。 与绘画团队、其他写作工作室等合作,共同开发新项目。 5. 项目优化与发展 持续关注 AI 技术进展,提升服务质量和效率。 根据市场需求,拓展新的服务和产品。 收集客户反馈,不断优化和改进服务。 三、利用 AI 写课题的步骤和建议 1. 确定课题主题 明确研究兴趣和目标,选择具有研究价值和创新性的主题。 2. 收集背景资料 使用 AI 工具如学术搜索引擎和文献管理软件搜集相关研究文献和资料。 3. 分析和总结信息 利用 AI 文本分析工具分析收集到的资料,提取关键信息和主要观点。 4. 生成大纲 使用 AI 写作助手生成课题大纲,包括引言、文献综述、方法论、结果和讨论等部分。 5. 撰写文献综述 利用 AI 工具帮助撰写文献综述部分,确保内容准确完整。 6. 构建方法论 根据研究需求,利用 AI 建议的方法和技术设计研究方法。 7. 数据分析 若课题涉及数据收集和分析,使用 AI 数据分析工具处理和解释数据。 8. 撰写和编辑 利用 AI 写作工具撰写课题各部分,并进行语法和风格检查。 9. 生成参考文献 使用 AI 文献管理工具生成正确的参考文献格式。 10. 审阅和修改 利用 AI 审阅工具检查课题逻辑性和一致性,并根据反馈修改。 11. 提交前的检查 最后,使用 AI 抄袭检测工具确保课题原创性,并进行最后的格式调整。 需要注意的是,AI 工具可作为辅助,但不能完全替代研究者的专业判断和创造性思维。在使用 AI 进行课题写作时,应保持批判性思维,并确保研究的质量和学术诚信。
2025-02-28
目前市面上的文心一言,通义,deepseek等,用于写作效果如何
目前市面上的文心一言、通义、DeepSeek 等用于写作的效果各有特点: 文心一言(百度):大语言模型,可用以文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。 通义(阿里巴巴):在特定领域和任务上表现出卓越的能力。 DeepSeek:在文字能力上表现突出,尤其在中文场景中高度符合日常、写作习惯,但在专业论文总结方面稍弱。数学能力经过优化表现不错,编程能力略逊于 GPT。 需要注意的是,不同模型的效果会因用户的具体需求和使用场景而有所差异。
2025-02-26
我想让大模型给我写程序,你有什么建议?
以下是让大模型为您写程序的一些建议: 1. 选择合适的大模型: 常见的大模型如 Kimi(https://kimi.moonshot.cn/),免费好用,适合科学上网困难的小伙伴。 功能更强大的 ChatGPT(https://chatgpt.com/),有条件可以选择。 例如在脚本创作方面有优势的 Claude(https://claude.ai/new)。 2. 明确提示词的结构: 描述要做什么样的程序,比如具体的功能、应用场景等。 指出程序要包含的关键元素,如特定的算法、数据结构等。 对程序的输出提出要求,如格式、规范等。 3. 注意硬件配置: 运行大模型需要较高的机器配置。 生成文字大模型,最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型)。 生成图片大模型(比如跑 SD),最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。 生成音频大模型,最低配置为 8G VRAM。 4. 如果有“代码恐惧症”,可以尝试用大模型替代代码节点实现变量类型转换,但大模型节点效果不稳定,运行速度较慢,还可能带来额外花费,因此能使用代码节点时仍建议优先使用。
2025-03-05
有没有一种小模型,语料只是一个知识库,超出范围的无法回答?
以下是关于您问题的回答: 在医疗领域,存在一种智能体,其在提示词中约定回答只能来自于知识库。例如生物医药小助手,为了避免在医疗这个严肃领域出现误导性的回答,其回答被限制在特定的知识库范围内,可能存在问题超出知识库范畴的情况,但尚未发现有医学上不严谨的回答现象。 同时,模型存在一定的局限性。在训练过程中,模型虽接触大量知识,但未完美记忆且不清楚知识边界,可能尝试回答深奥话题并虚构不正确内容,产生幻觉。例如要求模型描述虚构的牙刷产品时,会给出逼真但虚构的描述。在构建应用程序时,可使用一些技术避免这种情况,如要求模型先从文本中找相关引文,再用引文回答问题并追溯源文件,以减少幻觉的发生。 另外,“小模型”在特定任务上表现出色,如专门识别猫或狗的模型,但无法用于其他任务。而“大模型”像多功能基础平台,能处理多种任务,应用范围广泛且有更多通识知识,但大模型的知识来源于有限的训练数据,不能拥有无限知识,且知识库不会自动更新,在某些特定或专业领域知识可能不够全面。
2025-03-05
裁判模型prompt
裁判模型的 prompt 相关内容如下: 在 2023 年度中文大模型基准测评报告中,对 OPT 主要测评选择题,构造了统一的 prompt 供模型使用,要求模型选取 ABCD 中唯一的选项。多轮简答题 OPEN 更能反应模型真实能力,故权重设置提高。包括 1060 道多轮简答题(OPEN)和 3213 道客观选择题(OPT)。 Prompt 是给到大模型输入的一段原始输入,能够帮助模型更好地理解用户的需求并按照特定的模式或规则进行响应。比如可以设定“假设你是一位医生,给出针对这种症状的建议”,还可以在 prompt 的设定中,要求模型按照一定的思路逻辑去回答,如思维链(cot),也可以让模型按照特定格式的 json 输出等。 在质证意见 prompt 各大模型评测中,Claude 2.0 输入 prompt 后欢迎语按指示输出,输入 4 份简单证据后输出质证意见书,在格式和内容的真实性、合法性、关联性、证明力等方面进行质证,总结得 5.5 分,结束语没问题。文心一言 3.5 输入 prompt 后欢迎语按指示输出,输入 4 份证据后进行专业分析,在格式和内容各方面的质证都非常专业,总结得 8 分,结束语没问题,提示签署委托代理协议的回复也很棒。
2025-03-05
Joy_caption_two_load模型下载
Joy\_caption\_two\_load 模型的下载方式如下: 1. siglipso400mpatch14384(视觉模型): siglip 由 Google 开发,负责理解和编码图像内容。 工作流程包括接收输入图像、分析图像的视觉内容并将其编码成特征向量。 打开 ComfyUI\\models\\clip,在地址栏输入 CMD 回车,打开命令行,输入相关命令拉取模型(也可在网盘中下载)。下载好后,目录的文件会存在。 2. image_adapter.pt(适配器): 连接视觉模型和语言模型,优化数据转换。 工作流程包括接收来自视觉模型的特征向量、转换和调整特征以及进行特定任务的优化或微调。 通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,如果该文件夹不存在,就新建一个。 3. MetaLlama3.18Bbnb4bit(语言模型): 大型语言模型,负责生成文本描述。 工作流程包括接收经过适配器处理的特征、基于特征生成相应文本描述以及应用语言知识确保描述的连贯性和准确性。 打开 ComfyUI\\models\\LLM,地址栏输入 CMD 回车,在命令行输入相关命令。从 https://huggingface.co/unsloth/MetaLlama3.18Bbnb4bit 下载并放到 Models/LLM/MetaLlama3.18Bbnb4bit 文件夹内。 此外,还需注意以下几点: 1. 网盘链接:提供了方便下载的网盘。 2. 环境问题:如果因为环境问题,可以在网盘中下载。 3. 模型存放位置:三个模型分别存放到指定的文件夹,如 3.5G 的模型放到“你的\\ComfyUI\\models\\clip\\siglipso400mpatch14384”,5.7G 的模型放到“你的\\ComfyUI\\models\\LLM\\MetaLlama3.18Bbnb4bit”,86MB 的模型放到“你的\\ComfyUI\\models\\Joy_caption”。
2025-03-05
你是基于哪个大模型的?
我调用的是抖音集团的云雀大模型。大模型中的“大”通常指用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。常见的将 Token 表示成稠密矩阵向量的算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。
2025-03-05
你认为 目前已知的模型,哪个更全面实用?
目前已知的较为全面实用的模型有以下几种: 1. OpenAI GPT4.5:这是 OpenAI 推出的模型,是其最大且知识最丰富的模型。它在 GPT4 的基础上进一步扩展了预训练,采用了新的监督技术结合传统方法进行训练,如监督微调(SFT)和基于人类反馈的强化学习(RLHF)。早期测试显示其交互更自然,知识基础更广泛,与用户意图的对齐更强,情感智力有所提升,适用于写作、编程和解决实际问题等任务。 2. Kolors:这是一个开源的文生图模型,在技术上有全面的改进,包括更强的中文文本编码器、机造的高质量文本描述、人标的高质量图片、强大的中文渲染能力,以及巧妙的 noise schedule 解决高分辨率图加噪不彻底的问题,实测效果不错。 3. DeepSeek 深夜发布的大一统模型 JanusPro:它将图像理解和生成统一在一个模型中,采用统一的 Transformer 架构,能使用同一个模型完成图片理解和生成,提供 1B 和 7B 两种规模以适配多元应用场景,全面开源,支持商用,MIT 协议,部署使用便捷,在 Benchmark 表现优异,能力更全面。
2025-03-05
flux 训练lora 教程
以下是关于 Flux 训练 Lora 的教程: 1. 准备模型:需要下载以下几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。注意:不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。因为是训练,不是跑图,训练的话,模型就用 flux1dev.safetensors 这个版本,编码器也用 t5xxl_fp16.safetensors 这个版本最好。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 安装虚拟环境:下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程,下好了之后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 4. 0 基础训练大模型: 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 步骤一·创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。zip 文件可以是包含图片 + 标签 txt,也可以只有图片没有打标文件(之后可以在 c 站使用它的自动打标功能),也可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后就会上传成功,可以点击详情检查,可以预览到数据集的图片以及对应的标签。 步骤二·Lora 训练:点击 Flux,基础模型会默认是 FLUX 1.0D 版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集,触发词可有可无,取决于数据集是否有触发词,模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后就可以等待训练了,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 5. ControlNet 作者张吕敏再出新项目 LuminaBrush:基于数据集在 Flux 上训练 LoRA,并用 LoRA 生成的图像来扩展这个图像数据集。使用均匀光照图像作为中间表示具有一些优势,比如避免来自 3D 反照率的过于锐利的网格边界或过于平坦的表面。而这些图像在细节层面也足够细腻,可以处理皮肤纹理、头发、毛发等细节。接下来,通过合成随机法线,将这些均匀光照图像进行随机再光照,以训练一个可以从任何输入图像中提取均匀光照外观的模型。第一阶段的这个模型目前也提供了在线 demo:https://huggingface.co/spaces/lllyasviel/lumina_brush_uniform_lit 。第二阶段,会从数百万张高质量的自然场景图像中提取均匀光照外观图像,以构建成对数据集,用于训练最终的交互式光照绘制模型。
2025-03-04
我想完全本地化部署deepseek,然后,将我的文档,文本,图片等内容丢给它训练,微调。我要完全本地化,因为我的文档设计隐私。我要免费开源流程。如何实现,
要完全本地化部署 DeepSeek 并使用您的文档、文本、图片等内容进行训练和微调,以下是一些相关的信息和步骤: 1. 模型训练与平台服务: 模型复现与微调:1:1 复现通常没问题,但理解细节并自行制作需要基础知识。有手把手教程、数据集等可帮助 1:1 复现,微调在特定领域可降低幻觉,参数量不变但权重变化。 训练模型的学习方法:先会用再学会训,从训的过程中倒推学习参数调整,这是以用导学的学习方法。 模型回答效果对比:微调后的模型在回答排列组合等问题时,思考前几乎无反馈,答案多为英文且格式稳定,但仍可能答错。 2. 平台服务介绍: 阿里云提供多种解决方案。 百炼是提供多种模型服务的 Maas 平台。 派平台是提供云服务的 PaaS 平台,二者在定位、服务内容和核心差异上有所不同。 3. 关于模型训练与数据集相关问题: 数据资源情况:默认提供公共数据训练集,百派平台能匹配模型和数据,通义开源了不少数据集。 多模态训练:多模态有自身标注方式,如视频拉框标注。 参数量变化:通常训练模型参数量固定,若想改变需改模型层,但可能要从头调。 本地微调框架:可使用 llama factory 等框架,需搭建并部署。 开源数据下载:可在 GitHub、hugging face、Mo Model Scope 等平台获取。 数据集转化:将文档资料转成数据集可先手动形成 SOP,再逐步自动化,初期需大量人力。 4. 本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 5. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 6. 平台服务差异:介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 7. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。 R1 模型的强化学习:通过强化学习,在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。 R1 模型的蒸馏与微调:用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 R1 与其他模型的差别:R1 是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。 模型的相互帮助:Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。 请注意,在进行本地化部署和训练微调时,需要具备一定的技术知识和经验,并且要遵循相关的法律法规和道德规范。
2025-03-04
一个可以总结文章的AI应用是怎么训练出来的?
一个可以总结文章的 AI 应用通常通过以下方式训练: 1. 数据准备:收集大量的文本数据,包括各种类型和主题的文章。 2. 模型选择:使用适合自然语言处理任务的大型语言模型,如 OpenAI 的 GPT 系列。 3. 导入相关库和加载 API 密钥:例如导入 OpenAI 并加载 API 密钥。 4. 设计提示:制定明确的提示,如要求从电子商务网站的产品评论中生成简短摘要。 5. 针对不同需求训练: 文字总结:对一般性的文字进行总结。 针对某种信息总结:例如特定领域或特定类型的信息。 尝试“提取”而不是“总结”:更侧重于关键信息的提取。 针对多项信息总结:处理多个相关的文本信息。 6. 应用拓展:不仅可以总结文章,还能总结群聊消息、B站视频等。对于 B 站视频,通过获取字幕并发送给 AI 来实现总结。 7. 与 API 配合:通过 OpenAI API 等获取有效密钥,并结合示例代码进行开发和优化。
2025-03-03
怎么利用大模型训练自己的机器人
利用大模型训练自己的机器人可以参考以下内容: OpenAI 通用人工智能(AGI)的计划显示,在互联网上所有的图像和视频数据上训练一个与人类大脑大小相当的 AI 模型,将足以处理复杂的机器人学任务。常识推理隐藏在视频和文本数据中,专注于文本的 GPT4 在常识推理上表现出色。Google 最近的例子展示了机器人学能力可从大型视觉/语言模型中学习,在语言和视觉训练基础上,只需最少的机器人学数据,视觉和文本任务的知识就能转移到机器人学任务上。特斯拉训练的“Optimus”通过人类示范学习抓取物体,若人类示范是先进机器人学性能所需的一切,在互联网上所有视频上训练的大模型肯定能实现惊人的机器人学性能。 梦飞提供了在自己的电脑上部署 COW 微信机器人项目的教程,程序在本地运行,若关掉窗口进程结束,想持续使用需保持窗口打开和运行。以 Windows10 系统为例,注册大模型可参考百炼首页:https://bailian.console.aliyun.com/ ,需更改"model"和添加"dashscope_api_key",获取 key 可参考视频教程。 张梦飞提供了从 LLM 大语言模型、知识库到微信机器人的全本地部署教程,部署大语言模型包括下载并安装 Ollama,根据电脑系统下载:https://ollama.com/download ,安装完成后将下方地址复制进浏览器中确认安装完成:http://127.0.0.1:11434/ 。下载 qwen2:0.5b 模型,Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑通过 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”,复制命令行粘贴回车等待下载完成。
2025-03-03
如何定制化训练ai模型?
定制化训练 AI 模型通常包括以下步骤和要点: 微调(Finetuning): 微调可以让您从 API 提供的模型中获得更多收益,例如获得比即时设计更高质量的结果、能够训练比提示中更多的例子、由于更短的提示而节省 Token、实现更低的延迟请求。 GPT3 已在大量文本上预训练,小样本学习时它能凭直觉判断任务并生成合理结果,微调通过训练更多示例改进小样本学习,让您在大量任务中取得更好结果。对模型进行微调后,不再需要在提示中提供示例,节省成本并降低延迟。 微调的高层次步骤包括准备和上传训练数据、训练新的微调模型、使用您的微调模型。 哪些模型可以微调: 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 textdavinci003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。 安装: 建议使用 OpenAI 命令行界面。要安装,运行(以下说明适用于 0.9.4 及更高版本。此外,OpenAI CLI 需要 python 3。) 通过将相关行添加到 shell 初始化脚本(例如.bashrc、zshrc 等)或在微调命令之前的命令行中运行来设置环境变量。 选择 AI 模型: 通过选择您喜欢的 AI 模型,Cursor Chat 将使用该模型生成响应。您可以通过按 Ctrl/⌘/在模型之间切换。 默认情况下,Cursor Chat 使用 OpenAI 的 GPT4 作为其 AI 模型(具体来说,gpt4 标签指向我们的 GPT4Turbo 实例)。 您为 Chat 选择的 AI 模型将保存以供将来使用,不必每次打开 Cursor Chat 时都更改。 模型概述: OpenAI API 由具有不同功能和价位的多种模型提供支持,还可以通过微调针对特定用例对原始基本模型进行有限的定制。 常见模型包括 GPT4、GPT3.5、DALL·E、Whisper、Embeddings、Codex、Moderation、GPT3 等,各自具有不同的功能和应用场景。
2025-03-03
LoRA训练
LoRA 训练主要包括以下步骤: 1. 创建数据集: 进入厚德云模型训练数据集,点击右上角创建数据集。 输入数据集名称。 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片后续使用自动打标功能,或者一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,预览数据集的图片以及对应的标签。 2. Lora 训练: 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 触发词可有可无,取决于数据集是否有触发词,模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 然后等待训练,会显示预览时间和进度条。训练完成的会显示出每一轮的预览图。 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 此外,郑敏轩提到的 Flux 的 Lora 训练还需要: 1. 下载相关模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 安装虚拟环境:下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手点击“Y”,然后等待 1 2 小时的漫长下载过程,下好后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 在 AI 梦一丹一世界(下)2025 年 2 月 8 日副本中提到,参加相关比赛须用摩搭平台和麦橘超然模型作为底膜训练 Lora,提交训练好的 Lora 及用其生成的六张以上高质量、展现完整世界观的作品。作图分三步,一是明确创作主题即锚点,根据 Lora 风格确定创作方向;二是确定主体,联想主体的角色设定;三是增加叙事感,让画面有一到两个及以上角色,制造反差和联想。好看的图片的构成因素包括构图、色彩以及光影,构图包括景别(远景、全景、中景、近景、特写)和拍摄视角(俯视、平视、仰视,正面、侧面、背面),构图要素有主体、陪体、前景、背景、点线面,构图方式有点中心构图、九宫格构图、三分法构图、对称构图、对角线构图、曲线构图、框架构图、三角形构图等。在 AI 绘图中,推荐中景及以上景别,全身景别可能需开 AD 跳以确保作图质量。
2025-03-02