Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想训练自己的公文写作模型

Answer

以下是关于训练公文写作模型的一些建议:

首先,如同大语言模型的学习方式,监督学习对于提升写作能力至关重要。您需要接触大量优秀的公文范例,分析其选题思路、文章结构和表达方式,就像 AI 从海量优质内容中学习规律和模式一样,人类也需要通过这种方式不断“训练”自己的“写作模型”。

其次,对于爆款文案模型的训练过程,您可以参考以下要点:

  1. 引人入胜的开头:提出触动读者好奇心的问题,吸引读者注意力。
  2. 提问引出主题:通过提问巧妙引导读者关注论述主题。
  3. 观点与案例结合:阐述观点时结合生动实际的案例,增强说服力。
  4. 社会现象分析:与当前社会现象相联系,引发读者共鸣和思考。
  5. 软广植入:巧妙植入软广告,如成功案例,激发读者兴趣。
  6. 总结与升华:结尾对内容进行总结和升华,突出主题。
  7. 金句收尾:以启发性金句结尾,留下深刻印象。

您可以明确自己希望编写公文的主题或目标,然后按照这些要素和要点来进行训练和创作。

Content generated by AI large model, please carefully verify (powered by aily)

References

夙愿:AI 工作流,赋能我的十倍增长

(如果你已经同意了选题很重要,那么这一段不用看了。)说到找选题,我想到一个很有意思的类比,你知道大语言模型是怎么学习的吗?其中有个关键环节叫"监督学习"。简单说,就是给AI看一堆优秀的文本示例,AI先学习什么是好内容,才能写出好内容,这个过程跟我们公众号创作者学习写作,其实挺像的。想想看,如果你从来没读过任何高阅读量的文章,怎么可能写出高阅读量文章呢?你得先接触大量成功案例,才能培养出好的写作感觉。我之前刚开始写公众号时,我以为自己想到什么就写什么就行了,结果就真不行。后来我开始有意识地学习其他优秀公众号的文章。慢慢地,我发现自己的文笔、选题、结构都在不知不觉中进步了。这就像AI的学习过程。它不是凭空创造,而是从海量优质内容中学习规律和模式。我们人类也一样,需要不断"训练"自己的"写作模型"。所以,当你在刷那些大号的文章时,别只是随便看看。试着分析他们的选题思路、文章结构、表达方式。

爆款文案模型

我理解了,以【一飞冲天】开头提问,我会使用你所指定的“一飞冲天”模型,来帮助你编写一篇文案。这个模型包括以下7个要素,每个要素都有相应的权重:引人入胜的开头(20%)提问引出主题(15%)观点与案例结合(20%)社会现象分析(15%)软广植入(10%)总结与升华(10%)金句收尾(10%)你只需要明确告诉我你希望编写文案的主题或目标,我将会根据这个模型来帮助你完成。

爆款文案模型

已学习这个更深入的文案模型,并理解了以下七个重要的要素:引人入胜的开头:文案开始时提出一个触动读者好奇心的问题,有效地吸引了读者的注意力,促使他们想继续阅读下去。提问引出主题:通过提问的方式,作者巧妙地引导读者理解和关注论述的主题,使得文案更引人入胜,增强读者的阅读兴趣。观点与案例结合:作者在阐述观点时,结合了生动实际的案例,使得观点更具有说服力,增强了文案的吸引力。社会现象分析:将文案内容与当前社会现象相联系,使得文案具有现实意义,能够引发读者的共鸣和思考。软广植入:作者在文案中巧妙地植入了一些软广告,如学员的成功案例,使得读者在不知不觉中对相关产品产生了兴趣。总结与升华:在文案的结尾部分,对之前的内容进行了总结和升华,使得文案主题更加突出,帮助读者深入理解和接受。金句收尾:以一句具有启发性的金句作为结尾,使得文案更具有深度和价值,同时为读者留下深刻的印象。

Others are asking
哪个APP或大模型写公文比较好
目前在写公文方面,以下是一些相关的信息: 大模型工具推荐:chatGPT 4.0、kimichat、智谱清言 4。 飞书文档带有文本纠错功能。 但对于专门用于写公文的 APP ,上述内容中未明确提及。
2025-03-21
AI公文写作
以下是关于 AI 公文写作的相关信息: AI 公文智能体: “学习强国公文助手”在文小言 APP 正式上线,具有文汇检索、AI 公文书写、AI 公文润色等功能。其具有权威的“学习强国”数据库背书,内容覆盖文汇、重要活动、重要会议、指示批示等。使用方式为下载文小言 APP 找寻学习强国公文助手。 AI 在工作流中的应用: 1. 拆解工作流程:做每件事之前思考 AI 能提供的帮助,如用 AI 拆解公众号写作的工作流,可通过提示词让 Claude 给出大致框架并进一步细化。建议将拆解出的工作流程用图表展示,如用 Xmind 画时间轴图。但对于画流程图,虽 AI 能帮忙但为了锻炼自己和效果考虑,不建议让 AI 画。 2. 给工作流武装上武器:先梳理传统工作流,再考虑 AI 赋能。以公众号写作为例,明确传统流程的各个环节,如选题、搜资料、列提纲、起标题、配图片、排版发布等,然后在相应环节引入 AI 工具辅助,如资料搜集可用 AI 搜索工具,写作环节可用 Claude 辅助,做图可用 AI 画图工具等。但要先理清传统工作流,否则盲目引入 AI 工具可能适得其反。AI 是为了更高效地达成业务目标服务,一切以业务逻辑为先。
2025-03-20
公文写作工具推荐
以下是为您推荐的公文写作工具: 1. 熊猫大侠中的相关工具: 辅助写作方面: 公文笔杆子:公文材料写作必备,效率开挂! 办公提效方面: 翻译通:一键中英互译,直译意译,样样精通。 Offer 收割机:改简历,练面试,接 offer。 PPT 助手:让您的 PPT 既有 Power,又有 Point。 2. 内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ 写作猫是 AI 写作伴侣,帮您推敲用语、斟酌文法、改写文风,还能实时同步翻译。支持全文改写,一键修改,实时纠错的同时一并给出修改建议,智能分析文章的各类属性,用人工智能为您的文章正负情感、情绪强度和易读性打分。 笔灵 AI 写作:https://ibiling.cn/ 笔灵 AI 写作是得力的智能写作助手,心得体会、公文写作、演讲稿、小说、论文十八般武艺样样精通。支持一键改写/续写/扩写,智能锤炼打磨文字,使之更加符合您的需求。 腾讯 Effidit 写作:https://effidit.qq.com/ 智能创作助手 Effidit(Efficient and Intelligent Editing)是由腾讯 AI Lab 开发的一个创作助手,探索用 AI 技术提升写作者的写作效率和创作体验。 3. 论文写作相关的 AI 工具和平台: 文献管理和搜索: Zotero:结合 AI 技术,可以自动提取文献信息,帮助研究人员管理和整理参考文献。 Semantic Scholar:一个由 AI 驱动的学术搜索引擎,能够提供相关的文献推荐和引用分析。 内容生成和辅助写作: Grammarly:通过 AI 技术提供文本校对、语法修正和写作风格建议,帮助提高论文的语言质量。 Quillbot:一个基于 AI 的重写和摘要工具,可以帮助研究人员精简和优化论文内容。 研究和数据分析: Google Colab:提供基于云的 Jupyter 笔记本环境,支持 AI 和机器学习研究,便于进行数据分析和可视化。 Knitro:一个用于数学建模和优化的软件,可以帮助研究人员进行复杂的数据分析和模型构建。 论文结构和格式: LaTeX:虽然不是纯粹的 AI 工具,但结合了自动化和模板,可以高效地处理论文格式和数学公式。 Overleaf:一个在线 LaTeX 编辑器,提供丰富的模板库和协作功能,简化论文编写过程。 研究伦理和抄袭检测: Turnitin:一个广泛使用的抄袭检测工具,帮助确保论文的原创性。 Crossref Similarity Check:通过与已发表作品的比较,检测潜在的抄袭问题。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-07
如果我想让deepseek成为我专属的公文写作助手,需要输入什么提示词
如果您想让 DeepSeek 成为您专属的公文写作助手,可以参考以下提示词: 1. 首先借助 AI 分析好的文章: 找出您最喜欢的文章,投喂给 DeepSeek R1(理论上来说适合大多数 AI,尤其是有推理模型)。 第一次询问:请从写作角度分析这篇文章。 第二次询问:请再从读者角度分析这篇文章。 第三次询问:这篇文章还存在什么缺点和不足,有什么改善和提升的空间。 对作者进行侧写,分析成长背景、个人经历和知识结构对文章的影响。 2. 让 AI 对您写的文章进行点评:“现在我希望你是一名资深中文写作教师/小学语文老师/中学语文老师/公文写作培训师,拥有 30 年教育经验,是一名传授写作技巧的专家。请先阅读我提供给你的文章,然后对文章进行分析,然后教我如何提升写作水平。请给出详细的优缺点分析,指出问题所在,并且给出具体的指导和建议。为了方便我能理解,请尽量多举例子而非理论陈述。” 3. 根据文章内容对作者进行心理侧写:“我希望你扮演一个从业 20 多年,临床诊治过两千多例心理分析案例的人性洞察和意识分析方面的专家,精通心理学、人类学、文史、文化比较。先阅读后附文章全文,然后对作者进行人格侧写。要尖锐深刻,不要吹捧包装,不要提出一些只能充当心理安慰的肤浅的见解。包括作者的基本画像、核心性格特质、认知与价值观、潜在心理动机、行为模式推测、矛盾与盲点、文化符号映射。”
2025-03-06
我是一名AI工具使用小白,渴望快速掌握AI工具,在电子表格制作、ppt制作、公文写作、文案写作等方面提升应用能力,请问应该学习哪些入门课程。
以下是一些适合您入门学习的 AI 课程: 1. 工具入门篇(AI Tools): 数据工具多维表格小白之旅:适合 Excel 重度使用者、手动数据处理使用者、文件工作者。通过表格+AI 进行信息整理、提效、打标签,满足 80%数据处理需求。 文章链接: 视频链接: 2. 工具入门篇(AI Code): 编程工具Cursor 的小白试用反馈:适合 0 编程经验、觉得编程离我们很遥远的小白。通过 AI 工具对编程祛魅,降低技术壁垒。 文章链接: 3. 工具入门篇(AI Music): 音乐工具Suno 的小白探索笔记:适合 0 乐理知识、觉得作词作曲和我们毫不相关成本巨大的小白。AI 赋能音乐创作,无需乐理知识即可参与音乐制作。 文章链接: 此外,还有以下相关内容供您参考: 1. 关于 AI 视频制作的交流与答疑: 视频流表格制作:在知识库的 AI 视频专栏中有相关教程和模板。 Copy UI 社区:微推有专门研究 Copy UI 的社区,相关内容有趣但本次未展开讲。 SD 类图片作用:国内大厂很卷,一般需求吉梦等产品可完成,特殊精细要求才用 SD,不了解可在微推加 AI 会话中找。 图片视角转移:使用 P 模型,上传图片并告知镜头移动方向和相关内容。 PNG 与背景融合:Recraft 产品目前不太擅长 PNG 与背景的特别好的融合,可通过合并方式处理。 保证文字不崩:使用吉梦的 2.1 模型效果较好。 新手 AI 视频制作:纯小白参与项目时,项目组会做好部分准备工作,上手难度不高,专注出图和出视频,用好相关技术。 关于利用 AI 工具创作北京宣传片相关问题的探讨。 AI 工具使用思路:对于如何利用 AI 工具创作,建议直接上手尝试,通过试错和与 AI 交流获取反馈,遇到具体问题再向社区请教。 素材处理方法:若有故宫相关照片素材,可采用导入参考图生图、让实拍素材动起来等方式,还可通过抠图、融图等操作将素材与虚拟背景融合。 创作需先构思:创作时不能仅考虑如何连接已有素材,而应先构思剧本和想要表达的内容,再合理运用素材。 2. 入门工具推荐: Kimi 智能助手:Chatgpt 的国产平替,实际上手体验最好,推荐新手用 Kimi 入门学习和体验 AI。不用科学🕸️、不用付费、支持实时联网。是国内最早支持 20 万字无损上下文的 AI,也是目前对长文理解做的最好的 Ai 产品。能一次搜索几十个数据来源,无广告,能定向指定搜索源。 PC 端: 移动端 Android/ios: 您还可以通过「飞书」这款工具,浏览其社区的精选课程、先进客户实践。下载飞书:
2025-02-26
我是一名高校新媒体工作人员,由于文字能力一般,需要能力较强的ai文本工具,用于撰写公文,新闻稿,公众号推文,总结简报等。请推荐至少5个,并进行对比分析
以下为您推荐至少 5 个适用于高校新媒体工作人员的 AI 文本工具,并进行对比分析: Copy.ai: 功能强大,提供丰富的新闻写作模板和功能。 可快速生成新闻标题、摘要、正文等内容,节省写作时间,提高效率。 Writesonic: 专注于写作,提供新闻稿件生成、标题生成、摘要提取等功能。 智能算法能根据用户提供信息生成高质量新闻内容,适合新闻写作和编辑人员。 Jasper AI: 人工智能写作助手,写作质量较高,支持多种语言。 虽主打博客和营销文案,也可用于生成新闻类内容。 Grammarly: 不仅是语法和拼写检查工具,还提供一些排版功能,可改进文档整体风格和流畅性。 QuillBot: AI 驱动的写作和排版工具,能改进文本清晰度和流畅性,同时保持原意。 秘塔写作猫: 是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,还能实时同步翻译。 支持全文改写,一键修改,实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作: 是智能写作助手,能应对多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等。 支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作: 由腾讯 AI Lab 开发,能探索用 AI 技术提升写作者的写作效率和创作体验。 选择工具时,您可根据具体需求(如文档类型、个人偏好等)进行考虑。例如,若主要需求是生成新闻类内容,Copy.ai、Writesonic 和 Jasper AI 可能更适合;若还需兼顾排版和语法检查,Grammarly 和 QuillBot 是不错的选择;若注重中文内容的改写,秘塔写作猫、笔灵 AI 写作和腾讯 Effidit 写作可优先考虑。
2025-02-26
目前的大模型ai工具中 你觉得文本处理 写作这方面那个工具最强 最像人
目前在大模型 AI 工具中,对于文本处理和写作方面,以下是一些相关信息: 生成式人工智能的工作原理:在整体的人工智能领域,监督学习用于标记事物,一直占据很大比例。现在生成式 AI 快速崛起,强化学习与无监督学习也是重要工具。生成式 AI 由监督学习技术搭建,大语言模型使用监督学习不断预测下一个词语来生成文本,这需要大量数据。 大语言模型的应用:运用大语言模型写故事、修改文本很有用,但它可能编造故事产生错误信息,需要鉴别信息准确。网络搜索与大语言模型的区别在于网络搜索可追寻信息来源,大语言模型能提供建议与策略。 写作方面:使用大模型工具如 LLM 来写作,集思广益、头脑风暴非常有用。网页版聊天时提供更多信息,翻译也可使用 LLM,但其效果受网络文本量影响。 推荐的大模型工具:chatGPT 4.0、kimichat、智谱清言 4 等。一些国产模型如智谱和文心可以文生图。 相关工具:除了 Snapbox 外,还有 OpenCAT 等类似工具可供选择。有多种文本处理与总结工具,如 kimi 网页总结助手、ChatHub 等,以及翻译插件与 AI 对话插件、沉浸式翻译插件等。Memo Al 可以对音频视频进行转文字、字幕翻译、语音合成等,并由多种 AI 模型提炼内容精华总结、生成思维导图。 综合来看,不同的大模型工具在文本处理和写作方面各有特点,难以简单地确定哪一个最强、最像人,具体取决于您的需求和使用场景。
2025-04-01
有没有准确的ai论文写作指令
以下是一些准确的 AI 论文写作指令的相关策略和技巧: 1. 清晰明确的指令: 模型无法读心,若输出过长可要求简短回答,过简可要求专业写作,对格式不满可展示期望格式,减少模型猜测以获得期望结果。 在查询中添加详细信息以获取更准确答案。 请求模型扮演特定角色,如以专家口吻或像朋友一样。 使用分隔符清晰区分输入的不同部分,如三重引号、XML 标签或章节标题。 明确指出完成任务需要的步骤,将复杂任务分解为更小步骤。 提供实例作为参考。 明确指定希望输出的长度,如字数、句子数、段落数或要点数量。 2. 提供参考文本: 语言模型有时会编造答案,为其提供参考文本可帮助生成更准确可靠的答案。 指导模型使用参考文本回答问题,将其作为依据。 指导模型使用参考文本中的引用来回答问题,并标注引用来源。 通过运用这些策略和技巧,能够提高 AI 在论文写作方面的辅助效果。
2025-04-01
论文写作
在论文写作领域,AI 技术的应用发展迅速,能提供多方面的辅助,以下是一些常用的 AI 工具和相关信息: 1. 文献管理和搜索: Zotero:结合 AI 技术,可自动提取文献信息,助于管理和整理参考文献。 Semantic Scholar:AI 驱动的学术搜索引擎,提供文献推荐和引用分析。 2. 内容生成和辅助写作: Grammarly:通过 AI 技术进行文本校对、语法修正和写作风格建议,提升语言质量。 Quillbot:基于 AI 的重写和摘要工具,可精简和优化论文内容。 3. 研究和数据分析: Google Colab:提供云环境支持 AI 和机器学习研究,便于数据分析和可视化。 Knitro:用于数学建模和优化,助力复杂数据分析和模型构建。 4. 论文结构和格式: LaTeX:结合自动化和模板,高效处理论文格式和数学公式。 Overleaf:在线 LaTeX 编辑器,有丰富模板库和协作功能,简化编写过程。 5. 研究伦理和抄袭检测: Turnitin:广泛使用的抄袭检测工具,确保论文原创性。 Crossref Similarity Check:通过与已发表作品比较,检测潜在抄袭问题。 此外,还有一些关于论文写作的观点和方法: 可以向 LLM 寻求写作建议,但要注意使用的道德性。 文章写作包括大纲撰写、内容展开、文章润色等步骤,不同人有不同理解和方法。 使用这些工具时,要结合自身写作风格和需求,选择最合适的辅助工具。
2025-04-01
写作prompt
以下是关于写作 prompt 的相关知识: 写 prompt 是决定 AI 模型如何理解并生成文本的关键步骤。一个好的 prompt 能帮助模型更好地理解任务要求,生成更符合预期的文本。编写 prompt 有以下建议: 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,在 prompt 中提供足够信息。 3. 使用清晰语言:尽量用简单、清晰的语言描述任务,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在 prompt 中明确指出。 5. 使用示例:若有特定期望结果,在 prompt 中提供示例。 6. 保持简洁:尽量简洁明了,过多信息可能使模型困惑。 7. 使用关键词和标签:有助于模型理解任务主题和类型。 8. 测试和调整:生成文本后仔细检查结果,根据需要调整 prompt,可能需多次迭代。 此外,对于使用 GPT 模仿创作内容,我们的目标是找到教 GPT 创作的方法论,将其和示例写到 prompt 中。最快的方法是改写大佬写好的 prompt,比如 JK 老师的欢乐多朋友圈段子生产 V0.3。若之前未写过结构化的 prompt,推荐打开云中江树老师的 LangGPT 项目学习 https://github.com/yzfly/LangGPT/blob/main/README_zh.md 。 在海螺 AI 中,Prompt 精确公式适用于对镜头运动或画面呈现有明确需求、需要更专业视频输出的用户,准确细致的 Prompt 能提供更准确、具美感的视频画面;基础公式适用于对视频镜头呈现无明确需求或期待用 AI 视频激发创作灵感的朋友,自由的 Prompt 可获得更具想象力的画面。Prompt 基础公式为:要创建的主要表现物+场景空间+运动/变化。主要表现物是视频核心信息,场景空间描述周围环境,运动/变化描述主要表现物在视频中的状态。镜头运动可限定画面呈现方式,美感氛围感可对画面视觉风格和氛围感进行限定。 上述两类 Prompt 公式并非严格使用准则,总体来说,更精确和丰富的表达分别能带来更准确的视频信息呈现和更好的生成效果。
2025-03-30
论文写作相关的提示词
以下是关于论文写作相关的提示词的全面介绍: 论文内容总结: 大模型结合有效的提示词能迅速总结概括论文内容,节省时间。例如 GLM4Plus 结合良好的提示词可帮助学生快速总结。 示例: 论文内容翻译: 大模型能弥补翻译软件的不足,帮助学生快速翻译论文内容,提高阅读效率。如 GLM 结合良好的提示词可实现。 示例: 论文内容扩写润色: 可将论文内容转化为社交媒体的科普内容,将学术知识普及化。精心设计的润色提示词能根据特定场景调整,生成多样化润色结果。如针对小红书使用场景,调整提示词以匹配其口语化、轻松愉快的氛围。 示例: Chain of Density: 目标明确:确保每步目标清晰,AI 需明确指导产生相关有价值输出。 逻辑性:在所有提示策略中,逻辑性关键,清晰结构化提示助 AI 有效生成输出。 分步骤:确保提示按清晰步骤进行,如进行深度分析或遵循特定结构。 考虑变量:在某些情境中需考虑影响结果的所有因素。 运用 CoD 将文章做摘要: 个人观点认为,以英文提示词最后加上中文输出的方式效果较好,密度等级 4 的结果较让人满意。 示例: 提示词的基本示例: 提示词通过结合指令、问题、输入数据和示例构建,必须包含指令或问题,其他元素可选。如询问如何撰写大学入学申请论文,并提出希望答案包含的方面建议。 示例:“我该如何撰写我的大学入学申请论文?请给我一些建议,包括我应该包含的不同部分、我应该使用什么样的语气,以及我应该避免使用的表达。”
2025-03-29
那三款AI写作能力最强
以下为目前写作能力较强的三款 AI 工具: 1. Muse:专门为小说创作训练的 AI 模型工具,可实现在线的小说续写修改、创意头脑风暴以及基于画布形式的故事创作,可免费试用。 2. GPT4:目前功能最强的人工智能写作工具,可以在 Bing(选择“创新模式”)上免费访问,或者通过购买 ChatGPT 的$20/月订阅来访问。 3. Claude 2:写作能力紧随 GPT4 之后,也提供了有限的免费选项。 此外,在广告文案写作方面,以下是排名靠前的几款工具: 1. Simplified:4 月访问量 483 万,相对 3 月变化 0.09。 2. klaviyo SMS Assistant:4 月访问量 471 万,相对 3 月变化 0.045。 3. KoalaWriter:4 月访问量 373 万,相对 3 月变化 6.919。
2025-03-28
学习大模型请给我一张知识图谱
以下是为您提供的大模型知识图谱: 1. 非技术背景,一文读懂大模型 整体架构 基础层:为大模型提供硬件支撑,数据支持等,例如 A100、数据服务器等。 数据层:企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 模型层:LLm 或多模态模型,LLm 即大语言模型,如 GPT,一般使用 transformer 算法实现;多模态模型包括文生图、图生图等,训练所用数据与 llm 不同,用的是图文或声音等多模态的数据集。 平台层:模型与应用间的平台部分,如大模型的评测体系,或者 langchain 平台等。 表现层:也就是应用层,用户实际看到的地方。 2. AI Agent 系列:Brain 模块探究 知识 内置知识 常识知识:包括日常生活中广泛认可的事实和逻辑规则,帮助智能体具备泛化能力。 专业知识:涉及深入特定领域的详细信息,如医学、法律、科技、艺术等领域的专有概念和操作方法。 语言知识:包括语法规则、句型结构、语境含义以及文化背景等,还涉及非文字部分如语调、停顿和强调等。 3. 大模型入门指南 通俗定义:输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。 类比学习过程 找学校:训练 LLM 需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练大模型。 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 找老师:用算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 就业指导:为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 Token:被视为模型处理和生成的文本单位,可代表单个字符、单词、子单词等,在将输入进行分词时,会对其进行数字化,形成词汇表。
2025-04-07
写代码的最佳模型
写代码的最佳模型取决于具体的需求和任务。以下是一些相关要点: 1. 对于不同人使用同一个模型,结果差异大的原因在于是否懂 AI 和懂内容,专业写作通常会混合使用多个模型并取其精华,例如 Grok、Gemini、GPT 各有优势,关键在于如何运用。 2. 在需要精确计算时,可以使用代码或调用 API。GPT 自身进行算术或长计算可能不准确,此时应让模型编写并运行代码,运行代码输出结果后,再将其作为输入提供给模型进行下一步处理。同时调用外部 API 也是代码执行的一个好的用例,但执行代码时要注意安全性,需采取预防措施,特别是需要一个沙盒化的代码执行环境来限制不可信代码可能造成的危害。 3. 文本补全端点可用于各种任务,它提供了简单且强大的接口连接到任何模型。输入一些文本作为提示,模型会生成文本补全,试图匹配给定的上下文或模式。探索文本补全的最佳方式是通过 Playground,它是一个文本框,可提交提示生成完成内容。由于 API 默认是非确定性的,每次调用可能得到稍有不同的完成,将温度设置为 0 可使输出大部分确定,但仍可能有小部分变化。通过提供指令或示例可以“编程”模型,提示的成功通常取决于任务复杂性和提示质量,好的提示应提供足够信息让模型明确需求和回应方式。 需要注意的是,默认模型的训练数据截止到 2021 年,可能不了解当前事件情况。
2025-04-01
我想了解如何提取自己的声音并实现大模型以我的声音回答我
要提取自己的声音并实现大模型以您的声音回答,目前提供的知识库中没有直接相关的详细内容。但可以为您提供一些可能有用的思路和参考方向: 对于声音提取,可能需要使用专业的音频处理软件和设备,将您的声音录制并进行处理和分析。 关于让大模型以您的声音回答,这可能涉及到语音合成技术。您可以先了解一些常见的语音合成模型和工具,例如通过创建大模型问答应用,获取推理 API 服务等。 同时,还可以参考一些关于大模型和语音处理的专业知识,比如大模型的本质是基于语言的概率模型,通过设置合适的 Prompt 来引导模型输出更准确的结果。 由于知识库中没有确切的针对您需求的详细步骤和方法,以上内容仅供您初步参考。
2025-04-01
请基于应用场景,对AI模型进行分类
以下是对 AI 模型基于应用场景的分类: 1. 文本生成和内容创作:包括撰写文章、生成新闻报道、创作诗歌和故事等。 2. 聊天机器人和虚拟助手:提供客户服务、日常任务提醒和信息咨询等服务。 3. 编程和代码辅助:如代码自动补全、bug 修复和代码解释。 4. 翻译和跨语言通信:促进不同语言背景的用户之间的沟通和信息共享。 5. 情感分析和意见挖掘:为市场研究和产品改进提供数据支持。 6. 教育和学习辅助:创建个性化的学习材料、自动回答学生问题和提供语言学习支持。 7. 图像和视频生成:如根据文本描述生成相应的图像,甚至未来可能扩展到视频内容的生成。 8. 游戏开发和互动体验:创建游戏中的角色对话、故事情节生成和增强玩家的沉浸式体验。 9. 医疗和健康咨询:理解和回答医疗相关的问题,提供初步的健康建议和医疗信息查询服务。 10. 法律和合规咨询:帮助解读法律文件,提供合规建议。 此外,在开源模型方面,如 Civitai、海艺 AI、liblib 等为主流创作社区,提供了让用户利用 AI 技术进行图像创作和分享的平台。AI 视频方面,其应用场景广泛,涵盖内容创建、社交媒体营销、讲故事与动画制作、个性化内容、视频摘要、电子学习和培训、新闻媒体、电子游戏开发、虚拟助理和聊天机器人、归档与文档保存以及提高内容的可访问性等多个领域。从使用场景来看,分为改善大模型产品的使用体验、助力用户工作流、细分场景独立实用工具、AI 社区、Chatbot 五个方向;从产品形态上来看,分为插件、辅助现有产品能力、深度结合 LLM 能力的独立网站&应用、AI 社区四种。目前产品大多分布在 PC 端。
2025-04-01
AI模型可以分为什么类型
AI 模型主要可以分为以下类型: 1. 基础模型(Foundation model):在大量数据上训练,能适应多种任务,可作为构建更特定 AI 模型的基础。 2. 大语言模型(LLM):例如谷歌的 BERT 模型,可用于语义理解等任务,生成只是其处理任务之一。 3. 生成式 AI 模型:能够生成文本、图片、音频、视频等内容形式。 4. 按照学习方式分类: 监督学习模型:使用有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习模型:处理无标签数据,自主发现规律,经典任务如聚类。 强化学习模型:从反馈中学习,以最大化奖励或最小化损失。 5. 深度学习模型:参照人脑神经网络和神经元,由于有很多层而被称为深度,神经网络可用于监督学习、无监督学习、强化学习。
2025-04-01
Lora训练
以下是关于 Lora 训练的详细步骤: 创建数据集: 1. 进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset)。 2. 在数据集一栏中,点击右上角创建数据集。 3. 输入数据集名称。 4. 可以上传包含图片+标签 txt 的 zip 文件,也可以只有图片没有打标文件(之后可在 C 站使用自动打标功能),或者一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。 5. Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 6. 上传 zip 以后等待一段时间。 7. 确认创建数据集。 8. 返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,预览到数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,会跳出所有上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。 4. 训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数。如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数。 5. 可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 6. 然后等待训练,会显示预览时间和进度条。 7. 训练完成的会显示出每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 此外,还有一些相关的补充内容: Flux 的 Lora 训练准备: 需要下载几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意: 1. 不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。 2. 因为是训练,不是跑图,训练的话,模型就用 flux1dev.safetensors 这个版本,编码器也用 t5xxl_fp16.safetensors 这个版本最好。 下载脚本和安装虚拟环境: 1. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 2. 下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程,下好了之后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 SD 训练一套贴纸 LoRA 模型: 1. 在 lora 训练器的根目录下,点击【A 强制更新国内加速】,跑完即可关闭窗口。 2. 双击【A 启动脚本】,请保持终端一直运行,不要关闭。出现下列代码即为启动成功。 3. 滚动至最下点击【LoRA 训练】或者直接点击左侧菜单【LoRA 训练】。
2025-03-30
大模型公司的数据训练成本目前大概是多少
目前,AI 大模型的训练成本较高。在数据、算力、算法三要素中,算力是基础也是大模型竞争力,但国产芯片在软件适配度、稳定性方面存在不足。大部分采用智能计算中心、自费买英伟达 A800/H800 显卡组成服务器运行、或者用价格更为实惠的服务器云来训练,成本最高的部分是前期的模型训练。 千亿参数模型的报价高达数十万元,由于训练成本高、数据筛选难度大,高昂的售价让很多客户望而却步。在预训练阶段,从互联网上获取大量文本并处理,需要 GPU 集群,通常需要数百万美元的成本。 开源模型可以由任何人托管,包括不承担大模型训练成本(高达数千万或数亿美元)的外部公司。闭源模型能否长久保持优势还是未知数。
2025-03-28
大模型训练师
以下是关于大模型训练师的相关信息: 招聘信息: 中国移动设计院正在招聘大模型开发工程师,办公地点在北京海淀中关村。 数量:1 名 学历:本科及以上 资历:5 年及以上 岗位要求: 参与大模型技术研究、大模型微调、大模型智能体研发、基于大模型的应用研发等工作。 大模型相关的数据工程,包括预训练数据、微调数据、行业数据挖掘等。 大模型相关的落地实现:如推理优化、部署、AIAgent、工具学习、领域大模型等。 技能要求: 了解大模型基本原理,包括不限于模型架构、模型预训练及微调、模型部署及推理。 熟悉 LLM 相关技术,如 transformer,prompt tuning,RLHF,langchain,Agent,MOE,RAG 等。 熟悉算法和数据结构,熟悉常用的编程语言,有较好的 Python 开发经验,编程基础扎实。 了解或掌握机器学习、深度学习基本算法原理,熟悉 AI 建模流程,在 NLP 领域有开发经验优先。 了解熟悉大模型常用训练框架、推理架构;了解分布式计算、并行计算。 联络方式:飞书与@史鹏飞联系 大模型入门指南: 通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。可以用『上学参加工作』这件事来类比大模型的训练、使用过程: 1. 找学校:训练 LLM 需要大量的计算,因此 GPU 更合适,只有购买得起大量 GPU 的贵族学校才有资本训练自己的大模型。 2. 确定教材:大模型顾名思义就是大,需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与 LLM 可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。 2024 年人工智能现状: More Money,More Problems: 预计明年会有团队花费超过 10 亿美元训练单个大规模模型。GenAI 的热潮不会消退,只是会变得更加昂贵。 Compute Squeeze: 政府和大型科技公司都将继续感受到计算需求的压力,其增长速度超过了电网的支持能力。这就像一个健美运动员增长得太快,健身房都快承受不住了——在某个时候,天花板可能会坍塌。 AI Enters Elections: 预期的 AI 对选举和就业的影响尚未显现,但这并不意味着我们可以放松警惕。记住,AI 的影响就像闪光粉:一旦出现,多年来你会在各处发现它。 人工智能仍然是令人兴奋的突破、未解决的伦理问题和无数万亿美元赌注的混合体。随着 OpenAI 在某些领域领先,Meta 在其他领域崛起,以及中国实验室不受制裁影响而上升,2024 年的 AI 舞台感觉更像是一个拥挤的拳击台,而不是一个和平的会议室。所以准备好爆米花,准备好 GPU——我们将迎来又一年的 AI 突破边界、测试极限,并可能改写一些定义。
2025-03-27
AI训练范式革命
以下是关于 AI 训练范式革命的相关信息: Prime Intellect: Intellect1 是业界首个采用去中心化训练方式的大规模语言模型,模型规模达到 10B 参数量级,采用跨地域分布式训练架构,横跨 3 大洲 5 国,整合 112 台 H100 GPU 算力,训练过程实现 83%的算力利用率,验证了去中心化训练在大模型构建中的技术可行性。该公司为美国初创公司 Prime Intellect,专注去中心化 AI 技术的研发与创新。产品入口完全开源,开放基础模型、检查点、微调模型、训练数据及 PRIME 训练框架等全套技术资源。 GPT4.5: 通过扩展无监督学习和思维链推理两种范式来提升 AI 能力。扩展思维链推理可让模型在回应前思考,从而处理复杂的 STEM 或逻辑问题;扩展无监督学习能提高世界模型的准确性、降低幻觉率并改善联想思维。GPT4.5 是在扩展无监督学习范式上的新进展。 开发了新的可扩展对齐技术,能训练更大更强的模型,并使用来自较小模型的数据,提高了 GPT4.5 的可操纵性、对细微差别的理解和自然对话能力。 GPT4.5 在多样化的数据集上进行了预训练和后训练,包括公开数据、来自数据合作的专有数据和内部开发的自定义数据集。数据处理流程包括严格过滤以保证数据质量和降低潜在风险。 内部测试人员称 GPT4.5 热情、直观和自然,在处理情感类查询时表现出色,在创意写作和设计方面有较强能力。 医疗 AI 领域: 图像理解在医疗领域率先实现商业化,科技巨头深耕医疗 AI 研发,学术界取得突破性进展,行业权威对医疗 AI 持积极态度。 多模态识别能力提升使 AI 在专业领域的理解和分析应用成为可能,医疗 AI 的成功得益于其深度对接专业场景,以解决实际临床需求为导向的发展路径。 规模化训练是通过扩大模型参数、数据规模和算力投入,在量变中实现质变的训练范式。视频生成相比图像生成难度提升百倍,视频生成技术发展出自回归与扩散两大路线,Sora 引领 DiT 架构成为主流方向,规模化训练是实现高质量视频生成的关键。
2025-03-27
Gemini是用什么训练的
Gemini 是在 Google 的 TPU AI 加速器上训练的,似乎没有使用英伟达的 GPU。Google 还推出了全新的 Cloud TPU v5p 和 AI Hypercomputer 超级计算机,将加速 Gemini 的开发,使 AI 模型的训练更快。 Cloud TPU v5p 是目前 Google 最强大、可扩展和灵活的 AI 加速器。它在 TPU v4 的基础上提供了超过 2 倍的 FLOPS(浮点运算次数/秒)和 3 倍的高带宽内存(HBM)。TPU v5p 可以比前一代 TPU v4 更快地训练大型语言模型(LLM),对于嵌入密集型模型,其训练速度比 TPU v42 快 1.9 倍。TPU v5p 的可扩展性是 TPU v4 的 4 倍。 AI Hypercomputer 是一个突破性的超级计算机架构,它采用了集成的系统,包括性能优化的硬件、开放软件、领先的机器学习框架,以及灵活的消费模型。通过系统级协同设计来提高 AI 训练、调优和服务的效率和生产力。具有性能优化的计算、存储和网络硬件,建立在超大规模数据中心基础设施之上,利用高密度占地面积、液体冷却和 Jupiter 数据中心网络技术。通过开放软件使开发者能够调整、管理和动态编排 AI 训练和推理工作负载。提供了一系列灵活和动态的消费选择,包括传统的承诺使用折扣(CUD)、按需定价和现货定价,以及为 AI 工作负载量身定制的消费模型。 Gemini 模型是在一个既包含多模态又包含多语言的数据集上进行训练的。预训练数据集使用来自网络文档、书籍和代码的数据,并包括图像、音频和视频数据。使用 SentencePiece 分词器,发现在整个训练语料库的大样本上训练分词器可以改善推断的词汇,并进而提高模型性能。对所有数据集进行过滤,使用启发式规则和基于模型的分类器,还进行安全过滤以删除有害内容。从训练语料库中筛选出评估集。在训练过程中进行分阶段训练,通过增加领域相关数据的权重来改变混合组合,直到训练结束。
2025-03-26
如何训练AI智能体
以下是关于训练 AI 智能体的一些信息: 1. 可以将一些创新的 prompt 融入工作流中,以更高效地训练智能体。这种方法不仅能改进现有的大语言模型,还能探索新的应用领域,实现低成本、高效能和模型效益最大化,突破单纯依赖算法的方式。 2. 采用流式训练方式提升训练速度和质量,例如将孔明灯换成泡泡,基于 Transformer 模型进行流匹配,这种方式优于扩大模型。 3. 利用多种 AI 生成工具,如输入简单提示词就能创作音乐的 so no 音频生成工具,能创建个人 AI 智能体的豆包,输入文本可生成播客的 Notebook LN。 4. 了解 AI 工程平台,如 define 等,涉及数据清洗管道、数据存储和检索、编辑生成平台、构建 prompt 技巧、智能体概念、插件调用、运维平台、模型层和缓存机制等,还能接入多家大模型。以 coach 平台为例,新版本有很多模板,有众多插件工具,包括必应搜索、链接读取、代码执行器等,还有工作流,可创建应用 APP,有新手教程和文档,可创建智能体,通过工作流节点调用和 prompt 构建提示词,还能调用插件、图像流、知识库等,商城中有各种智能体和插件模板,知识库可添加多种格式内容。 5. 了解一些为大模型提供数据、企业模型和算力服务的平台,如魔搭社区等,有按任务划分的模型库、数据集和在线应用供体验。
2025-03-25