Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

你知道有支持个性化训练的大预言模型么

Answer

以下是一些支持个性化训练的大语言模型:

  1. Character.ai:更注重人格属性,试图满足社交、情感、陪伴等需求,与 ChatGPT 侧重不同,后者注重提高效率和解放生产力。
  2. Midjourney:今天发布了模型个性化 Personalization 或 '--p'的早期测试版本。模型个性化会学习用户的喜好,以便更可能用用户的口味来填补空白。其要求包括目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效。使用时只需在提示后输入 '--p',或使用提示栏中的设置按钮为所有提示启用个性化功能,还可以使用 '--s 100'控制个性化效果的强度。但需注意个性化目前不是一个稳定的功能,会随着进行更多的成对排名而变化,且可能会在接下来的几周内推出算法更新。
Content generated by AI large model, please carefully verify (powered by aily)

References

Character.ai:每个人都可定制自己的个性化AI

大型语言模型通过海量的预料训练,具备了一定的智能,涌现出了许多有用的能力。模型中存储了大量的知识,这些知识可以通过文字生成的方式进行展现。正因如此,以ChatGPT为代表的AI看起来不再是“人工智障”,而是能够与我们进行非常友好的对话。[Character.ai](http://Character.ai)和ChatGPT侧重不同。前者更注重人格属性,试图满足社交、情感、陪伴等需求。而后者注重提高效率和解放生产力。最后还探讨了一下AI能否与人产生真的情感。面对AI技术的发展和应用,我们需要保持开放的心态,思考如何在新的情境下建立健康的关系。

Midjourney 更新 · 模型个性化

每次您写提示时,很多信息都是“隐含的”。MJ的算法通常会用它们自己的“偏好”来填补这些空白,这些偏好实际上是MJ社区的综合偏好。且每个人的偏好都是不同的!模型个性化会学习你的喜好,以便更可能用你的口味来填补空白。模型个性化的要求·目前,模型个性化从成对排名中的投票和你喜欢的探索页面上的图像中学习。·你需要大约200个成对排名/喜欢,才能使此功能生效。·你可以在排名页面查看你的评分数量,或在Discord上输入/info。如何使用模型个性化·只需在提示后输入--p,或使用提示栏中的设置按钮为所有提示启用个性化功能。·当你启用个性化功能时,会在提示后添加一个“代码”,你可以分享这个代码,让其他人也能使用应用于该图像的个性化效果。·你可以使用--s 100控制个性化效果的强度(0为关闭,1000为最大,100为默认)。请注意:个性化目前不是一个稳定的功能,它会随着你进行更多的成对排名而变化(细微的),并且我们可能会在接下来的几周内推出算法更新。所以请将其视为一个“不断变化的有趣功能”(表脸,就是没做好提前放出来赶进度的说辞)。

从原理到应用一次讲清楚 Prompt

传统的机器学习是p(y|x; a)假设a是我们训练出来的模型。【训练】我们用大量人工标志,训练出来一个模型a。给了大量猫的照片,就返回cat。模型里面包含了大量猫照片的特征。【预测】给一个新的照片,根据模型特征按照一定概率返回猫或者其他动物。大模型是p(y|x; a)假设a我们训练出来的通用模型。这个模型没有经过人工的标注,但是他什么都可以学会。我们给出的Prompt其实就是x,然后让大模型基于这个x知道概率最大的y,这样就避免了人工的标注,但是依赖于x给入的信息,去更大概率找到合适的y。我们给一张照片,然后我们输入这是一个动物,这是什么,然后大模型根据这个输入,提取照片的特征和我们的提示作为输入,最终返回猫。

Others are asking
我需要一个能够生成适合初中生的个性化的英语单词清单,用什么工具比较合适
以下为您推荐几种适合生成适合初中生个性化英语单词清单的工具: 1. DeepSeek:您可以输入单词主题、图片风格、单词数量等,它会为您输出指定数量的相关单词,并以数组形式呈现,包括单词、中文、美式音标以及相关的英文句子和中文翻译。 2. Claude:您可以输入任意三个中文词语或一个主题让其随机生成 Word Search 表格,有助于提升初中生的语言能力、专注力、认知能力等。 3. 利用搞定设计结合 ChatGPT:通过搞定设计制作单词卡模板,然后使用 ChatGPT 生成单词内容并整理放入 Excel 文件中,实现批量制作单词卡片。
2025-02-26
我想做一个产品(生涯规划领域的垂直大模型),这个产品服务的对象是所有人:帮助所有人进行更好的职业规划。每个人都能通过使用这个产品更好地了解自己,了解自己的天赋、兴趣、优势,然后找到自己的热爱的领域和热爱的事业,并且能够个性化地推荐相关的行业和职业,包括职业的主要工作内容和核心能力要求等等。 请对这个产品进行可行性分析,并给出产品的发展规划,别忘了给这个项目起一个名字。
以下是对您提出的生涯规划领域垂直大模型产品的可行性分析和发展规划,并为项目取名为“生涯智途”。 可行性分析: 1. 需求广泛:帮助人们进行职业规划是一个普遍存在的需求,涵盖了各个年龄段和职业阶段的人群。 2. 数据可用性:可以通过各种渠道收集大量与职业相关的数据,包括行业报告、职位描述、人才需求等。 3. 技术支持:当前大模型技术的发展为实现这样的产品提供了可能,能够处理和分析大量复杂的数据。 发展规划: 1. 数据收集与整理:广泛收集各类职业数据,建立丰富的数据库,确保数据的准确性和完整性。 2. 模型训练与优化:利用收集到的数据进行模型训练,不断优化模型,提高预测和推荐的准确性。 3. 功能开发: 个性化测评:开发能够准确评估用户天赋、兴趣、优势的功能模块。 精准推荐:根据用户的特点,提供个性化的行业和职业推荐,并详细介绍职业的工作内容和核心能力要求。 持续学习与更新:随着行业变化,及时更新数据和模型,以提供最新的职业信息。 4. 用户体验优化:设计简洁、易用的界面,提供良好的用户交互体验。 5. 市场推广:通过线上线下多种渠道进行推广,提高产品的知名度和用户覆盖面。 希望以上分析和规划对您有所帮助。
2025-02-18
如何进入AI时代,如何寻找和使用AI工具来提高工作和学习效率,以及如何解决个性化和专业化需求的问题
进入 AI 时代并利用 AI 工具提高工作和学习效率、解决个性化和专业化需求问题,可参考以下要点: 1. 对于 AI 发展的态度:不盲目跟风(FOMO),也不消极对待(JOMO)。 2. 成功的 AI 公司可能需要打造自身的数据飞轮,尤其是在 ToC 场景中寻求突破,因为 C 端能带来的数据飞轮效应在 AI 早期可能是决胜关键。 3. 有专业壁垒的垂直模型可能是机会所在,很多高价值、特定领域的工作流程依赖于丰富的专有数据集。 4. 大模型产品的两个方向: 个性化:给 AI 装上“记忆”,使其成为工作助理或陪伴者。 场景化:给 AI 装上“手”和“眼睛”。 5. 在工作中使用 AI 工具的情况: 最常用的是通过自然语言对话完成一次性任务,90%的产品从业者用其辅助文本信息处理生成。 63%的用户用其辅助搜索,甚至优先用 AI 搜索信息。 45%的用户借助其生成图片以及音视频用于快速制作 demo 演示效果,也有少部分用于制作最终产品。 29%的用户将其作为工作创意助手以及数据报告的处理。 6. AI 工具的改进方向: 提高创新性和创新辅助能力,关注产品从业者的工作模式和思维习惯。 提升个性化和智能化程度,理解并适应用户的个性化需求。 更精准识别合适场景,满足不同场景的使用需求。 7. 使用 AI 完成任务时: 对于简单需求,给 AI 下达明确命令完成一次性任务。 了解 AI 编程的边界和限制。 遵循编程准则,能不编尽量不编。优先找线上工具、其次找插件、最后是本地应用;对于 API 功能,先找现成开源工具,然后考虑付费服务,实在找不到才考虑自己编程,且编程要以终为始,聚焦目标。 总之,在 AI 时代,要积极拥抱 AI,用起来并有效迭代,形成正确的底层工作逻辑,设计合理流程,按节奏确定目标和复盘。同时,把握好融资节奏,适应对创始人更高、更全面的要求。
2025-02-11
为不同学生制定个性化的学习计划
以下是为不同学生制定个性化学习计划的相关内容: 教育科技长期以来在有效性和规模之间权衡,而 AI 的出现改变了这一状况,使得大规模部署个性化学习计划成为可能。例如,有像 Speak、Quazel、Lingostar 这样的应用能提供实时交流和反馈的语言学习服务;Photomath 和 Mathly 可指导学生解决数学问题;PeopleAI 和 Historical Figures 能通过模拟与杰出人物聊天教授历史。此外,Grammarly、Orchard 和 Lex 等工具能帮助学生提升写作水平,Tome 和 Beautiful.ai 能协助创建演示文稿。 大模型在教育行业也发挥着重要作用,它能精确洞察每个学生的独特需求,为其量身打造学习方案,还能赋能教师提高教学效果和工作效率。基于 GLM 模型的先进功能,教师和学生能接触到高效的数据分析及智能化评价系统。 对于教育工作者,可通过以下方式为不同学生制定个性化学习计划: 1. 尝试使用 AI 辅助设计课程大纲或生成教学材料 ideas,为课程带来新视角。 2. 探索使用 AI 分析学生学习数据,从而制定个性化学习路径。 3. 考虑将 AI 工具整合到课堂活动中,如使用 AI 生成的案例研究或模拟场景。 4. 开发简单的课程模块,教导学生了解 AI 的基础知识、应用领域及其对社会的影响。 总之,与 AI 协作是一个学习过程,应保持好奇心和开放态度,从小处着手,将 AI 视为强大工具,同时保持批判性思维。
2025-01-13
哪个智能体能够根据用户的购物历史、浏览行为和偏好,提供个性化的产品推荐。
以下智能体能够根据用户的购物历史、浏览行为和偏好提供个性化的产品推荐: 1. 电子商务网站:通过收集用户的购物历史和浏览习惯等数据,使用机器学习和数据挖掘技术进行分析,从而推荐相似产品。 2. 基于人工智能的语音助手:可以分析用户行为、偏好以及历史购买记录,为用户提供更个性化的商品推荐,提升购物体验。 3. 中小企业:利用 AI 分析客户行为数据,包括购买历史、浏览记录、反馈等,基于分析结果生成个性化的产品推荐和服务。 4. 扣子模板中的个性化推荐引擎:利用人工智能和机器学习算法,根据用户的历史行为和偏好,实时推荐最相关的产品或服务,以提升转化率。
2024-12-20
用扣子智能体制作一个有关热门旅游景点攻略小助手的工作流,能够根据不同用户的需求,制定个性化的旅行计划,涵盖各种热门旅游景点,提供详细的行程安排、交通指南和景点特色介绍
要使用扣子智能体制作一个有关热门旅游景点攻略小助手的工作流,以下是一些参考信息: 1. 扣子智能体通常由工作流和数据库组成。工作流的设计相对简单,一个输入对接知识库,搭载豆包 function call 大模型,最后输出。数据库的收集和整理需要一定专业知识,并进行手动二次校对。 2. 插件方面,扣子平台有多种类型的插件,如看新闻、规划旅行、提高办公效率、理解图片内容等的 API,还可根据需求自制插件。 3. 工作流就像可视化的拼图游戏,由多个节点组成,包括大语言模型、代码块等,能创造复杂稳定的业务流程。 4. 扣子预置了各种场景的 Bot,如旅游大师 Bot。在 Bot 商店可查看精选的预置 Bot,选择后会被引导至编排页面,该页面分为顶部区域(显示所用大型语言模型)、人设与回复逻辑区域、技能区域(展示配置的功能,如查询航班的插件、推荐景点的工作流等)、预览与调试区域(展示交互运行结果)。 基于以上信息,您可以尝试设计热门旅游景点攻略小助手的工作流,根据不同用户需求制定个性化旅行计划,涵盖热门景点、行程安排、交通指南和景点特色介绍。但需要注意的是,工作流的设计和数据库的整理需要精心规划和准确操作。
2024-12-16
国内大预言模型能力对比
以下是关于国内大语言模型能力对比的相关信息: 小七姐的测评: 测评机制:以同组提示词下 ChatGPT 4.0 生成的内容做对标参照,对智谱清言、文心一言 4.0、KimiChat 进行测评。 能力考量:包括复杂提示词理解和执行(结构化提示词)、推理能力(CoT 表现)、文本生成能力(写作要求执行)、提示词设计能力(让模型设计提示词)、长文本归纳总结能力(论文阅读)。 测评轮次:共五轮,分别针对上述不同能力进行不同任务和模型的测试。 中文大模型基准测评 2023 年度报告: 国内大模型历月前三甲:在工具使用的测评中,GPT4 Turbo 取得满分,国内智谱清言排名第一,文心一言 4.0等也有不错表现。 国内外大模型发展趋势:国内外差距依然明显,GPT 4 Turbo 总分遥遥领先,国内最好的文心一言 4.0与 GPT4Turbo 有一定差距,但过去 1 年国内大模型有长足进步,综合能力超过 GPT 3.5 的模型有多个。在 SuperCLUE 测评中,国外模型平均成绩高于国内模型,但差距在缩小,国内开源模型在中文上表现好于国外开源模型。
2025-01-07
整合多家大预言模型的工具
以下为整合多家大语言模型的工具介绍: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验,但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可在两个模型中都问一遍提升信息准确性。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导能够启发用户,支持 Explore Chatbot,但丰富度不如后续要介绍的 Character,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小,以满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 用户可通过简单步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 下载安装地址:https://ollama.com/download/ ,安装完后,在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动,可通过 ollama list 确认,未下载模型时正常显示空,可通过 ollama 命令下载模型。 3. 未来还会不断丰富大模型的外延能力,例如知识库检索、计算工具、WolframAlpha、操作软件等。首先集成了 LangChain 框架,可更方便地基于 Llama2 开发文档检索、问答机器人和智能体应用等。针对 LangChain 框架封装的 Llama2 LLM 类见,简单的调用代码示例如下。
2024-11-15
可以调用不同大预言模型的整合工具推荐
以下是为您推荐的可以调用不同大语言模型的整合工具: 1. Poe:由 Quora 开发,有 APP 版本,支持跨端使用。集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。访问地址: 。Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验(但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可以尝试在两个模型中都问一遍提升信息准确性)。此外支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 2. 国内的一些模型,如智谱和文心,在文生图方面有一定能力。 另外,大模型工具可根据自身条件准备,推荐顺序为:1. chatGPT 4.0 2. kimichat 3. 智谱清言 4 。
2024-11-12
国内外大预言模型对比
以下是国内外大语言模型的对比情况: 1. 工具使用能力: 在工具使用的测评中,GPT4 Turbo 取得满分。 国内大模型中智谱清言表现不俗,取得 83.78 的高分,排名国内第一。文心一言 4.0、通义千问 2.0、Yi34BChat、AndesGPT 均有超过 70 分的表现。超过 GPT3.5 的国内模型有 12 个。 开源模型中,Baichuan213BChat、Xverse13B2Caht 表现可圈可点,均超过 GPT3.5 以及众多闭源模型。总体来看,国内大模型在工具使用能力上表现优异,这与国内大模型厂商积极落地应用密不可分。 2. 主观和客观对比: 通过对比模型在主观简答题 OPEN 和客观选择题 OPT 上的不同表现,国内大模型多数擅长做选择题,普遍选择题分数高于简答题分数。文心一言 4.0 和智谱清言表现相对稳定。 GPT4 Turbo 的表现最为稳定。 客观题相对主观题更容易通过题库形式进行训练和提升,同时由于客观题中包含中文特性问题,中文模型有一定优势,应综合来看模型的评测效果。 在本次测评中,国外的代表性大模型如 GPT4 的不同版本、Claude2、Llama2 都有很好的稳定性表现,值得国内大模型进一步分析研究。 3. 总体表现: GPT 4 Turbo 总分 90.63 分遥遥领先,高于其他国内大模型及国外大模型。国内最好模型文心一言 4.0有 4.9 分的差距。 过去 1 年国内大模型有长足进步,综合能力超过 GPT 3.5 和 GeminiPro 的模型有 11 个。 在 SuperCLUE 测评中,国外模型的平均成绩为 69.42 分,国内模型平均成绩为 65.95 分,差距在 4 分左右。国内外的平均水平差距在缩小,11 月差距在 10 分左右。 国内开源模型在中文上表现好于国外开源模型,如百川智能的 Baichuan213BChat、阿里云的 Qwen72B、Yi 34BCha t 均优于 Llama213BChat。
2024-11-12
AIGC大模型是什么?
AIGC 大模型是一个较为复杂的概念,下面为您详细解释: 首先,生成式 AI 生成的内容称为 AIGC。 相关技术名词包括: 1. AI 即人工智能。 2. 机器学习是指电脑通过找规律进行学习,包括监督学习、无监督学习和强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类,例如让模型将一堆新闻文章根据主题或内容特征分成相似的组。 强化学习从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习是一种参照人脑神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习和强化学习。 4. 生成式 AI 能够生成文本、图片、音频、视频等内容形式。 5. LLM 是大语言模型。对于生成式 AI,生成图像的扩散模型不属于大语言模型;对于大语言模型,生成只是其中一个处理任务,比如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑方面,2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不依赖于循环神经网络(RNN)或卷积神经网络(CNN)。
2025-03-05
UI交互设计大模型
以下是关于 UI 交互设计大模型的相关内容: ComfyUI ollama 本地大模型部署: 1. 先下载 ollama 安装。安装好后不会有任何界面弹出,可以在电脑桌面右下角或者隐藏图标里面找到。 2. 之后再去下载对应的模型,选择模型,复制对应的命令。 3. 打开命令行界面,输入对应的模型获取命令,等待下载完成。 4. 下载的模型会保存到 D:\\ollama\\blobs 。 5. Docker 安装时会下载一些文件,安装后改下目录,不要放在 C 盘。 6. Open webui 安装,输入相关命令。安装成功后,回到 docker 点击,会自动打开网页。第一次使用,需要注册一个账号,选择一个下载好的模型就可以开始使用。 7. 若出现端口占用的错误,运行下面两条命令可以解决。 8. 相关链接: ComfyUI ollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile Ollama:https://ollama.com/ Docker:https://www.docker.com/ Open webui:https://openwebui.com/ 通过 Open WebUI 使用大模型: 在默认情况下,与大模型的交互在终端中进行,但这种方式较古老。大模型有交互客户端 Open WebUI。Open WebUI 是 github 上的开源项目,参考其官方文档 https://docs.openwebui.com/gettingstarted/ 进行下载和安装。 1. 安装之前先安装 Docker,Win 或 Mac 系统参考文档:,注意下载适配电脑系统的版本。Linux 系统请自行上网找教程。 2. 官方文档中有两种安装 Open WebUI 的方式:ollama 和 open webui 一起安装、仅仅安装 open webui。若已安装 ollama,只需要安装 open webui 即可,复制相关命令。安装下载完成后即可使用。 大模型时代的产品特点: 大模型的交互方式是 NUI(自然用户界面),通过自然语言文本、语音、输入输出图片等直接交互,与现在熟悉的 GUI(图形用户界面)差异很大。现在习惯在 GUI 界面通过点击按钮与机器交互,需要一定学习成本。而 NUI 更符合人的直觉,用户几乎无需特别学习,通过对话操作,但大模型产品对普通用户使用门槛较高,用户留存率和粘性不如主流 App。若未来大模型产品都是 NUI 的,可能对整个信息产业带来深远影响。
2025-03-05
GRU+CNN模型如何操作
GRU+CNN 模型的操作主要包括以下步骤: 1. 编码器部分:使用预训练的卷积神经网络(CNN),如 Inception Resnet V2,将输入图像转换为一组特征向量。在这种情况下,大部分 CNN 部分被冻结,保留预训练的权重。 2. 解码器部分:结构较为复杂,涉及到注意力机制、嵌入层、GRU 层、添加层归一化层和最终的密集层等。可以找到很多关于注意力层和解码器步骤的说明。 3. 组合模型:将编码器和解码器组合在一起,形成一个完整的图像字幕生成模型。 4. 自定义损失函数:由于任务是生成文本序列且序列长度可能不同,使用稀疏分类交叉熵作为损失函数,并屏蔽填充的部分。 5. 编译模型:编译模型,为开始训练做准备。 6. 训练模型:可以根据需求进行更多训练以获得更好结果。 7. 推理与生成字幕:训练完成后,为新的图像生成字幕。在推理阶段,需要重构解码器模型,使其可以接收额外的 GRU 状态输入,并编写自定义推理循环,一次产生一个单词,直到生成完整句子。
2025-03-05
GRU模型
GRU(门控循环单元)是 RNN(递归神经网络)的一种变体。 在创建图像描述模型中,解码器部分包含了 GRU 层。GRU 层接受输入,更新其内部状态,并生成输出。通过传递像文本这样的顺序数据,它可以保持与先前输入(例如先前的单词)的顺序依赖关系。 在 Transformer 出现之前,序列到序列的模型主要依赖于循环神经网络(RNN)或其变种,如长短时记忆网络(LSTM)和 GRU。由于传统方法必须按顺序处理序列,在处理长序列时面临梯度消失或梯度爆炸的问题,而且计算效率不高。 在创建图像描述模型的解码器中,GRU 的输出会进入注意力层,该层混合了来自编码器(图像)和解码器(文本)的信息。解码器本身是一个迭代操作,通过自回归地多次调用,最终可以生成完整的文本。 在代码方面,注意力层有两个输入:gru_output 和 encoder_output。在内部,gru_output 用作注意力的查询和键,而 encoder_output 用作值。
2025-03-05
截止今天最强的模型是哪个
目前很难确切地指出截止今天最强的模型是哪一个。以下是一些表现出色的模型: Gemini Ultra:在报告的 32 个基准测试中,在 30 个基准测试中取得了 SOTA,包括多个领域的测试。它是第一个在 MMLU 上实现人类专家水平表现的模型,在多模态推理任务方面也有显著进展。 o3 模型:在 ARCAGI 测试中达到了 87.5%的准确率,几乎与人类水平相当。OpenAI 表示下一代 o3mini 模型的推理能力很强。 Gemini 2.0 Flash:Google 发布的该模型在重要的基准能力上,直接追平甚至部分超越了 Gemini 1.5 Pro,且模型速度有极大提升。 Llama 3.1:是迄今为止最大版本,其在推理、数学、多语言和长上下文任务中能够与 GPT4 相抗衡。 需要注意的是,模型的性能评估会因不同的基准测试和应用场景而有所差异,而且技术在不断发展,最强模型的定义也可能随之变化。
2025-03-05
Deepseek 怎么训练模型 到达写作的水准
要将 DeepSeek 训练模型达到写作的水准,可以参考以下方法: 1. 借助 AI 分析好的文章:找出您最喜欢的文章,投喂给 DeepSeek R1。然后进行多次询问,如从写作角度、读者角度分析文章,询问文章的缺点和不足以及改善和提升的空间,对作者进行侧写,分析其成长背景、个人经历和知识结构对文章的影响。 2. 让 AI 对您写的文章进行点评:使用类似“现在我希望你是一名资深中文写作教师/小学语文老师/中学语文老师/公文写作培训师,拥有 30 年教育经验,是一名传授写作技巧的专家。请先阅读我提供给你的文章,然后对文章进行分析,然后教我如何提升写作水平。请给出详细的优缺点分析,指出问题所在,并且给出具体的指导和建议。为了方便我能理解,请尽量多举例子而非理论陈述。”的提示词。 3. 根据文章内容对作者进行心理侧写:使用如“我希望你扮演一个从业 20 多年,临床诊治过两千多例心理分析案例的人性洞察和意识分析方面的专家,精通心理学、人类学、文史、文化比较。先阅读后附文章全文,然后对作者进行人格侧写。要尖锐深刻,不要吹捧包装,不要提出一些只能充当心理安慰的肤浅的见解。包括作者的基本画像、核心性格特质、认知与价值观、潜在心理动机、行为模式推测、矛盾与盲点、文化符号映射”的提示词。 此外,DeepSeek 模型具有文风出色、善用大词、发散能力强等特点,但也较难收敛,有时会出现幻觉。从创作角度看,其在文学创作上表现出色,能给予更多自由发挥空间。
2025-03-05
deepseek 私有化训练
以下是关于 DeepSeek 私有化训练的相关信息: 模型测试、问题探讨与新模型部署过程: 探讨了模型存在幻觉、答案有概率性等问题,并对比了加提示词前后的情况。 准备从 32B 蒸馏新模型,提及该模型的资源需求及阿里云拍卖机制。 介绍了启动 DSW 获取廉价 CPU 资源,以及部署模型时因库存不足不断加价的过程。 派平台大模型训练与微调实操讲解: 许键分享了抢硬件资源的方法,演示了通过提问蒸馏标注数据。 讲解了在派平台训练模型的流程,包括参数设置、数据集上传等,并展示了训练效果和日志查看。 说明了训练好的模型部署方法,强调训出满意模型需要大量基础知识学习。 模型蒸馏微调演示、平台介绍与问题解答: 许键展示了模型微调后的效果,如幻觉下降等。 介绍了阿里云解决方案,对比了百炼和派平台的差异。 进行了 Q&A,回答了无监督学习微调、训练数据资源、多模态训练标注、Python 代码报错等问题,提及派平台有公用数据集,还举例说明了多模态标注方式。 总结: 本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 平台服务差异:介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。 Deepseek R1 模型的制作及相关模型比较: R1 模型的强化学习:通过强化学习,在训练过程中给予模型反馈,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。 R1 模型的蒸馏与微调:用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 R1 与其他模型的差别:R1 是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。 模型的相互帮助:Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。 智能章节: 许键介绍今日课程重点是云服务器上如何使用 Deepseek R1 及本地部署相关内容,提及派平台免费额度及适用模型。还介绍了自己和社区情况。接着讲解 Deepseek R1 制作过程,包括强化学习概念及示例,阐述其从 Deepseek r e Zero 到 M2 等模型的演变及原理。 主要介绍了 Deepseek R1 模型的构建过程,包括多轮强化学习和微调,还提及蒸馏模型的情况。探讨了不同模型部署所需的显存、内存及成本,对比了各模型在专业领域的能力表现。 介绍了以云基础设施和 GPU 算力资源为底层的派平台。该平台搭建 AI 框架并做优化,提供一键式快捷部署工具等。与百炼不同,它开放更多自由度,租户数据隔离。很多大模型在此训练,支持多机分布式部署等,既面向企业,也适合个人创业者,不同应用定价有差异。
2025-03-05
flux 训练lora 教程
以下是关于 Flux 训练 Lora 的教程: 1. 准备模型:需要下载以下几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。注意:不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。因为是训练,不是跑图,训练的话,模型就用 flux1dev.safetensors 这个版本,编码器也用 t5xxl_fp16.safetensors 这个版本最好。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 安装虚拟环境:下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程,下好了之后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 4. 0 基础训练大模型: 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 步骤一·创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。zip 文件可以是包含图片 + 标签 txt,也可以只有图片没有打标文件(之后可以在 c 站使用它的自动打标功能),也可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后就会上传成功,可以点击详情检查,可以预览到数据集的图片以及对应的标签。 步骤二·Lora 训练:点击 Flux,基础模型会默认是 FLUX 1.0D 版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集,触发词可有可无,取决于数据集是否有触发词,模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后就可以等待训练了,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 5. ControlNet 作者张吕敏再出新项目 LuminaBrush:基于数据集在 Flux 上训练 LoRA,并用 LoRA 生成的图像来扩展这个图像数据集。使用均匀光照图像作为中间表示具有一些优势,比如避免来自 3D 反照率的过于锐利的网格边界或过于平坦的表面。而这些图像在细节层面也足够细腻,可以处理皮肤纹理、头发、毛发等细节。接下来,通过合成随机法线,将这些均匀光照图像进行随机再光照,以训练一个可以从任何输入图像中提取均匀光照外观的模型。第一阶段的这个模型目前也提供了在线 demo:https://huggingface.co/spaces/lllyasviel/lumina_brush_uniform_lit 。第二阶段,会从数百万张高质量的自然场景图像中提取均匀光照外观图像,以构建成对数据集,用于训练最终的交互式光照绘制模型。
2025-03-04
我想完全本地化部署deepseek,然后,将我的文档,文本,图片等内容丢给它训练,微调。我要完全本地化,因为我的文档设计隐私。我要免费开源流程。如何实现,
要完全本地化部署 DeepSeek 并使用您的文档、文本、图片等内容进行训练和微调,以下是一些相关的信息和步骤: 1. 模型训练与平台服务: 模型复现与微调:1:1 复现通常没问题,但理解细节并自行制作需要基础知识。有手把手教程、数据集等可帮助 1:1 复现,微调在特定领域可降低幻觉,参数量不变但权重变化。 训练模型的学习方法:先会用再学会训,从训的过程中倒推学习参数调整,这是以用导学的学习方法。 模型回答效果对比:微调后的模型在回答排列组合等问题时,思考前几乎无反馈,答案多为英文且格式稳定,但仍可能答错。 2. 平台服务介绍: 阿里云提供多种解决方案。 百炼是提供多种模型服务的 Maas 平台。 派平台是提供云服务的 PaaS 平台,二者在定位、服务内容和核心差异上有所不同。 3. 关于模型训练与数据集相关问题: 数据资源情况:默认提供公共数据训练集,百派平台能匹配模型和数据,通义开源了不少数据集。 多模态训练:多模态有自身标注方式,如视频拉框标注。 参数量变化:通常训练模型参数量固定,若想改变需改模型层,但可能要从头调。 本地微调框架:可使用 llama factory 等框架,需搭建并部署。 开源数据下载:可在 GitHub、hugging face、Mo Model Scope 等平台获取。 数据集转化:将文档资料转成数据集可先手动形成 SOP,再逐步自动化,初期需大量人力。 4. 本地部署介绍:讲解了如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 5. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 6. 平台服务差异:介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 7. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。 R1 模型的强化学习:通过强化学习,在训练过程中给予模型反馈,如路线规划是否成功到达终点、输出格式是否符合期望等,对正确路线增强权重,使做对的概率变高,导致思考逻辑变长。 R1 模型的蒸馏与微调:用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 R1 与其他模型的差别:R1 是原生通过强化学习训练出的模型,蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。 模型的相互帮助:Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面,使两个模型都更强。 请注意,在进行本地化部署和训练微调时,需要具备一定的技术知识和经验,并且要遵循相关的法律法规和道德规范。
2025-03-04
一个可以总结文章的AI应用是怎么训练出来的?
一个可以总结文章的 AI 应用通常通过以下方式训练: 1. 数据准备:收集大量的文本数据,包括各种类型和主题的文章。 2. 模型选择:使用适合自然语言处理任务的大型语言模型,如 OpenAI 的 GPT 系列。 3. 导入相关库和加载 API 密钥:例如导入 OpenAI 并加载 API 密钥。 4. 设计提示:制定明确的提示,如要求从电子商务网站的产品评论中生成简短摘要。 5. 针对不同需求训练: 文字总结:对一般性的文字进行总结。 针对某种信息总结:例如特定领域或特定类型的信息。 尝试“提取”而不是“总结”:更侧重于关键信息的提取。 针对多项信息总结:处理多个相关的文本信息。 6. 应用拓展:不仅可以总结文章,还能总结群聊消息、B站视频等。对于 B 站视频,通过获取字幕并发送给 AI 来实现总结。 7. 与 API 配合:通过 OpenAI API 等获取有效密钥,并结合示例代码进行开发和优化。
2025-03-03
怎么利用大模型训练自己的机器人
利用大模型训练自己的机器人可以参考以下内容: OpenAI 通用人工智能(AGI)的计划显示,在互联网上所有的图像和视频数据上训练一个与人类大脑大小相当的 AI 模型,将足以处理复杂的机器人学任务。常识推理隐藏在视频和文本数据中,专注于文本的 GPT4 在常识推理上表现出色。Google 最近的例子展示了机器人学能力可从大型视觉/语言模型中学习,在语言和视觉训练基础上,只需最少的机器人学数据,视觉和文本任务的知识就能转移到机器人学任务上。特斯拉训练的“Optimus”通过人类示范学习抓取物体,若人类示范是先进机器人学性能所需的一切,在互联网上所有视频上训练的大模型肯定能实现惊人的机器人学性能。 梦飞提供了在自己的电脑上部署 COW 微信机器人项目的教程,程序在本地运行,若关掉窗口进程结束,想持续使用需保持窗口打开和运行。以 Windows10 系统为例,注册大模型可参考百炼首页:https://bailian.console.aliyun.com/ ,需更改"model"和添加"dashscope_api_key",获取 key 可参考视频教程。 张梦飞提供了从 LLM 大语言模型、知识库到微信机器人的全本地部署教程,部署大语言模型包括下载并安装 Ollama,根据电脑系统下载:https://ollama.com/download ,安装完成后将下方地址复制进浏览器中确认安装完成:http://127.0.0.1:11434/ 。下载 qwen2:0.5b 模型,Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑通过 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”,复制命令行粘贴回车等待下载完成。
2025-03-03