Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

判别式与生成式

Answer

生成式模型和判别式模型在底层模式上存在普遍性和差异性。

生成式模型方面:

  • 核心之一在于采用更高效的 token 化,language 或 code 作为 token 化的承载媒介,是人类认知推理、链接物理世界、抽象化表达的重要且广泛的概念化空间。
  • 例如在 GAN 中,生成器不断生成逼真的假图像,与判别器互相博弈优化。
  • 常见的生成式模型包括 GAN、Flow-based models(其在 AIGC 时代的作用未充分显现)、VAE(是 Stable Diffusion 模型的核心结构之一)等。

判别式模型方面:

  • 在“判别侧”即模型输出“Y”侧对于生成式模型来说属于其子集,某种程度上不仅是“Y”,模型输入“X”侧及任务本身也属于生成式模型的子集。

通过学习台湾大学李宏毅教授的《生成式 AI 导论 2024》课程,可以更全面地了解生成式 AI 的基本概念、发展历程、技术架构、应用场景等内容,包括生成式模型的基本结构、训练方法、评估指标,生成式对话的概念、系统架构和关键技术,预训练语言模型的发展、优缺点及在生成式 AI 中的应用,以及生成式 AI 面临的挑战和未来发展趋势。

Content generated by AI large model, please carefully verify (powered by aily)

References

融合RL与LLM思想,探寻世界模型以迈向AGI/ASI的第一性原理反思和探索「RL×LLM×WM>AI4S>AGI>ASI」

Think:这里可以稍微停下来思考一下生成式模型和判别式模型在底层模式的普遍性和差异性。在这里,个人认为“生成式”的核心之一在于采用了更高效的token化,而language亦或是code作为token化的承载媒介,是人类认知推理、链接物理世界、抽象化表达的最重要且涵盖范围十分广泛的概念化空间。而某种程度上,判别式模型在“判别侧”即模型输出“Y”侧对于生成式模型来说亦属于其子集(其实不光是“Y”,模型输入“X”侧且任务本身亦属于其子集--这里指的是用于模型推理过程的某种信息变换X→Y的整体模式),因此也就为大多数人所认为的LLM会取代或替代传统模型提供了理论的可能,即人们常说的:Token is all you need!

教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识 - 知乎

我们可以将GAN中的生成器比喻为印假钞票的犯罪分子,判别器则被当作警察。犯罪分子努力让印出的假钞看起来逼真,警察则不断提升对于假钞的辨识能力。二者互相博弈,随着时间的进行,都会越来越强。在图像生成任务中也是如此,生成器不断生成尽可能逼真的假图像。判别器则判断图像是gt gt图像,还是生成的图像。二者不断博弈优化,最终生成器生成的图像使得判别器完全无法判别真假。关于Flow-based models,其在AIGC时代的作用还未显现,可以持续关注。最后,VAE将在本文后面的章节详细讲解,因为正是VAE将输入数据压缩至Latent隐空间中,故其成为了SD模型的核心结构之一。

学习笔记:《生成式AI导论2024》 李宏毅

当我写下这个标题之后,还没开始上课,小西就帮我写了一份学习笔记,有点无聊哈哈,但是方便一览全局一、课程介绍这是台湾大学李宏毅教授的生成式AI课程,主要介绍了生成式AI的基本概念、发展历程、技术架构和应用场景等内容。课程共分为12讲,每讲约2小时。二、学习目标通过学习本课程,掌握生成式AI的基本概念和常见技术,能够使用相关框架搭建简单的生成式模型,了解生成式AI的发展现状和未来趋势。三、学习内容什么是生成式AI生成式AI的定义和分类生成式AI与判别式AI的区别生成式AI的应用领域生成式模型生成式模型的基本结构和训练方法生成式模型的评估指标常见的生成式模型及其优缺点生成式对话生成式对话的基本概念和应用场景生成式对话系统的架构和关键技术基于生成式模型的对话生成方法预训练语言模型预训练语言模型的发展历程和关键技术预训练语言模型的优缺点预训练语言模型在生成式AI中的应用生成式AI的挑战与展望生成式AI面临的挑战和解决方法生成式AI的未来发展趋势和研究方向四、学习资源教材:《生成式AI导论2024》,李宏毅

Others are asking
大模型和小模型区别是什么?是否大模型都属于生成式AI,小模型属于判别式AI,为什么大模型有幻觉小模型没有?
大模型和小模型的区别主要体现在以下几个方面: 1. 规模和参数数量:大模型通常具有更多的参数和更复杂的架构,能够处理更大量和更复杂的数据。 2. 能力和性能:大模型在语言理解、生成等任务上往往表现更出色,能够生成更准确、丰富和连贯的内容。 3. 应用场景:大模型适用于广泛的通用任务,而小模型可能更专注于特定的、较狭窄的领域。 并非大模型都属于生成式 AI,小模型都属于判别式 AI。生成式 AI 能够生成新的内容,如文本、图片等;判别式 AI 则主要用于对输入进行分类或判断。模型的分类与其大小并无直接的必然联系。 大模型出现幻觉的原因主要是其通过训练数据猜测下一个输出结果,可能会因错误或不准确的数据导致给出错误的答案。而小模型相对来说数据量和复杂度较低,出现幻觉的情况相对较少,但这并非绝对,还取决于模型的训练质量、数据的准确性等多种因素。优质的数据集对于大模型减少幻觉现象非常重要。
2025-02-21
判别式CNN到生成式大模型的发展
判别式 CNN 到生成式大模型的发展经历了以下几个阶段: 1. 早期发展(2014 年以前):最初的文生图尝试集中在将简单文本描述转化为图像。这些早期方法依赖于基本的图像处理技术和简单的模型,效果有限,生成的图像质量通常不高。 2. 深度学习的崛起(2014 年2018 年):随着深度学习的发展,尤其是卷积神经网络(CNN)的成功应用,文生图模型开始采用神经网络来改进图像生成的质量和多样性。在这一时期,如 GAN(生成对抗网络)及其变体层出不穷,开始被用于文生图任务,展示了生成更逼真图像的潜力。 3. 引入 Transformer(2019 年2021 年):Transformer 架构,原本在 NLP 领域取得巨大成功,开始被应用于文生图模型,提高模型处理复杂文本和生成高质量图像的能力。如 OpenAI 的 DALLE 模型,采用了 Transformer 结构来生成与文本描述匹配的图像,成为这一时期的标志性进展。与此同时,以 DDPM 为代表的工作,为 Diffusion Model 奠定了理论基础,众多基于 Transformer 和 Diffusion Model 的研究成果从 2021 下半年开始如雨后春笋般涌现。
2024-04-16
浅谈“生成式人工智能在中职实训课的应用”
生成式人工智能在中职实训课的应用: 生成式人工智能是一种能够生成新的、未曾存在内容的人工智能技术,所生成的内容可以是多模态的,包括文本(如文章、报告、诗歌等)、图像(如绘画、设计图、合成照片等)、音频(如音乐、语音、环境声音等)、视频(如电影剪辑、教程、仿真等)。 其应用场景广泛,例如: 文档摘要:将长篇文章或报告总结为简短、精准的摘要。 信息提取:从大量数据中识别并提取关键信息。 代码生成:根据用户的描述自动编写代码。 营销活动创建:生成广告文案、设计图像等。 虚拟协助:例如智能聊天机器人、虚拟客服等。 呼叫中心机器人:能够处理客户的电话请求。 生成式人工智能的工作方式如下: 1. 训练阶段:通过从大量现有内容(文本、音频、视频等)中学习进行训练,训练的结果是一个“基础模型”。 2. 应用阶段:基础模型可以用于生成内容并解决一般性问题,还可以使用特定领域的新数据集进一步训练,以解决特定问题,从而得到一个量身定制的新模型。 Google Cloud 提供了相关工具,如 Vertex AI 是端到端机器学习开发平台,旨在帮助开发人员构建、部署和管理机器学习模型;Generative AI Studio 允许应用程序开发人员或数据科学家快速制作原型和自定义生成式 AI 模型,无需代码或代码量少;Model Garden 是一个平台,可以让用户发现 Google 的基础和第三方开源模型,并与之交互,它提供了一组 MLOps 工具,用于自动化机器学习管道。 在教育领域,从 AI 助教到智慧学伴的应用探索中,以“移动教学与促动”课程实习周为例,让教育学专业的学生了解和尝试运用教育 APP、二维码、教育游戏等技术方式开展移动教学。课程实习需要在 5 天内让非技术背景的学生分组设计课程并展示,由于学生众多,教师难以给予个性化指导,而 AI 在一定程度上补足了学生缺乏的经验。
2025-03-31
生成式人工智能原理是什么
生成式人工智能的原理主要包括以下几个方面: 1. 基于深度学习技术和机器学习算法:通过大规模的数据集训练深度神经网络模型,学习各种数据的规律和特征,从而实现对输入数据的分析、理解和生成。 2. 监督学习:例如在生成文本时使用大语言模型,通过监督学习不断预测下一个词语,经过大量的数据训练,从而生成新的文本内容。这通常需要千亿甚至万亿级别的单词数据库。 3. 从大量现有内容中学习:包括文本、音频和视频等多模式的内容,这个学习过程称为训练,其结果是创造“基础模型”,如为聊天机器人提供支持的大型语言模型(LLM)。基础模型可用于生成内容并解决一般问题,也可以使用特定领域的新数据集进一步训练以解决特定问题。
2025-03-26
生成式AI的教育重构价值
生成式 AI 在教育领域具有重要的重构价值,主要体现在以下几个方面: 1. 为教师减负:通过复杂的算法、模型和规则,从大规模数据集中学习,创造新的原创内容,帮助教师减轻工作负担。 2. 创新教学方式:例如让历史人物亲自授课,知识获取不再受时空限制,提高教育效率和质量,增强学生学习兴趣。 3. 个性化教育:根据学生的学习情况、兴趣和偏好提供定制化的学习计划和资源,实现因材施教,满足学生学习需求,提高学习成果,缓解教育资源不平等问题。 4. 角色多样化:授课教师、游戏玩家、情感伴侣等服务都可以被 AI 重构。 5. 促进学生成长:人工智能生成的虚拟角色可以作为数字陪伴,给予孩子社会奖励,促进其成长和提高学习成绩。
2025-03-22
Stable Diffusion、MidJourney、DALL·E 这些生成式AI工具有什么区别
Stable Diffusion、Midjourney 和 DALL·E 这三个生成式 AI 工具主要有以下区别: 1. 开源性:Stable Diffusion 是开源的,用户可以在任何高端计算机上运行。 2. 学习曲线:Midjourney 的学习曲线较低,只需键入特定的提示就能得到较好的结果。 3. 图像质量:Midjourney 被认为是 2023 年中期图像质量最好的系统。 4. 应用场景:Stable Diffusion 特别适合将 AI 与来自其他源的图像结合;Adobe Firefly 内置在各种 Adobe 产品中,但在质量方面落后于 DALL·E 和 Midjourney。 5. 训练数据:这些工具都是使用大量的内容数据集进行训练的,例如 Stable Diffusion 是在从网络上抓取的超过 50 亿的图像/标题对上进行训练的。 6. 所属公司:DALL·E 来自 OpenAI。 在使用方面: 1. Stable Diffusion 开始使用需要付出努力,因为要学会正确制作提示,但一旦掌握,能产生很好的结果。 2. DALL·E 已纳入 Bing(需使用创意模式)和 Bing 图像创建器,系统可靠,但图像质量比 Midjourney 差。 3. Midjourney 需要 Discord,使用时需键入特定格式的提示。
2025-03-20
生成式人工智能的提示词工程
生成式人工智能的提示词工程是一门新兴学科,在生成式 AI 模型中具有重要作用。 提示词是用户与模型沟通愿望的文本界面,适用于图像生成模型(如 DALLE3、Midjourney)和语言模型(如 GPT4、Gemini)等。它可以是简单的问题,也可以是复杂的任务,包括指令、问题、输入数据和示例,以引导 AI 的响应。 提示词工程的核心是制作能实现特定目标的最佳提示词,这不仅要指导模型,还需深刻理解模型的能力和局限性及所处上下文。例如,在图像生成模型中是对期望图像的详细描述,在语言模型中可能是复杂查询。 提示词工程不仅是构建提示词,还需结合领域知识、对 AI 模型的理解及系统化方法为不同情境定制提示词,可能包括创建可根据数据集或上下文程序化修改的模板。 此外,提示词工程是迭代和探索的过程,类似于传统软件工程实践,如版本控制和回归测试。该领域发展迅速,有潜力改变机器学习的某些方面。 在商业和社会中,提示词工程师是被炒作的职位,实际可能承担了机器学习工程师的部分职责。提示词工程是一切生成式 AI 的基础,不管用于学习、写作、绘画、编程还是玩音乐等。 在使用提示词时,要记住几个基本关键点: 1. 角色/身份:告诉 AI 它需要扮演的身份,提升其“职业素养”。 2. 目标/任务以及背景:所有对话都有目的性,要交代目标背后的逻辑,包括为什么要实现目标、希望达到的结果等。
2025-03-19
生成式AI
生成式 AI(Generative AI)是一种基于深度学习技术,利用机器学习算法从已有数据中学习并生成新的数据或内容的 AI 应用。其工作原理是通过大规模的数据集训练深度神经网络模型,学习各种数据的规律和特征,实现对输入数据的分析、理解和生成。 AIGC(AI generated content)意为人工智能生成内容,又称为生成式 AI。例如 AI 文本续写,文字转图像的 AI 图、AI 主持人等,都属于 AIGC 的应用。能进行 AIGC 的产品项目和媒介很多,包括语言文字类(如 OpenAI 的 GPT、Google 的 Bard、百度的文心一言等)、语音声音类(如 Google 的 WaveNet、微软的 Deep Nerual Network、百度的 DeepSpeech 等)、图片美术类(如早期的 GEN、去年大热的扩散模型带火的 Midjourney、先驱者谷歌的 Disco Diffusion、OpenAI 的 Dalle·2 以及 stability ai 和 runaway 共同推出的 Stable Diffusion 等)。 SD 是 Stable Diffusion 的简称,是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像,是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model;LDM)。其代码模型权重已公开发布,可以在大多数配备有适度 GPU 的电脑硬件上运行。当前版本为 2.1 稳定版(2022.12.7)。源代码库:github.com/StabilityAI/stablediffusion 。 国内目前主要是在《网络安全法》《数据安全法》以及《个人信息保护法》的框架下,由《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》、《科技伦理审查办法(试行)》共同监管 AIGC 行业。 Gen AI/Generative AI 是“生成式人工智能”正式称呼,是一种能够生成新内容的人工智能技术,比如文本、图像、音乐等。而 AIGC 指的是由人工智能生成的内容的创作方式,实际上是 Generative AI 的应用结果。 ChatGPT 在 2022 年宣发时,OpenAI 称其是一种模型,但在官网的帮助页面中,称其是一种服务。目前我们所熟知的 ChatGPT 逐渐演变成了一种可以兼容多种 GPT 模型的聊天应用(服务)。
2025-03-19