直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

sd中的超网络模型(hypernetwork)是什么意思

回答

超网络模型(Hypernetwork)在 Stable Diffusion 中主要是针对画风进行训练的一种模型。它通常是一个带有 dropout 和 activation 的完全连接的线性神经网络,用于调整模型的神经网络权重,从而实现对风格的微调。

Hypernetwork 可以像 Lora 一样被加载进来,比如用于生成卡通 Q 版头像、蒸汽波风格、油画风格等。其文件后缀通常为.pt 或者.safetensors,体积一般在 20M - 200M 之间,模型目录为 WebUI 下的 models/hypernetworks。在使用时,可以在 Hypernetworks 菜单中点击使用,也可以通过 Prompt 调用。

此外,Hypernetwork 对 text embedding 进行预处理,在推理阶段,它也是模型权重调整的一部分。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【SD】软件原理傻瓜级理解

总结一下,LORA的强大,无论是画风,还是人物、物品,或者是动作姿态,都是可以固定下来,它所做的就是提炼图片特征。LORA和Embedding的区别一是在于体量上,Embedding的文件只有几十kb,而LORA的文件通常有几十上百兆,所以LORA的文件所承载的信息量是要远大于Embedding,尤其是在还原真人物品时,LORA的细节精度是Embedding无法比拟的。下载的LORA放在根目录的这个文件夹下【……\models\Lora】,使用的时候点击这个红色的小书,找到LORA的选项卡,任意点击一个想要的LORA就可以加载进去了。使用LORA的时候要注意看作者使用的大模型,一般情况下只有配套使用才能达到LORA最好的效果,当然也不排除有一些LORA和其他的大模型会产生一些奇妙的碰撞。除了加载lora以外,还需要加入一些特定的触发词,才能保证lora的正常使用。比如这个盲盒的lora,作者提示需要加入full body,chibi这些提示词才行。Hypernetworks主要是针对画风训练的一种模型,可以像lora一样加载进来。比如这种卡通Q版头像蒸汽波风格油画风格

原理:Stable diffusion不同模型变量的work pipeline:ckpt、lora等怎么work together的?

这张图形象画出Unet。CrossAttnDownBlock2D模块就是这里SD encoder block;CrossAttnDownBlock2D模块就是这里SD decoder block。其中CrossAttnDownBlock2D模块的主要结构如下图所示。text condition(也就是ControlNet那张结构图中的text encoder输出部分text embeddings)将通过CrossAttention模块嵌入进来,key和value是text embeddings。此时Attention的query是UNet的中间特征.。也就是说在text2img情况下利用cross attention完成text和image信息注意力集合。以上公式中序列S1为text embedding;S2为图像信息,增噪的图像。Lora则是将公式中的权重Wq Wk Wv以添加支路计算反向传播变量进行重新设置。推理阶段:正常使用W = W0+BA来更新模型权重。lora模型中每层的权重包含3个部分,分别为lora_down.weight、lora_up.weight和alpha。其中down和up分别为lora模型的上下层权重分别对应了B和A权重,alpha也是一个可学习的参数。lora模型每层的权重可表示为:w = alpha ∗ down ∗ uphypernetwork通常是一个简单的神经网络:一个带有dropout和activation的完全连接的线性网络。也就是上面说的S1 text embedding进行预处理。总结一张图checkpoint就是某个训练时刻的全部参数,是Stable Diffusion模型训练过程中定期保存的状态快照。好啦,应该解释完全了,不知道对不对,请大家多多指教!

guahunyo:SD入门讲解PPT.pptx

Hypernetworks模型用于调整模型神经网络权重,进行风格的微调。Hypernetworks的后缀为.pt或者.safetensors,体积一般在20M - 200M之间。模型的目录为WebUI下的models/hypernetworks。在使用时同样可以在Hypernetworks菜单中点击使用,也可以使用Prompt调用。

其他人在问
SD网址多少
以下是一些常用的与 SD 相关的网址: 另外,SD 是 Stable Diffusion 的简称。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。其代码模型权重已公开发布,当前版本为 2.1 稳定版(2022.12.7),源代码库:github.com/StabilityAI/stablediffusion 。我们可以通过一系列的工具搭建准备,使用 SD 进行想要的图片生成。 关于 SD 的安装: 系统需为 Win10、Win11 。 Win 系统查看配置。 配置达标跳转至对应安装教程页: 。 配置不够可选择云端部署(Mac 也推荐云端部署): 。 备选:SD 好难,先试试简单的无界 AI: 。
2024-09-18
蛟龙16pro配置(处理器R7-7745HX,显卡RTX4060 8G,硬盘512GPCIE4.0SSD)可以用于审计人员本地化部署大模型用于数据分析工作吗
蛟龙 16pro 的配置(处理器 R77745HX,显卡 RTX4060 8G,硬盘 512G PCIE4.0 SSD)对于审计人员本地化部署大模型用于数据分析工作来说,可能存在一定的局限性。 处理器 R77745HX 具有一定的计算能力,但在处理大规模数据和复杂的模型运算时,其性能可能不够强劲。 显卡 RTX4060 8G 对于一些较为复杂的图形处理和计算任务能够提供一定的支持,但对于大规模的深度学习模型训练和数据分析,可能会显得不足。 512G 的 PCIE4.0 SSD 硬盘容量相对较小,在存储大量数据时可能会很快耗尽空间。 综上所述,该配置在一定程度上可以用于简单的数据分析任务,但对于较为复杂和大规模的大模型本地化部署及数据分析工作,可能需要更强大的硬件配置,例如更高性能的处理器、更大容量和更高性能的显卡,以及更大的存储空间。
2024-09-14
sd和comfy的详细学习教程推荐
以下是关于系统学习 SD 和 Comfy 的详细教程推荐: 学习 SD 提示词的步骤: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 相关入门教程链接: 1. 2. 3. 4. 5. 6. 7. 8. 9. 关于 Comfy 的学习,您可以参考以下知乎教程中的相关部分:,其中包含零基础使用 ComfyUI 搭建 Stable Diffusion 推理流程的内容。
2024-09-11
SD 模型
以下是关于 SD 模型的相关信息: 模型安装设置: 二维码做好后进入 SD 版块,需下载两个 SD 的 ControlNET 模型和一个预处理器。可添加公众号【白马与少年】,回复【SD】获取。在【QR ControlNET】文件夹中,后缀为【.yaml】的放在“……\\sdwebuiakiv4.2\\extensions\\sdwebuicontrolnet\\models”路径下,后缀为【.safetensors】的放在“……\\sdwebuiakiv4.2\\models\\ControlNet”路径下。选择“cheeseDaddys ”模型,填入描绘梦幻森林的关键词,同时将迭代步数设置到 15,采样选择 DPM++ 2M Karras,图像大小设置到 768768。 核心基础原理: 1. SD 模型是生成式模型,输入可以是图片、文本以及两者的结合,输出是生成的图片。 2. 属于扩散模型,其整体逻辑特点是过程分步化与可迭代,为生成过程引入更多约束与优化提供可能。 3. 是基于 Latent 的扩散模型,将输入数据压缩到 Latent 隐空间中,大幅提高计算效率并降低显存占用,是破圈关键。 4. 从 CTO 视角看,是一个优化噪声的 AI 艺术工具。 工作流程: Stable Diffusion(SD)模型由 Stability AI 和 LAION 等公司共同开发,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。以文生图(txt2img)和图生图(img2img)任务为例,文生图任务是将一段文本输入到 SD 模型中,经过一定迭代次数,输出符合文本描述的图片;图生图任务在输入文本基础上再输入一张图片,SD 模型根据文本提示将输入图片重绘以更符合文本描述。输入的文本信息需转化为 SD 模型能理解的机器数学信息。
2024-09-11
SD大模型下载网站
以下是一些 SD 大模型的下载网站和相关信息: Civitai(https://civitai.com/):这是一个常用的网站,有各种风格的大模型,如真实系、二次元、游戏 CG 风等,但需要科学上网。如果不会科学上网,也可以去启动器的界面直接下载模型,但这里看不见预览图。下载的大模型应放在根目录的【……\\models\\Stablediffusion】文件夹下。 对于 Fooocus,大模型(base 和 Refiner)默认放在这里:\\ Fooocus_win64_1110\\ Fooocus\\models\\checkpoints;LoRA 模型默认放在这里:\\ Fooocus_win64_1110\\ Fooocus\\models\\loras。如果单独安装,需要下载的模型链接如下: SDXL 基础模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_base_1.0_0.9vae.safetensors refiner 模型:https://huggingface.co/stabilityai/stablediffusionxlrefiner1.0/resolve/main/sd_xl_refiner_1.0_0.9vae.safetensors LoRA 模型:https://huggingface.co/stabilityai/stablediffusionxlbase1.0/resolve/main/sd_xl_offset_examplelora_1.0.safetensors 在 Civitai 网站的使用方法: 1. 科学上网(无法教授具体方法,需自行解决)。 2. 点击右上角的筛选按钮,在框框里面找到自己需要的模型类型,如 Checkpoint=大模型,LoRA=Lora。 3. 看照片,感兴趣的点进去,点击右边的“Download”下载,保存到电脑本地,文件保存位置在前面提到的相关文件夹。另外,还可以点击左上角的“Images”,看到喜欢的图片点进去,点进去后的页面可看到图片的全部信息,直接点击 Lora 和大模型,可直接跳转到下载页面。点击最下面的“Copy...Data”可复制图片的所有信息,回到 SD 粘贴到关键词的文本框,点击右边的按钮,这些信息就会自动分配。需要注意的是,大模型需要手动更换。
2024-09-06
sd3大模型的教程
以下是关于 SD3 大模型的一些教程资源: 【AI 艺境】ComfyUI 快手 Kolors 模型基础使用工作流全套模型网盘分享: 作者:极点 AI 类型:教学视频 链接: 备注:商用工作流请自行辨别 拳打 SD3 脚踢 MidjourneyV6?某手开源的可图 Kolors 到底是不是真的强,内附 Comfyu 部署教程: 作者:淼淼爸的 AI 笔记 类型:评测视频 链接: 国产超牛的开源大模型可图 kolors: 作者:大桶子 AI 类型:评测视频 链接:(https://www.bilibili.com/video/BV1MZ421T79S/? 另外,关于 SD3 的一些说明: SD3 已开放下载(并非开源,是收费的)。 基础模型包括:主模型“sd3_medium”,文本编码器“clip_g”“clip_l”“t5xxl_fp16/t5xxl_fp8_e4m3fn”。在 ComfyUI 中使用时需分别通过模型加载器和 CLIP 加载器加载,“t5xxl”是非必要项。 融合了文本编码器的模型有 2 个:无 T5 的“sd3_medium_incl_clips = sd3_medium + clip_g + clip_l”,有 T5 的“sd3_medium_incl_clips_t5xxlfp8 = sd3_medium + clip_g + clip_l + t5xxl_fp16/t5xxl_fp8_e4m3fn”。在 ComfyUI 中使用时直接用模型加载器加载主模型即可,无需 CLIP 加载器(如同之前的 SD1.5 或 SDXL 的基础工作流)。下载地址(huggingface 比较慢,多放几个百度云盘)。
2024-09-02
国内外好用的图生视频模型
以下是一些国内外好用的图生视频模型: 可灵(国内,免费) 网址:https://klingai.kuaishou.com/ 支持文生视频、图生视频。 支持图生视频首尾帧功能。 提示词可使用中文。 文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持 16:9、9:16、1:1 尺寸。 图生视频除了不可运镜控制以外,其他跟文生视频基本相同。 默认生成 5s 的视频。 ETNA(国内) 网址:https://etna.7volcanoes.com/ 由七火山科技开发的文生视频 AI 模型。 可以根据用户简短的文本描述生成相应的视频内容。 生成的视频长度在 8 15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。 文生视频,支持中文,时空理解。 关于可灵的文生视频效果,测试者 Austin 周安鑫进行了以下测试: 1. 场景识别:包括室内和室外,如客厅的沙发、液晶电视、漂亮的波斯猫、超现实主义的蜿蜒河流、茂密森林、灿烂花海、碧绿草坪等。 2. 物体识别:涵盖静态和动态物体,如水晶球、跳动的火焰、翱翔的飞鸟、闪烁的流星、飞溅的水珠等。 3. 人物识别:包括面部和姿态,如一个人笑容灿烂、一个人惊恐愤怒,一位芭蕾舞女孩在冰面上跳舞等。 4. 动作识别:包含基本和复杂动作,如短跑运动员快速奔跑、赛车手驾驶跑车激烈漂移等。 5. 事件检测:有简单和复杂事件,如一位帅哥在喝水、外星文明和地球进行星际大战等。 6. 环境变化:涉及光线和天气,如奇幻的极光舞动变幻、城市写字楼灯光忽明忽暗、闪电交加、乌云密布、台风、大雨等。 7. 多对象场景:包括单一和多对象场景,如 1 个飞行员驾驶战斗机翱翔太空、海军指挥航母战斗群展开激烈战斗等。 8. 特殊场景:有遮挡和非标准场景,如城市大雾遮挡摩天大楼、一边是神秘海底世界,一边是梦幻糖果屋。 9. 细节检测:包含小物体和微表情,如崭新的苹果电脑屏幕上播放电影、瞳孔收缩、脸颊泛红、嘴唇微微颤抖。
2024-09-19
你自己使用的是什么模型
以下是关于模型的相关信息: 新的 gpt3.5turbo 模型针对会话进行了优化,原始的 GPT3.5 模型针对文本补全进行了优化。 用于创建嵌入和编辑文本的端点有自己的一组专用模型。 在 AI 输入框下方有一个下拉列表,允许选择要使用的模型。默认情况下,Cursor 已准备好使用的模型包括:GPT4o、GPT4、Claude 3.5 Sonnet、cursorsmall。其中,cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。您可以在 Cursor Settings > Models > Model Names 下添加其他模型。 谷歌一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是名为 PaLM 2 的模型。 Anthropic 发布了 Claude 2,其最值得注意的是有非常大的上下文窗口,与其他大型语言模型相比,不太可能恶意行事。
2024-09-19
推荐下好用的具备图像OCR能力的大模型
目前在具备图像 OCR 能力的大模型方面,一些较为知名和好用的包括百度的文心大模型、阿里云的通义大模型等。但大模型的性能和适用场景可能会因具体需求和使用场景的不同而有所差异。您可以根据自己的具体需求进一步评估和选择。
2024-09-19
AI 大模型命名 带有-instruct的含义
AI 大模型中带有“instruct”通常与指令微调相关。在大模型的训练过程中,指令微调是其中一个重要阶段。此阶段模型被训练以理解并执行具体指令,例如翻译文本等,从而能够回答问题。指令微调阶段输入的内容通常包括三个部分,如“Instruct:请你翻译下面这段话”“Input:一段英文”“Output:一段中文”。通过指令微调,模型能够更好地按照人类的期望和具体要求进行输出。
2024-09-19
你是基于哪个AI大模型的
我是 WaytoAGI 专属问答机器人,基于 Aily 和云雀大模型。 Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供了简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用,推动业务创新和效率提升。 云雀是由字节跳动研发的语言模型,通过便捷的自然语言交互,能够高效地完成互动对话、信息获取、协助创作等任务。 此外,还有一些免费的大模型接口,如阿里的通义千问大模型接口,可创建 API key。智谱 AI(ChatGLM)、科大讯飞(SparkDesk)也有免费接口,但国内的大模型大多限制一定免费额度的 Token。 谷歌的 Gemini 大模型(gemini 1.5)、海外版 Coze 的 GPT4 模型是免费且能图片识别,但需要给服务器挂梯子。想使用的话,可参考张梦飞同学写的教程。 在深入了解 AI 运作原理和众多落地产品后,重新思考 AI 大模型引发的变革。此前曾有疑问,大模型与智能语音技能的 NLU 存在差异。语音技能 NLU 是通过一系列规则、分词策略等训练而成,运作逻辑规律可观测,具有 ifelse 式逻辑性。而大模型凭借海量数据在向量空间中学习知识的关联性形成,运作逻辑难以观测,脱离了 ifelse 的层面。
2024-09-19
如果我需要一名助手帮我运营跨境电商的线上店铺,我需要一些精准的关键词就可以训练模型吗?
训练模型来协助运营跨境电商线上店铺,仅依靠一些精准的关键词通常是不够的。模型的训练需要多方面的数据和信息,包括但不限于产品的详细描述、客户的评价和反馈、市场趋势、竞争对手的情况等。精准的关键词可以作为其中的一部分输入,但不足以全面有效地训练模型以达到理想的辅助运营效果。
2024-09-19
网络AI音乐制作suno 网站为什么打不开
Suno 网站打不开可能有以下原因: 1. 网络连接问题:请检查您的网络连接是否正常,确保网络稳定。 2. 网站服务器故障:可能是 Suno 网站的服务器出现故障或维护,导致暂时无法访问。 3. 您的文本请求被阻止: 歌词受版权保护。 音乐风格或歌曲描述使用了真实的乐队或艺术家名称。 歌词包含违规词汇。 实际积分用尽但网页未同步(可尝试刷新页面)。 在默认模式或“生成随机歌词”按钮下,AI 无法理解如何将您的请求转化为歌曲。 另外,关于音乐发布,QQ 音乐开了专门的 Suno 音乐板块,网址为:https://tmecp.tencentmusic.com/ai_publish/index 。素人也能注册成为 AI 音乐人发布自己的 AI 作品,且发布成功的作品在 QQ 音乐、酷狗、酷我音乐上都能搜到。同时,腾讯家还有《全民 K 歌》,所有发布到 QQ 音乐上的歌都能在全民 K 歌里找到并且唱。
2024-09-15
网络AI音乐制作suno 网站如何登录
要登录网络 AI 音乐制作 Suno 网站,您可以按照以下步骤进行: 1. 访问网址:https://suno.com/ 或 https://www.suno.ai/ 。 2. 该网站需要拥有 Discord、谷歌或微软中的至少一个账号。确保您的网络环境稳定,以便顺利使用该平台。 3. 可能需要通过邮箱注册。 4. 登录后,点击最左侧的“create”按钮即可开始使用相关功能。 此外,Suno 网站还有以下特点和限制: 免费用户每天有 50 积分,每首歌消耗 5 积分,每天可创作 10 首歌曲,每次点击生成都会生成两首歌曲。 有不同的订阅模式,如 Pro 用户和 Premier 用户,价格和点数有所不同。 有 Custom Mode 模式,可选择开启或关闭个性化。 每日有免费额度 10 首歌。
2024-09-15
神经网络的简单理解
神经网络是一种模仿生物神经网络结构和功能的数学模型或计算模型,用于分析图像、视频、音频和文本等复杂数据类型。 对于不同类型的数据有专门优化的神经网络,如分析图像时常用卷积神经网络,其模仿人脑处理视觉信息的方式。 在 2017 年推出 Transformer 之前,理解文本常用循环神经网络。而 Transformer 完全基于自注意力机制处理序列数据,比 RNN 更适合处理文本的长距离依赖性,在处理每个词时会注意输入序列里所有其他的词,并给予不同的注意力权重以捕获依赖关系和相关性,且具有自注意力机制和位置编码(因语言顺序很重要)。 神经网络由大量人工神经元联结进行计算,大多数情况下能在外界信息基础上改变内部结构,是一种自适应系统,具备学习功能。它是一种非线性统计性数据建模工具,通常通过基于数学统计学类型的学习方法得以优化,也是数学统计学方法的实际应用,能通过统计学方法让人 工神经网络具有类似人的简单决定和判断能力,这种方法比正式的逻辑学推理演算更具优势。 神经网络可用于监督学习、无监督学习、强化学习。
2024-09-06
怎么用ai管理自己的笔记,使形成知识网络
以下是关于如何用 AI 管理自己的笔记并形成知识网络的一些建议: 首先,要理解知识管理体系的概念。知识管理体系是一套包括收集信息、整理知识、分享经验、促进学习和创新的流程、工具和策略的组合。它可以是个性化的个人笔记系统,也可以是组织内部的复杂系统。有效的知识管理体系通常包括知识的捕捉(收集日常产生的知识和信息)、组织(通过分类、标签和索引等方式便于访问和检索)、分享(促进内部流动增加协作和创新机会)和应用(支持决策制定、问题解决和新知识创造)。 在 AI 时代,利用外部大脑的概念很重要,比如使用数字工具和系统来存储思考、想法和信息,释放认知负担,更专注于创意和高阶思考。例如,可以使用数字笔记工具记录阅读书籍、会议要点或日常灵感,随着时间积累,通过分类、标签或链接将零散信息相互关联,形成知识网络,这是对信息的深加工,能从大量信息中提炼出有价值的知识。 此外,AI 还能通过分析笔记内容和使用习惯,推荐合适的标签和标签结构,利用提示词功能帮助更高效地管理笔记,提高检索效率。一个有效的标签系统对于知识管理至关重要,而 AI 能在这方面提供很大的帮助。
2024-09-05
如何查看自己的网络信息茧房
目前没有直接查看自己是否处于网络信息茧房的明确方法。但您可以通过以下一些方式进行自我评估和反思: 1. 观察自己获取信息的渠道是否过于单一,是否总是倾向于从固定的几个来源获取信息。 2. 思考自己对不同观点和意见的接受程度,是否容易排斥与自己固有认知不符的信息。 3. 留意自己在讨论问题时,观点是否较为狭隘和局限,缺乏多元化的视角。 4. 检查自己的社交圈子,是否与具有相似观点和背景的人交流过多,而缺乏与不同类型人群的沟通。 需要注意的是,网络信息茧房是一个相对复杂的概念,自我评估可能存在一定的局限性。
2024-08-26
卷积神经网络
卷积神经网络,也称为卷积网络,使用卷积层来过滤输入以获取有用信息。卷积层具有可学习的参数,能自动调整滤波器以提取对应任务的最有用特征。例如在一般目标识别中侧重对象形状信息,鸟类识别中更倾向于鸟的颜色信息,它会自动适配以找到最佳特征。 通常,多个卷积层依次作用,在每一层后对图像进行过滤,获取越来越多的抽象信息,形成层次特征。 卷积网络还常使用池层,以实现有限的平移和旋转不变性,即便对象出现在异常位置也能检测到,同时能减少内存消耗,从而支持使用更多卷积层。 近期的卷积网络采用初始模块,利用 1×1 卷积核进一步降低内存消耗并加快计算速度,提高训练效率。 例如在自动驾驶汽车场景中,可将驾驶员当前视野的图像输入到卷积神经网络,训练其预测下一个可能行动的奖励。相似状态的图像相似,行动也相似,网络能针对不同情况进行微调。 相关附加材料: 。 图 5 展示了一个交通标志的图像被 4 个 5×5 的卷积核过滤,生成 4 个特征图,再通过最大池化进行二次采样。下一层将 10 个 5×5 的卷积核应用于这些子采样图像,并再次将特征映射集中在一起。最后一层是完全连接的层,用于组合所有生成的特征并用于分类器(本质上是逻辑回归)。图像由提供。
2024-07-20