Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

关于Stable Diffusion,个人本地附属,对机器的配置要求

Answer

Stable Diffusion 本地化部署对机器配置有一定要求:

  1. 电脑系统:需为 Win10 或者 Win11,避免使用更低版本的系统。查看电脑系统的方法为在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。
  2. 电脑性能:
    • 运行内存:8GB 以上。查看方法为鼠标右击桌面底部任务栏,点击“任务管理器”,在“性能”里面找到“内存”,只要看图中划线的参数即可。8GB 勉强达到标准,16GB 可正常使用,32GB 能非常自由地使用。
    • 显卡:需为英伟达(俗称 N 卡)的显卡,显卡内存 4GB 以上。查看方法为在任务管理器中先看右上角显卡的名字或型号,确认是 NVIDIA 后,再查看显存,4GB 显存可运行 SD,推荐 8GB 以上显存。

如果电脑配置不够,可选择云端部署(Mac 也推荐云端部署),或者先试试简单的无界 AI。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】软件原理傻瓜级理解

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-04-27 23:00原文网址:https://mp.weixin.qq.com/s/C-F6ARIMHotl6siAfQ9wig目前市面上主流的AI绘图软件有两个:Stable Diffusion和Midjourney。Stable Diffusion的优势在于开源免费、可以本地化部署、创作自由度很高,缺点是需要比较好的电脑配置,尤其是显卡;Midjourney的优势是操作简单方便,创作内容相当丰富,但是需要科学上网并且付费,目前的使用费大概在每月200多元左右。如果可以融入工作流,这个月费也不算高,毕竟它带来的效率是惊人的,当然前期想要了解玩一玩的,可以试试Stable Diffusion,关于具体的安装方法可以去看看B站的【秋葉aaaki】这个Up主的视频。很多还没有接触过AI绘画的朋友会觉得这个东西很神秘,哪怕装好了软件也会看着一堆英文和参数而一头雾水。今天我就用最傻瓜的方式来讲述一下Stable Diffusion的工作原理和基本功能。

教程:超详细的Stable Diffusion教程

为了大家能够更加顺利的安装和使用Stable Diffusion(简称“SD”)在正式安装之前希望大家先一起查看一下自己的电脑配置,需要注意的是以下两点:01.电脑系统是Win10或者Win11为了避免一些奇怪的兼容性问题,不要选择更低版本的系统。查看电脑系统的方法:在桌面上找到“我的电脑”——鼠标右键点击——点击“属性”——查看Windows规格02.检查电脑性能这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求:电脑运行内存8GB以上是英伟达(俗称N卡)的显卡显卡内存4GB以上检查方法:①鼠标右击桌面底部任务栏——点击“任务管理器”②查看电脑的运行内存在“性能”里面找到“内存”,这里的内存不是电脑的存储内存,而是运行内存噢!只要看图中划线的那一个参数就可以8GB:那就说明你的电脑配置内存是勉强达到标准的16GB:那就说明你的内存配置可以正常使用32GB:那么你就可以非常自由的使用SD啦!③查看“GPU”GPU就是显卡的意思首先先看右上角显卡的名字或者型号必须确认的第一个是NVIDIA,代表的是英伟达的显卡(俗称N卡),这里是N卡我们才可以进行下一步,

0. SD的安装

①系统需为Win10、Win11②Win系统查看配置③配置达标跳转至对应安装教程页[1.Win系统SD安装](https://qa3dhma45mc.feishu.cn/wiki/D5nawAs1fivF4ykx88ucRIYwn1d)④配置不够可选择云端部署(Mac也推荐云端部署)[3.SD云端部署](https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd)⑤备选:SD好难,先试试简单的无界AI:[图像类-无界AI使用教程](https://qa3dhma45mc.feishu.cn/wiki/LRdOw75tQiN3wAkU43ucwb5Ondd)[heading2]Win系统查看配置[content]Win10和Win11一样没区别[heading3]查看电脑系统:[content]在桌面上找到“我的电脑”一鼠标右键点击一一点击"属性”一一查看Windows规格[heading3]查看电脑配置:[content]这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求(推荐):电脑运行内存8GB以上是英伟达(NVIDA)的显卡显卡内存4GB以上①打开任务管理器:同时按下ctrl+shift+esc②查看电脑运行内存8GB运行内存可以勉强运行SD推荐16GB以上运行内存③查看电脑显卡内存(显存)4GB显存可运行SD,推荐8GB以上显存

Others are asking
stable diffusion学习
以下是关于 Stable Diffusion 学习的相关内容: 一、为什么要学 Stable Diffusion 以及它的强大之处 简单来说,Stable Diffusion 是一个 AI 自动生成图片的软件。通过输入文字就能生成对应的图片,无需像以前那样画图或拍照。学习它非常简单,目的是花更少时间快速入门。如果时间充裕,了解其原理也可以。 二、学习 SD 的 Web UI 步骤 1. 安装必要的软件环境 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git,将源代码克隆到本地目录。 3. 运行安装脚本 进入 stablediffusionwebui 目录。 运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面 复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。 尝试生成图像,观察不同参数对结果的影响。 学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。 学习如何导入自定义模型、VAE、embedding 等文件。 掌握图像管理、任务管理等技巧,提高工作效率。 三、Stable Diffusion 的原理及相关组件 1. 在传统扩散模型中存在计算效率挑战,Stable Diffusion 是为解决此问题提出的新方法,最初称为潜在扩散模型。 2. Stable Diffusion 是扩散模型的变体,核心组件包括: CLIP:将用户输入的 Prompt 文本转化成 text embedding。 VAE EncoderDecoder。 UNET:进行迭代降噪,在文本引导下进行多轮预测。 此外,还涉及 ComfyUI 存放路径、不同的模型(如 SD1.5、SDXL)、训练方法(如 DreamBooth)、模型格式(如.pt 和.safetensor)、微调模型、融合模型等内容。
2025-02-16
我想了解diffusion技术相关的重要论文
以下是一些与 diffusion 技术相关的重要论文: 《HighResolution Image Synthesis with Latent Diffusion Models》:https://arxiv.org/abs/2112.10752 《Denoising Diffusion Probabilistic Models》:作者为 Ho、Jain、Abbeel,出自 Berkeley (2020)
2025-02-16
stable diffusion
稳定扩散(Stable Diffusion)是一种扩散模型的变体,最初称为潜在扩散模型(Latent Diffusion Models)。 在传统扩散模型中,反向扩散过程通过 UNet 结构将全尺寸图像逐步传递以获得去噪结果,但存在计算效率挑战。为解决此问题,研究人员提出了稳定扩散。 其核心组件包括: 1. CLIP:将用户输入的 Prompt 文本转化成 text embedding。 2. VAE EncoderDecoder。 3. UNET:进行迭代降噪,在文本引导下进行多轮预测。 稳定扩散的运作方式是消除图像中的噪点。比如在太暗情况下拍照产生的颗粒状即噪点,它比手机图像编辑器中的噪点消除滑块复杂得多,它了解世界和书面语言来指导噪点消除过程。 稳定扩散是逐步去除噪点的,有“推理步骤”滑块。 ComfyUI 使用预训练的扩散模型(如 Stable Diffusion 模型)作为核心,包括 SD1.5、SD2.0、SDXL、SD3、FLUX 等模型。当用户输入文本提示时,ComfyUI 首先使用 CLIP 文本编码器将文本转换为向量表示以捕捉语义信息。 在 ComfyUI 的节点化界面中,每一步操作可通过不同模块实现,用户可控制潜在空间中的操作(如调度器和噪声选择)、UNet 中的推理步骤(通过去噪模块实现)以及条件输入(通过文本提示或图像引导)。 稳定扩散的相关模型有 SD1.5、SDXL 等,训练方法有 DreamBooth 等。模型格式有.pt 和.safetensor,还有融合模型等形式。训练要求方面,SD1.5 需 12G VARM,SDXL 需 16G VARM。
2025-02-14
我需要查找关于stable diffusion的教学
以下是为您整理的关于 Stable Diffusion 的教学资源: 基本介绍:https://waytoagi.feishu.cn/wiki/CeOvwZPwCijV79kt9jccfkRan5e 运作原理:https://waytoagi.feishu.cn/wiki/TNIRw7qsViYNVgkPaazcuaVfndc 入门视频教程: https://waytoagi.feishu.cn/wiki/O5jEwgZIRiQ10xkqGOQcKtSBnSe https://zhuanlan.zhihu.com/p/622238031 模型网站: C 站SD 模型网站:https://civitai.com/ Liblibai模型+在线 SD:https://www.liblib.ai/ huggingface:https://huggingface.co/models?pipeline_tag=texttoimage&sort=trending 吐司站:https://tusiart.com/ 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ 更多入门教程:
2025-02-14
RuntimeError: Couldn't clone Stable Diffusion. Command: "git" clone --config core.filemode=false "https://github.com/Stability-AI/stablediffusion.git" "/Users/lichenhui/stable-diffusion-webui/repositories/stable-diffusion-stability-ai" Error code: 12
以下是关于您遇到的“RuntimeError: Couldn't clone Stable Diffusion”错误的分析和解决建议: 这个错误通常表示在克隆 Stable Diffusion 时出现问题。可能的原因包括: 1. 库的某些文件或依赖项已更改或已移除,导致无法找到所需的提交。 2. Git 存储库的状态不正确。 3. 网络连接存在问题。 解决方法如下: 1. 尝试清除本地库并重新克隆 Stable Diffusion,然后再次运行代码。 2. 运行以下命令来检查网络连接:ping files.pythonhosted.org
2025-02-12
macmini本地部署Stable Diffusion
以下是关于在 Mac mini 本地部署 Stable Diffusion 的相关信息: 目前市面上主流的 AI 绘图软件有 Stable Diffusion 和 Midjourney。Stable Diffusion 开源免费、可本地化部署、创作自由度高,但对电脑配置尤其是显卡有要求。其工作原理涉及到一系列核心组件,如将用户输入的 Prompt 文本转化成 text embedding 的 CLIP、VAE EncoderDecoder、进行迭代降噪和在文本引导下进行多轮预测的 UNET 等。 在环境部署方面,对于觉得麻烦的同学,可以使用整合包,解压即用。比如独立研究员的空间下经常更新整合包,秋叶的启动器也非常好用,将启动器复制到下载仓库的目录下即可,更新管理更方便。打开启动器后,可一键启动。显存优化需根据显卡实际显存选择,不要超过当前显卡显存,xFormers 能极大改善内存消耗和速度,建议开启。准备工作完毕后,点击一键启动,等待浏览器自动跳出或控制台弹出本地 URL 说明启动成功。若报错提示缺少 Pytorch,需在启动器中点击配置。Stable Diffusion webui 更新频繁,可根据需求在“版本管理”目录下更新,同时注意插件的更新。Stable Diffusion 可配置大量插件扩展,在 webui 的“扩展”选项卡下,点击“加载自”后,目录会刷新,选择需要的插件点击右侧的 install 即可安装,安装完毕后需重新启动用户界面。 关于具体的安装方法可以去看看 B 站的【秋葉 aaaki】这个 Up 主的视频。
2025-02-11
stable difussion 可以生成视频吗
Stable Diffusion 中的 Stable Video Diffusion 可以生成视频。 Stable Video Diffusion 是 Stability AI 于 2023 年 11 月 21 日发布的视频生成式大模型,它是一种用于高分辨率、先进的文本到视频和图像到视频生成的潜在视频扩散模型。该模型不仅支持文本、图像生成视频,还支持多视角渲染和帧插入提升视频帧率。用户可以调整模型选择、视频尺寸、帧率及镜头移动距离等参数。 当时,Stable Video Diffusion 开源了两种图生视频的模型,一种是能够生成 14 帧的 SVD,另一种则是可以生成 25 帧的 SVDXL。在以基础形式发布时,通过外部评估,发现这些模型超越了人类偏好研究中领先的封闭模型。 其主要贡献包括:提出一个系统的数据管理工作流程,将大量未经管理的视频集合转变为用于生成视频建模的高质量数据集;使用此工作流程,训练最先进的文本到视频和图像到视频模型,其性能优于所有现有模型;通过进行特定领域的实验来探索 SVD 模型中运动和 3D 理解的强先验。具体来说,预训练的视频扩散模型可以转变为强大的多视图生成器,这可能有助于克服 3D 领域中的数据稀缺问题。 Stability AI 还推出了基于 Discord 的媒体生成和编辑工具,其中的视频功能基于初始图像使用 Stable Video Diffusion 生成短视频。 在云部署实战方面,关于上面的两个模型依赖权重可在百度网盘获取,关注公众号「魔方 AI 空间」,回复【SVD】即可。手动下载下来后,分别放到指定路径。在准备工作做好后,再次运行,复制 url 到浏览器中打开。点击下拉箭头,可以选择不同模型版本,再勾选 load Model。SVD 本地部署目前仅支持图生视频,图片来源可以选择 AI 绘画工具如 Midjourney、Stable Diffusion 等生成图片,然后再上传到 SVD 进行视频的生成,同时可以调左侧的一些参数,控制视频的生成效果。视频生成的保存路径在 outputs 下。 但需要注意的是,SVD 模型对硬件要求较高,对于缺乏硬件资源的普通用户有一定限制,同时其支持的图片尺寸较小,限制了它的应用场景。尽管 SVD 与其他商用产品在帧率、分辨率、内容控制、风格选择和视频生成时长等方面存在差距,但其开源属性和对大规模数据的有效利用构成了其独特优势。
2025-02-25
stable difussion controlnet
Stable Diffusion 相关信息: Stable Diffusion 3.5 已发布,我们对安全高度重视并采取措施防止不良行为者滥用。10 月 29 日将公开发布 Stable Diffusion 3.5 Medium,ControlNets 也将推出,为各种专业用例提供先进的控制功能。 ControlNet 允许通过线稿、动作识别、深度信息等对生成的图像进行控制。使用前需确保 ControlNet 设置下的路径与本地 Stable Diffusion 的路径同步。基本流程包括点击 Enable 启用该项 ControlNet,选择合适的 Preprocessor、调整 Weight 和 Guidance strength 等,还有一些特殊设置如 Invert Input Color、RGB to BGR、Low VRAM、Guess Mode 等。 用 Stable Diffusion 装饰二维码的方法:首先使用 img2img 生成类似于 QR 码的图像,在采样步骤中打开 ControlNet 以将 QR 码压印到图像上,在采样步骤接近尾声时关闭 ControlNet 以提高图像的一致性。具体步骤包括选择检查点模型、输入提示和否定提示、上传二维码到 img2img 画布、设置图像到图像的相关参数、将二维码上传到 ControlNet 的图像画布并设置 ControlNet 的相关参数,最后按生成并用手机查看二维码。
2025-02-25
有没有制作机器人的详细视频?
以下为您提供一些制作机器人相关的视频资源: Adobe MAX 2024 全球创意大会:一个可爱的机器人举着一颗红色发光心形,电影般逼真的详细镜头。灯光绚丽,阳光明媚,机器人脸上有斑驳的灯光,背光强烈。逼真的细节和纹理。色彩等级梦幻、阳光、温暖的色调。浅景深。胶片颗粒。用 35 毫米胶片拍摄。阳光透过窗户轻轻地照进来,营造出一种微妙而空灵的氛围。前景中失焦的绿色植物。慢动作,轻柔的动作。相机静止且锁定。 扣子案例合集 社区内容分享: 【Agent 共学第二期】制作一个新闻鉴别相关的 bot:https://www.bilibili.com/video/BV1QJ4m1M7ti/ 用 Coze 搭建智能机器人并挖掘销售线索:https://wap.peopleapp.com/video/rmh41227880/rmh41227880 coze 实战系列(一)| 天天小管家:https://www.bilibili.com/video/BV1nRMQexER7/ 毕业加速器:如何用 AI 爆肝论文?:https://www.bilibili.com/video/BV12z421m7YV 不写代码,如何用 Coze 做专属的对话机器人:https://www.bilibili.com/video/av1603694358 用 coze 一键生成朋友圈文案:https://www.xiaohongshu.com/explore/65c1d0ae000000001100d442 COZE:中小企业均可 0 门槛创建业务 agent,支持接入微信公众号、微信客服、discord、tele 等各种终端,实现公司 AI 客服、销售机器人等触达客户:https://www.bilibili.com/video/BV1DA4m1w72p/ 【Agent 共学第二期】许键分享|拆解“离谱村捏剧本”coze bot 思路:https://www.bilibili.com/video/BV1Cx4y1n7yU/ 【Agent 共学第二期】银海分享|用 AI 重塑我的工作流:https://www.bilibili.com/video/BV1sr421L7Hj/ 【Agent 共学第二期】大家一起捏 Bot,Coze 作品分享会:https://www.bilibili.com/video/BV1hT421v7YD/ 工具教程:morphstudio Morphstudio 官方 discord 使用教程 MorphVideo 机器人的使用: 文生视频:提示词指令:/video。举例:/video 你好世界比例 16:9动作幅度为 5镜头拉近每秒 30 帧秒数为 5 秒 Morph 机器人的使用: 图生视频:提示词指令:/animate 参数说明: ar(只针对 MorphVideo 机器人):这个参数用来设置视频的画面比例(比如 16:9,4:3,1:1,3:4,9:16)。 motion:这个参数用来调整视频中的运动强度。数值越低,运动越微妙,数值越高,运动越夸张。 camera:这个参数用来控制摄像头移动。Zoom:镜头拉近/拉远;Pan:摄像机向上/向下/向左/向右移动;Rotate:相机顺时针旋转或逆时针旋转;Static:相机静态。 fps:视频的帧率是指每秒钟播放的图片帧数。默认的帧率是每秒 24 帧。 s(只针对 MorphVideo 机器人):设置视频的时长,单位是秒。 提示:使用更加详细和描述性的提示可能会导致您生成的视频效果更好。可以试着调整不同的设置来达到想要的效果!
2025-02-26
我想学习制作机器人 机器狗等的原理及方法,给我一份理论指导和操作指南吧。
以下是关于制作机器人和机器狗的理论指导和操作指南: 具身智能是将机器学习算法适配至物理实体,与物理世界交互的人工智能范式。以 ChatGPT 为代表的“软件智能体”通过网页端、手机 APP 与用户交互,能接受多种模态指令实现复杂任务。具身智能体则将大模型嵌入物理实体,通过传感器与人类交流,强调与物理环境交互。人形机器人是具身智能的代表产品。 具身智能有三要素: 1. 本体:即硬件载体,不同环境有不同形态的硬件本体适应,如室内平地适用轮式机器人,崎岖地面适用四足机器人(机器狗)。 2. 智能:包括大模型、语音、图像、控制、导航等算法。 3. 环境:本体所交互的物理世界,本体、智能、环境高度耦合是高级智能基础。 具身智能还有四个模块:感知决策行动反馈。一个具身智能体的行动分为这四个步骤,分别由四个模块完成并形成闭环。在具身智能体与环境的交互中,智能算法通过本体传感器感知环境,做出决策操控本体执行动作任务影响环境,还可通过“交互学习”和拟人化思维学习适应环境实现智能增长。
2025-02-26
那普通人要研发机器狗从哪方面开始学习?
对于普通人想要研发机器狗,以下这些 AI 相关的基础知识是很有帮助的: 1. 了解 AI 的概念:AI 即人工智能,是让计算机模拟人类智能的技术。 2. 掌握机器学习:这是电脑找规律学习的方式,包括监督学习、无监督学习和强化学习。 监督学习:使用有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:处理没有标签的数据,让算法自主发现规律,例如聚类任务,像将一堆新闻文章按主题或内容特征分组。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:这是一种参照人脑构建神经网络和神经元的方法,由于有很多层所以称为深度。神经网络可用于监督学习、无监督学习和强化学习。 4. 熟悉生成式 AI:能够生成文本、图片、音频、视频等内容形式。 5. 了解 LLM(大语言模型):对于生成式 AI,生成图像的扩散模型不属于大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解,像上下文理解、情感分析、文本分类等,但不太擅长文本生成。 6. 关注技术里程碑:例如 2017 年 6 月谷歌团队发表的论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。 这些基础知识能为您研发机器狗提供理论支持和技术思路。
2025-02-26
普通人怎么研发制作机器狗?
普通人研发制作机器狗具有很大的挑战性,需要具备多方面的知识和技能。以下是一些关键的步骤和要点: 首先,要了解具身智能的概念。具身智能是将机器学习算法适配至物理实体,与物理世界交互的人工智能范式。人形机器人是具身智能的代表产品,而机器狗作为一种具身智能体,其研发涉及到“本体”(硬件载体)、“智能”(大模型、语音、图像、控制、导航等算法)、“环境”(本体所交互的物理世界)三要素的高度耦合。 不同的环境需要不同形态的硬件本体来适应。例如,崎岖不平的地面更适用四足机器人(机器狗)。在具身智能体与环境的交互中,智能算法可以通过本体的传感器感知环境,做出决策以操控本体执行动作任务,从而影响环境。 在研发过程中,还需要关注以下方面: 1. 感知决策行动反馈的四个模块,形成一个闭环,以实现机器狗的有效行动。 2. 模拟训练环境的运用,例如像 Jim 团队在模拟环境中训练机器狗,并通过特定的代理和技术,将其转移到现实世界中。 3. 脑电波控制技术,如 MIT 研究团队通过特殊眼镜读取脑电波和眼动来控制波士顿动力机器狗,这为控制方式提供了新的思路。 然而,对于普通人来说,要完成机器狗的研发制作,还需要足够开放的环境、大规模预训练数据和强大的基础模型,这是非常困难的。但如果您有强烈的兴趣和决心,可以通过学习相关的专业知识,逐步积累经验来尝试。
2025-02-26
用机器人一起直播会爆火吗
之前有过相关观点的文章《 。“人何以为人”是关注 AI 的教育届朋友们频频探讨的话题,今晚一起聊 AI 的教育创新,预计会碰撞出不少火花。但关于用机器人一起直播是否会爆火,目前无法给出确切的结论,其效果可能受到多种因素的影响,如直播内容的质量、机器人的表现、观众的兴趣和需求等。
2025-02-25
稍微技术点的科普书,机器学习一类的
以下为您推荐两本关于机器学习的科普书: 1. 《入门|机器学习研究者必知的八个神经网络架构》 神经网络是机器学习文献中的一类模型,受到生物神经网络的启发,目前深度神经网络效果很好,可应用于任何从输入到输出空间复杂映射的机器学习问题。 学习神经计算的三个理由:了解大脑工作原理、了解受神经元及其适应性连接启发的并行计算风格、使用受大脑启发的新颖学习算法解决实际问题。 一般来说,神经网络架构可分为三类:前馈神经网络(是实际应用中最常见的类型,若有多个隐藏层则称为“深度”神经网络)、循环网络(连接图中定向了循环,动态复杂,更具生物真实性)。 2. 《这是一份「不正经」的深度学习简述》 深度学习是使用不同类型神经网络的表征学习,通过优化网络的超参数来获得对数据的更好表征。 列举了几个经典案例,如反向传播(相关参考阅读:、A theoretical framework for BackPropagation——Yann Lecun:http://yann.lecun.com/exdb/publis/pdf/lecun88.pdf)、更好的初始化网络参数(初始化策略需根据所使用的激活函数选择)。
2025-02-25