直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

stable diffusion需要的电脑配置

回答

为了顺利安装和使用 Stable Diffusion(简称“SD”),您需要先查看自己的电脑配置,注意以下两点:

  1. 电脑系统:应为 Win10 或者 Win11,避免使用更低版本的系统。查看方法为在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。
  2. 电脑性能:
    • 电脑运行内存应在 8GB 以上。检查方法为:鼠标右击桌面底部任务栏,点击“任务管理器”,在“性能”里面找到“内存”,只要看图中划线的那一个参数即可。8GB 勉强达到标准,16GB 可以正常使用,32GB 则能非常自由地使用 SD。
    • 应是英伟达(俗称 N 卡)的显卡,显卡内存在 4GB 以上。检查方法为:在“任务管理器”中查看“GPU”,GPU 即显卡。

另外,带动 SD 推荐的电脑配置为:电脑运行内存 16GB 以上,英伟达显卡,显卡内存 8GB 以上。同时打开任务管理器的方式为同时按下 ctrl+shift+esc。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

教程:超详细的Stable Diffusion教程

为了大家能够更加顺利的安装和使用Stable Diffusion(简称“SD”)在正式安装之前希望大家先一起查看一下自己的电脑配置,需要注意的是以下两点:01.电脑系统是Win10或者Win11为了避免一些奇怪的兼容性问题,不要选择更低版本的系统。查看电脑系统的方法:在桌面上找到“我的电脑”——鼠标右键点击——点击“属性”——查看Windows规格02.检查电脑性能这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求:电脑运行内存8GB以上是英伟达(俗称N卡)的显卡显卡内存4GB以上检查方法:①鼠标右击桌面底部任务栏——点击“任务管理器”②查看电脑的运行内存在“性能”里面找到“内存”,这里的内存不是电脑的存储内存,而是运行内存噢!只要看图中划线的那一个参数就可以8GB:那就说明你的电脑配置内存是勉强达到标准的16GB:那就说明你的内存配置可以正常使用32GB:那么你就可以非常自由的使用SD啦!③查看“GPU”GPU就是显卡的意思首先先看右上角显卡的名字或者型号

0. SD的安装

这里是检查自己的电脑配置能不能带动SD(Stable Diffusion)需要满足3个要求(推荐):电脑运行内存8GB以上是英伟达(NVIDA)的显卡显卡内存4GB以上①打开任务管理器:同时按下ctrl+shift+esc②查看电脑运行内存8GB运行内存可以勉强运行SD推荐16GB以上运行内存③查看电脑显卡内存(显存)4GB显存可运行SD,推荐8GB以上显存

【SD】抽卡必备!时间管理大师Agent Scheduler

Stable Diffusion是一个抽卡游戏,氪金大佬往往都拥有比较高端的电脑配置,十连抽、二十连抽什么的都不在话下,抽中心仪的SSR角色的成功率自然也要大得多。说到抽卡,那肯定要用不同的模型、参数、提示词来做测试,不然一个不好的指令,你就是抽一千张也未必出得了一张好图。我们以往做测试呢,大家一定用到的都是“X/Y/Z plot”脚本,可以在不同的参数之间做横向对比,很直观。但是呢,大家想象一下这样一个使用场景:我有4到5个不同的模型要进行测试,然后每一个里面角色的提示词也不同,还要使用不同的controlnet来控制,参数也要有相应的变化。这么复杂的测试,你告诉我,用脚本怎么来完成?如果自己手动一张一张的测,又要做到何年何月?连罗志祥来了都要愁到头秃。当然,我们有办法!今天要介绍的这款插件,就是一位SD中的时间管理大师,能够将我们的测试任务安排得井井有条,它就是——Agent Scheduler安装方式就是在扩展面板中搜索“Agent Scheduler”,或者是点击“从网址安装”,然后输入以下地址https://github.com/ArtVentureX/sd-webui-agent-scheduler,可以直接安装。安装之后重启,我们首先就可以看见“生成”下面,多了一个“排队”的按钮。

其他人在问
AI视频需要什么 电脑配置
制作 AI 视频通常需要以下方面的准备和配置: 1. 内容准备: 准备一段视频中播放的文字内容,例如产品介绍、课程讲解、游戏攻略等。可以自行创作,也可以利用 AI 生成。 2. 视频制作工具: 可以使用剪映 App 对视频进行简单处理,电脑端打开剪映 App 点击“开始创作”,选择顶部工具栏中的“文本”,并点击默认文本右下角的“+”号为视频添加文字内容轨道。 3. AI 换脸方面: 有多个 AI 产品可实现换脸效果,如开源免费的 facefusion。 本机解决方案需要 Python 环境、安装视频解码器等多个依赖软件,对 GPU 依赖较大,本地计算机若无 GPU 或 GPU 显存较小,执行速度缓慢,不推荐本地化安装。 云服务解决方案可利用云厂商如阿里云的 PAI 和 AutoDL 提供的大模型运行环境和计算能力,但会产生一定费用。例如选择 AutoDL,在算力市场中选取能接受价格且 GPU 配置更高的算力设备,并通过模型镜像启动 GPU 服务器。
2024-09-24
使用开源大模型本地化部署使用电脑配置,推荐几款笔记本电脑
以下是关于使用开源大模型本地化部署所需电脑配置及笔记本电脑推荐的相关信息: 运行大模型需要较高的机器配置,个人玩家大多负担不起。以下是不同类型大模型的配置要求: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 对于本地化部署,不建议使用最低配置,因为速度会非常慢。例如,用 8G 的 Mac 电脑尝试过,效果不佳。 由于本地化部署对电脑配置要求较高,不太推荐本地化安装实现。如果想使用开源大模型,可选择利用云厂商已提供好的大模型运行环境和计算能力,比如阿里云的 PAI 和 AutoDL。 在笔记本电脑选择方面,建议选择具备以下配置的机型: 1. 内存:16GB 及以上的 RAM。 2. 显卡:具有 8GB 及以上 VRAM 的独立显卡。 但具体的笔记本电脑型号还需根据您的预算和其他需求来确定。
2024-09-12
安装 SD 电脑配置
安装Stable Diffusion对电脑配置有一定的要求,主要是为了确保能够顺利运行AI绘画模型并生成高质量的图像。以下是安装Stable Diffusion所需的基本电脑配置要求: 1. 显卡:需要使用NVIDIA显卡,因为Stable Diffusion主要依赖CUDA进行GPU加速。推荐的显卡配置从NVIDIA GeForce GTX 1070起,或NVIDIA Quadro P4000起。 2. 显存:最低配置需要4GB显存,基本配置6GB显存,推荐配置12GB显存或者以上。显存越大,可设置的图片分辨率越高,且能处理更复杂的图像生成任务。 3. 操作系统:需要是Windows 10或Windows 11。对于Mac用户,虽然可以使用CPU进行渲染,但速度会比较慢,因此推荐使用配备NVIDIA显卡的Windows电脑。 4. 硬盘空间:建议有60GB以上的硬盘空间,因为Stable Diffusion的模型文件通常较大,且批量生成图像会占用较多存储空间。 5. 内存:虽然没有具体要求,但为了保证运行流畅,建议有8GB以上的内存。 6. Python环境:Stable Diffusion是基于Python搭建的,因此需要在电脑上安装Python环境。建议安装3.10.6版本,这是Stable Diffusion WebUI作者推荐安装的版本。 7. Git:用于从GitHub上安装和更新Stable Diffusion及其插件。 8. Docker:如果选择使用Docker部署Stable Diffusion,需要在系统上安装Docker Desktop。 请注意,具体的配置要求可能会根据Stable Diffusion的版本和使用的具体功能有所不同。如果使用云端服务或在线工具,对本地电脑配置的要求会降低,因为大部分计算会在云端完成。
2024-05-01
Mac部署stable diffusion
在 Mac 上部署 Stable Diffusion 存在一定限制,功能可能不全且出错率偏高,严重影响使用体验。个人建议升级设备或者采用云服务器玩耍。 如果您仍想在 Mac 上部署,可以参考以下步骤: 1. 电脑硬件要求: 系统:无明确针对 Mac 的特定系统要求。 显卡:未明确针对 Mac 的显卡要求。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 2. 环境安装: 未提供 Mac 系统下的具体环境安装步骤。 由于 Mac 系统的特殊性,更推荐您采用云端部署的方式,相关教程可参考:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd
2024-11-06
stablediffusion在线webui如何开发
开发 Stable Diffusion 在线 Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。尝试生成图像,观察不同参数对结果的影响。学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。学习如何导入自定义模型、VAE、embedding 等文件。掌握图像管理、任务管理等技巧,提高工作效率。 在完成了依赖库和 repositories 插件的安装后,还需要进行以下配置: 将 Stable Diffusion 模型放到/stablediffusionwebui/models/Stablediffusion/路径下。然后到/stablediffusionwebui/路径下,运行 launch.py 即可。运行完成后,将命令行中出现的输入到本地网页中,即可打开 Stable Diffusion WebUI 可视化界面。进入界面后,在红色框中选择 SD 模型,在黄色框中输入 Prompt 和负向提示词,在绿色框中设置生成的图像分辨率(推荐设置成 768x768),然后点击 Generate 按钮进行 AI 绘画。生成的图像会展示在界面右下角,并保存到/stablediffusionwebui/outputs/txt2imgimages/路径下。 如果选用 Stable Diffusion 作为 AIGC 后台,需要注意: DallE 缺乏室内设计能力,MidJourney 出图效果好但无法基于现实环境重绘,Stable Diffusion 出图成功率较低,但可调用 controlnet 的 MLSD 插件捕捉现实环境线条特征做二次设计。安装 Stable Diffusion WEB UI 后,修改 webuiuser.bat 文件加上 listen 和 API 参数,让 Stable Diffusion 处于网络服务状态。代码如下: @echo off set PYTHON= set GIT= set VENV_DIR= set COMMANDLINE_ARGS=xformers nohalfvae listen api git pull call webui.bat 让 Stable Diffusion 具有 AI 室内设计能力的步骤: 1. 下载室内设计模型(checkpoint 类型),放到 stable diffusion 目录/models/stablediffusion 下面。 2. 安装 controlnet 插件,使用 MLSD 插件,实现空间学习。 通过 API 方式让前端连接到 Stable Diffusion 后台的具体代码在前端开发详细展开,API 参考文档可选读。
2024-11-01
Stable diffusion提示词生成器
以下是关于 Stable diffusion 提示词生成器的相关内容: 1. 描述逻辑:通常包括人物及主体特征(如服饰、发型发色、五官、表情、动作),场景特征(如室内室外、大场景、小细节),环境光照(如白天黑夜、特定时段、光、天空),画幅视角(如距离、人物比例、观察视角、镜头类型),画质(如高画质、高分辨率),画风(如插画、二次元、写实)。通过这些详细的提示词,能更精确地控制绘图。 2. 辅助网站: http://www.atoolbox.net/ ,可通过选项卡方式快速填写关键词信息。 https://ai.dawnmark.cn/ ,每种参数有缩略图参考,方便直观选择提示词。 还可以去 C 站(https://civitai.com/)抄作业,复制每一张图的详细参数粘贴到正向提示词栏,点击生成按钮下的第一个按键,Stable Diffusion 会自动匹配所有参数,但要注意图像作者使用的大模型和 LORA,否则即使参数相同,生成的图也可能不同。也可以选取其中较好的描述词,如人物描写、背景描述、小元素或画面质感等。 3. 充当有艺术气息的 Stable Diffusion prompt 助理:根据给定的主题想象完整画面,转化为详细、高质量的 prompt,包含“Prompt:”和“Negative Prompt:”两部分,用英文半角“,”分隔,negative prompt 描述不想在生成图像中出现的内容。 4. 插件“Easy Prompt Selector”:安装方式是在扩展面板中点击“从网址安装”,输入 https://github.com/bluepen5805/sdwebeasypromptselector 直接安装,将汉化包复制进“……\\sdwebuiakiv4\\extensions”路径文件夹下覆盖,重启 webUI 后,在生成按钮下会多出“提示词”按钮,点击会出现下拉列表,包含很多分类,如点击“人物”会出现常用标签,选择后自动加入正向提示词。
2024-10-31
Stable Diffusion
稳定扩散(Stable Diffusion)的运作原理如下: 消除图像中的噪点:如果拍照太暗会产生噪点,而 Stable Diffusion 用于生成艺术作品时会在幕后“清理”图像。它比手机图像编辑器中的噪点消除滑块复杂得多,它了解世界的样子和书面语言,并以此指导噪点消除过程。例如,给它一幅以 H.R. Giger 风格描绘的外星人弹吉他的画,它能像熟练的平面艺术家一样进行清理。 推理步骤:稳定扩散是逐步去除噪点的,有“推理步骤”滑块。例如一个运行 25 步的例子,外星吉他手的例子更能清晰展示其效果。 开始方式:为了生成艺术,给 Stable Diffusion 提供的初始图像实际上只是纯噪点,并告知它这是一幅特定风格的画。在最简单层面,它作为计算机程序会执行任务。更深层次,它基于统计数据,估计所有选项的概率,即使概率都极低,也会选择概率最高的路径,例如寻找噪点中最可能像吉他边缘的部分来填充物体。每次给它不同的纯噪点图像,都会创作出不同的艺术作品。 此外,UNET 是从噪音中生成图像的主要组件,在预测过程中,通过反复调用 UNET,将其预测输出的 noise slice 从原有的噪声中去除,得到逐步去噪后的图像表示。Stable Diffusion Model 的 UNET 包含约 860M 的参数,以 float32 的精度编码大概需要 3.4G 的存储空间。 ComfyUI 中的相关内容: CLIP 将用户输入的 Prompt 文本转化成 text embedding,UNET 进行迭代降噪,在文本引导下进行多轮预测。 稳定扩散最初称为潜在扩散模型,解决了传统扩散模型在处理大尺寸图像和大量扩散步骤时计算效率的问题。 Checkpoint 的 ComfyUI 存放路径:models/checkpoints/,包括 SD 基础预训练模型(如 SD1.5、SDXL)、SD 微调模型等。训练方法有 DreamBooth 等,格式有 EMAonly & pruned(只画图)和 Full(画图和微调训练)。
2024-10-29
本站的stable diffusion在哪个分类
Stable Diffusion(简称 SD)属于图片美术类的 AIGC 项目。它是由初创公司 StabilityAI、CompVis 与 Runway 合作开发,2022 年发布的深度学习文本到图像生成模型。其代码模型权重已公开发布,可在多数配备适度 GPU 的电脑硬件上运行,当前版本为 2.1 稳定版(2022.12.7)。源代码库为 github.com/StabilityAI/stablediffusion 。 在分类上,它可以归为 AIGC 常见名词解释中的图片美术类。同时,关于 Stable Diffusion 有很多详细的教程,比如在知乎上有深入浅出完整解析其核心基础知识的内容,包括系列资源、核心基础原理、核心网络结构解析、搭建使用模型进行 AI 绘画、经典应用场景、训练自己的 AI 绘画模型等方面。
2024-10-26
ai视频有没有免费的模型用,就像chatgpt的免费版,stable diffusion也不收钱
在 AI 视频领域,Stability.AI 仍将免费提供其主要检查点作为核心业务宗旨(愿景是开源)。例如,Stability AI 推出了 Stable Diffusion 1.6 的图像模型。 此外,在自然语言模型中,OpenAI 以 GPT3/3.5 和 ChatGPT 占据主导地位,但目前基于 OpenAI 构建的杀手级应用相对较少,且其 API 定价已下调过一次。不过 OpenAI 曾因服务压力太大暂停过 Chat GPT plus 的购买。 同时,还有其他相关动态,如微软发布了 Bing 品牌升级,Bing Chat 和 Bing Chat Enterprise 将成为 Copilot;Fable 发布了利用 LCM 实时生成图片的功能;英伟达发布了 Nemotron3 8B 的 LLM 以及 NVIDIA NeMo 端到端框架;Midjourney 动漫微调模型 Nijijourney 跟进了模型微调;Google 在多个国家推出了面向青少年的 Google Bard;Airbnb 收购了一家名为 Gameplanner AI 的人工智能初创公司。
2024-10-25
我需要一个AI将我的多份文献阅读笔记整合为一份。
以下是为您提供的将多份文献阅读笔记整合为一份的相关信息和思路: 在 AI 与生活场景结合的案例中,ChatGPT 可以帮助人们在健康方面发挥作用,如马多克斯先生利用它制定锻炼计划,森博斯基女士让其规划无麸质饮食,还有应对注意力缺陷多动障碍(ADHD)和阅读障碍等。 另外,关于打造专属 AI 智能体来实现文献阅读笔记的整合,一泽 Eze 提出的方案思路如下: 1. 简化“收集”:实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作,输入 URL 即可完成收集,借鉴微信文件传输助手的方式通过聊天窗口输入更符合用户习惯。 2. 自动化“整理入库”:系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态,且阅读清单支持跨平台查看。 3. 智能“选择”推荐:根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成合适的阅读计划。 通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出,由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理数据,理论上无需开发插件、APP 就能实现跨平台的收集与智能阅读计划推荐。
2024-11-07
我需要一个能写生成文生视频prompt的机器人,这个机器人只负责生产宠物做饭视频的文字prompt,请学习文生视频prompt写作技巧,并给我写一个这样的机器人
以下是关于文生视频 prompt 写作技巧及为您生成的一个宠物做饭视频的文字 prompt 示例: 文生视频 prompt 写作技巧: 1. 明确视觉样式:要具体描述视频的视觉基调和风格,比如是想要现实的、电影的、动画的还是超现实的。对美学的描述越具体,生成的效果就越接近期望。 2. 考虑视觉风格创意:如电影感要注重戏剧性照明、镜头光晕和高对比度;逼真风格要追求自然光、清晰细节和逼真角色;动画风格可使用卡通、3D 动画或 2D 动画等术语;艺术风格可用印象派、极简主义或抽象等形容词来指导艺术方向。 宠物做饭视频的文字 prompt 示例:“创建一个 2D 动画、色彩鲜艳的视频,一只可爱的猫咪在厨房里熟练地烹饪美味的鱼餐,画面具有温馨的灯光和可爱的卡通风格。”
2024-11-06
如果想学习ai,作为ai产品经理,需要ai底层的算法掌握到什么程度
作为 AI 产品经理,对 AI 底层算法的掌握程度需要达到以下几个方面: 1. 理解产品核心技术:了解基本的机器学习算法原理,以便做出更合理的产品决策。 2. 与技术团队有效沟通:掌握一定的算法知识,减少信息不对称带来的误解。 3. 评估技术可行性:在产品规划阶段,能够准确判断某些功能的技术可行性。 4. 把握产品发展方向:了解算法前沿,更好地把握产品未来的发展趋势。 5. 提升产品竞争力:发现产品的独特优势,提出创新的产品特性。 6. 数据分析能力:掌握相关算法知识,提升数据分析能力。 同时,如果希望在 AI 领域继续精进,还需要了解以下基础内容: AI 背景知识: 基础理论:清楚人工智能、机器学习、深度学习的定义及其之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等基本概念。 概率论:掌握基础的概率论知识,如条件概率、贝叶斯定理。 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:了解其基本概念。 评估和调优: 性能评估:知道如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学会使用网格搜索等技术优化模型参数。 神经网络基础: 网络结构:理解包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)等的基本结构。 激活函数:熟悉常用的激活函数,如 ReLU、Sigmoid、Tanh。
2024-11-05
利用ai工具对视频进行解说,需要什么工具
利用 AI 工具对视频进行解说,您可以考虑以下工具和流程: 1. 分析视频内容:使用 AI 工具(如 ChatGPT)对视频内容进行分析,提取关键信息。 2. 生成角色与场景描述:借助工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将解说文本转换为语音,并添加背景音乐和音效。 4. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将生成的音频与视频进行合成。 5. 拆解视频:可以使用 Gemini 1.5 Pro 对视频进行分析和拆解。 6. 制作 AI 短片:如使用 Pika、Pixverse、Runway、SVD 等工具来生成视频内容。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2024-11-02
介绍一下视觉算法产品,以及该方向产品经理需要做的内容,以及面试可能会考察的知识点
目前知识库中暂时没有关于视觉算法产品、该方向产品经理工作内容以及面试考察知识点的相关信息。但一般来说,视觉算法产品是利用计算机视觉技术来实现特定功能的产品,例如图像识别、目标检测、视频分析等。 视觉算法产品经理需要做的工作内容可能包括: 1. 市场调研与需求分析:了解市场需求、竞争对手情况,挖掘潜在的用户需求。 2. 产品规划与定义:明确产品的目标、功能、性能指标等。 3. 算法选型与整合:根据需求选择合适的视觉算法,并进行整合和优化。 4. 项目管理与推进:协调开发团队、测试团队等,确保项目按时交付。 5. 与客户沟通:收集反馈,优化产品。 在面试视觉算法产品经理时,可能会考察以下知识点: 1. 计算机视觉基础知识,如常见的算法和模型。 2. 对相关行业和市场的了解。 3. 产品管理的方法和流程。 4. 项目管理经验和能力。 5. 沟通协调和团队合作能力。
2024-11-01
请总结本知识库,并提炼出11节面向十岁儿童关于AIGC的课程,三节是提示词工程,2节文生文,2节文生图/图生图,2节文生音频,2节文生视频/图生视频,不需要涉及智能体及文生代码
以下是对本知识库的总结: 包含了不同时间段的 AIGC 周刊内容,如 Open AI 发布 ChatGPT 的 iOS 应用、Google 宣布多项 AI 新功能、AI 歌手相关教程等。 有关于提示词工程的课程及相关技巧介绍。 涉及一些特定的 AIGC 技术和方法,如 Donut 文档理解方法。 提到了谷歌的生成式 AI 学习课程。 以下是为十岁儿童设计的 11 节关于 AIGC 的课程: 1. 提示词工程基础 什么是提示词 提示词的作用 简单的提示词示例 2. 提示词工程进阶 复杂提示词的构建 如何优化提示词 提示词的实际应用 3. 提示词工程实践 设计自己的提示词任务 分享与讨论提示词成果 总结提示词的使用技巧 4. 文生文入门 了解文生文的概念 简单的文生文工具介绍 尝试生成一段文字 5. 文生文提高 优化文生文的输入 让生成的文字更有趣 比较不同文生文的效果 6. 文生图/图生图基础 认识文生图和图生图 常见的文生图工具 用简单描述生成一张图片 7. 文生图/图生图进阶 更复杂的描述生成精美图片 对生成的图片进行修改 分享自己生成的图片 8. 文生音频入门 什么是文生音频 简单的文生音频工具 生成一段简单的音频 9. 文生音频提高 让生成的音频更动听 给音频添加特效 欣赏优秀的文生音频作品 10. 文生视频/图生视频基础 文生视频和图生视频的概念 基本的文生视频工具 制作一个简单的视频 11. 文生视频/图生视频进阶 让视频更精彩 视频的后期处理 展示自己制作的视频
2024-10-31