直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

sd采样器推荐

回答

在稳定扩散(Stable Diffusion)模型中,采样器扮演着重要的角色,它决定了生成图像的质量和多样性。以下是一些常用和推荐的采样器:

  1. DDIM (Denoising Diffusion Implicit Models)

    • 这是稳定扩散模型默认使用的采样器
    • 能生成较高质量和细节的图像
    • 但计算开销较大,生成速度较慢
  2. PLMS (Playlist Mask Sampling)

    • 一种新型的采样器,相比DDIM,计算效率更高
    • 能生成清晰细节的图像,同时保持良好的多样性
    • 常用于一些需要较高采样步数的任务,如超分辨率
  3. Euler a

    • 一种较为经典的采样器
    • 计算开销小,生成速度快
    • 但图像质量相对稍差,细节较少
  4. Euler 附属扩散

    • 在 Euler 采样器的基础上进行改进
    • 能生成更好的质量和细节,同时保持较快的速度
  5. DPM 采样器 (Denoising Diffusion Probabilistic Models)

    • 一种质量和样本多样性之间权衡较好的采样器
    • 在采样步数较大时,生成质量可与DDIM媲美
  6. DPM++

    • 对DPM采样器的改进版
    • 进一步提升了生成质量和效率

除了上述采样器,还有一些新兴或实验性的采样器,如DDPM(Denoising Diffusion Probabilistic Models)、PNDM(Preconditioned Novel Denoising Methods)等。

不同的采样器在生成质量、速度、样本多样性等方面有不同的取舍。选择合适的采样器需要根据具体任务需求,在质量、速度和多样性之间进行权衡。同时,不同采样器的参数设置也会影响最终效果,需要进行调试和优化。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

其他人在问
自定义采样器(高级) Expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu!(when checking argument for argument mat2 in method wrapper_CUDA_mm)
以下是关于“自定义采样器(高级)”中“Expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu!(when checking argument for argument mat2 in method wrapper\_CUDA\_mm)”错误的解决办法: 错误原因:Expected all tensors to be on the same device,but found at least two devices,cuda:0 and cpu! 对应插件地址:https://github.com/sipie800/ComfyUIPuLIDFluxEnhanced 资料链接: 百度网盘:通过网盘分享的文件:ComfyUI_PuLID_Flux_ll 链接:https://pan.baidu.com/s/1dMLAb4s0vroO9Zk6ecKb7Q?pwd=cycy 提取码:cycy 来自百度网盘超级会员 v5 的分享 说明文档:https://www.xiaobot.net/post/b98d55699a754b9baac242a3e285be94 由于 AI 技术更新迭代,请以文档更新为准 更多内容收录在:https://xiaobot.net/p/GoToComfyUI 网盘:https://pan.quark.cn/s/129886bbcc61 相关链接: ComfyUI_PuLID_Flux_ll :https://github.com/lldacing/ComfyUI_PuLID_Flux_ll?tab=readmeovfile guozinan/PuLID 模型:https://huggingface.co/guozinan/PuLID/tree/main
2025-02-03
K采样器报错
在 ComfyUI 中处理 K 采样器报错问题,您可以参考以下步骤: 1. 首先,在“K 采样器”处点击“右键”“新建节点”“采样器”,选择“K 采样器(高级)”。因为 SDXL 需要用到 base 和 refiner 两套模型,所以要将模型节点和采样器节点分别复制一份。 2. 为第一个 base 模型的采样器设置参数:添加噪波为 enable,确保打开以添加噪声;步数设置为 30,即迭代的总步数;结束降噪步数设为 20,表示前面 20 步将采用 base 模型进行运算;返回噪波设为 enable,以便将剩下的噪声传递给下一个 refiner 模型。 3. 将这个 base 的采样器传递到下一个 refiner 的采样器,并设置参数:添加噪波为 disable,因为是继承上一个采样器,所以不需要再添加噪声;运行后操作为 fixed,相当于锁定随机种子;步数同样设为 30;开始降噪步数设为 20;结束降噪步数设为 30,也可保持默认;返回噪波设为 disable,到这一步已结束。
2025-02-02
在comfyui中执行k值采样器报错是什么原因 ror occurred when executing KSamplerAdvanced:
在 ComfyUI 中执行 K 值采样器报错,可能由多种原因导致。但仅根据您提供的“”内容,难以确切判断具体原因。常见的可能因素包括: 1. 模型配置问题:模型的参数设置不正确,或者与 K 值采样器的要求不匹配。 2. 输入数据格式错误:输入给采样器的数据格式不符合要求,例如数据类型、维度等。 3. 软件版本不兼容:ComfyUI 本身的版本与 K 值采样器存在兼容性问题。 4. 计算资源不足:系统的内存、GPU 等计算资源不足以支持 K 值采样器的运行。 要准确诊断问题,还需要更多的错误提示信息、相关配置和操作的详细描述。
2024-08-14
在comfyui中执行k值采样器报错是什么原因
在 ComfyUI 中执行 K 值采样器报错可能有多种原因。以下是一些常见的情况及相关设置步骤: 1. 首先,在“K 采样器”处,可通过点击“右键”“新建节点”“采样器”,选择“K 采样器(高级)”,其会有更多调整参数。 2. 对于 SDXL,由于需要用到 base 和 refiner 两套模型,所以要将模型节点和采样器节点分别复制一份。 对于第一个 base 模型的采样器,参数设置如下: 添加噪波:enable,确保打开以添加噪声。 步数:30,即迭代的总步数。 结束降噪步数:20,代表前面 20 步采用 base 模型进行运算。 返回噪波:enable,以便将剩下的噪声传递给下一个 refiner 模型。 3. 建立第一个工作流时,可按以下步骤操作: 清空所有节点,从零开始。先加载一个模型选择器的节点,右键点击空白处,选择【add node】——【loaders】——【load checkpoint】,生成节点后可选择安装好的大模型,且后面有三个连接点可指向下一个模块。 按住 clip 后面的点进行拖拽,点击【CLIPTextEncode】,得到提示词输入框。同理可再加一个提示词框,形成正向和负向提示架构。 为方便管理,可添加组,将相关节点放在组里一起移动。 从提示词节点后面再次拉出一根线,选择【KSampler】,其中有熟悉的参数如种子数、迭代步数、CFG、采样器等。 最后,设置输出图片尺寸,从【latent image】中拉出一个节点,选择【EmptyLatentImage】。 如果您能提供更具体的报错信息,将更有助于准确判断报错原因。
2024-08-14
sd教程
以下是关于 SD 的一些教程: 用 SD 做二维码: 好看的二维码欣赏:第一个就是 qrbtf。 最近新出了融合二维码教程。 方法原文地址:https://stablediffusionart.com/qrcode/ 相关帖子展示了使用 Stable Diffusion 创建的艺术二维码,是使用定制训练的 ControlNet 模型生成的,人们也想出了在无自定义模型情况下制作 QR 码的方法。 用 SD 做中文文字(持续更新中): 制作思路: 将中文字做成白底黑字,存成图片样式。 使用文生图的方式,使用大模型真实系,作者用的 realisticVisionV20_v20.safetensorsControlNet 预设置。 输入关键词,如奶油的英文单词,Cream+Cake(加强质感),反关键词:Easynegative(负能量),反复刷机,得到满意的效果即可。 同理可输出 C4D 模型,可自由贴图材质效果,3d,blender,oc rendering。 如果希望有景深效果,也可以打开 depth(增加阴影和质感)。 打开高清修复,分辨率联系 1024 以上,步数:2960。 参考视频教程:【“牛逼”的教程来了!一次学会 AI 二维码+艺术字+光影光效+创意 Logo 生成,绝对是 B 站最详细的 Stable Diffusion 特效设计流程教学!AI 绘画进阶应用哔哩哔哩】https://b23.tv/c33gTIQ SD 的各种实践教程: 线稿上色 Midjourney+Stable Diffusion:https://waytoagi.feishu.cn/wiki/AsbYwmfS6ikhr3kNsCocdPMEnUd 猫咪狗狗 lora:https://waytoagi.feishu.cn/wiki/JiQewVbOHi7tzakS23ecprxsnfg 字体设计机甲战士:https://waytoagi.feishu.cn/wiki/GUQ3w52elisr9ukIgkBc42UmnWd 做盲盒平面变 3D:https://waytoagi.feishu.cn/wiki/SCK8wV4PTiHQVKkvGRUcx0fcnTe MJ 出图 SD 放大:https://waytoagi.feishu.cn/wiki/E88nwOtk9ilRQskg3Qlc6ZHpnTf 七夕字体和图:https://waytoagi.feishu.cn/wiki/BjQ1wLRv0ivCLtk136VchSCqnpU 可爱毛粘字体:https://waytoagi.feishu.cn/wiki/NjhbwF1cTiQ5Xjkd3tNc1OWynZd
2025-04-08
绘画工具sd怎么使用?
以下是关于绘画工具 SD 的使用方法: 1. 生成超大图像: 若想用 SD 绘制超高分辨率图片(如 10000x768 的清明上河图),直接调分辨率不可行,会爆显存,正常尺寸设置最高到 2048。 先在 PS 中设置所需大尺寸画布,保存为 jpg 图片。 将图片放入 ControlNet 中,点击右下角箭头,将图片尺寸信息发送到生成设置。 填入正反向提示词,启用 Tiled Diffusion 插件,其中方案选择 Mixture of Diffusers,可防止接缝产生。 2. 提示词标签选择: 按顺序选择标签词,如女孩、白头发、蓝眼睛等。 选择画质和视角,如最好的质量、杰作、从人物角度往下看等。 选择艺术风格,如皮克斯动画、轮廓光。 填写负面提示词,点击选框结尾的“负面”。 模型选择“revAnimated”,调整尺寸后点击生图。 3. 真人转二次元及图生图: 使用【X/Y/Z plot】脚本做参数对比,设置 X 轴为提示词相关性(取值范围 130,每次增加 5),Y 轴为重绘幅度(取值范围 01,每次增加 0.2)。 提示词相关性在 6—11 中间为最佳,重绘幅度大小可控制生成图与原图相似度。 可使用绘图功能增加或修改元素,如增加红色眼镜、去掉衣服图案、更换头部或修改帽子部分等。
2025-04-01
comfyui 与 SD 功能上有啥区别
ComfyUI 与 SD 在功能上主要有以下区别: 1. 工作原理:ComfyUI 更接近 SD 的底层工作原理。 2. 自动化工作流:ComfyUI 具有更出色的自动化工作流,能够消灭重复性工作。 3. 后端工具:ComfyUI 作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 API 等。 4. 定制开发:可根据定制需求开发节点或模块。 5. 应用场景:例如在抠图素材方面,ComfyUI 能根据需求自动生成定制的抠图素材。 6. 与其他软件的结合:如与 Blender 整合,从工作流程上天然适配。 7. 工作流搭建:ComfyUI 以连线方式搭建工作流,可通过改变节点实现不同功能,具有更高的自由和拓展性,能根据自身需求搭建和改造工作流。
2025-03-28
我是一名电商设计师,现在想学习SD AI绘图,有一点基础,但学习课程资源有限,请你帮我制定一份详细的学习计划,并提供一些学习资源。
以下是为您制定的学习 SD AI 绘图的详细计划及相关学习资源: 学习计划: 1. 首先,深入学习 Stable Diffusion 的核心基础原理,包括模型工作流程、核心基础原理、训练全过程以及其他主流生成式模型介绍。 2. 接着,掌握 Stable Diffusion 的核心网络结构,如 SD 模型整体架构、VAE 模型、UNet 模型、CLIP Text Encoder 模型等。 3. 学习从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画的不同方式,如使用 ComfyUI、SD.Next、Stable Diffusion WebUI、diffusers 搭建推理流程,并查看生成示例。 4. 了解 Stable Diffusion 的经典应用场景,如文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建等。 5. 最后,尝试从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型,包括配置训练环境与训练文件,以及基于 Stable Diffusion 训练 LoRA 模型。 学习资源: 1. 教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识 知乎。 目录涵盖了 Stable Diffusion 系列的各个方面,包括核心基础知识、网络结构解析、搭建推理流程、应用场景和模型训练等。 2. SD 模型权重百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 模型,即可获得资源链接,包含多种模型权重。 3. SD 保姆级训练资源百度云网盘: 关注 Rocky 的公众号 WeThinkIn,后台回复:SDTrain,即可获得资源链接,包含数据处理、模型微调训练以及基于 SD 的 LoRA 模型训练代码全套资源。 4. Stable Diffusion 中 VAE,UNet 和 CLIP 三大模型的可视化网络结构图下载: 关注 Rocky 的公众号 WeThinkIn,后台回复:SD 网络结构,即可获得网络结构图资源链接。
2025-03-28
SD如何部署
SD 的部署方式如下: 1. 本地部署(Win 系统): 系统要求:Win10 或 Win11。 查看配置: 查看电脑系统:在桌面上找到“我的电脑”,鼠标右键点击,点击“属性”,查看 Windows 规格。 查看电脑配置:需要满足 3 个要求(推荐),电脑运行内存 8GB 以上,是英伟达(NVIDA)的显卡,显卡内存 4GB 以上。打开任务管理器(同时按下 ctrl+shift+esc),可查看电脑运行内存,8GB 运行内存可以勉强运行 SD,推荐 16GB 以上运行内存;查看电脑显卡内存(显存),4GB 显存可运行 SD,推荐 8GB 以上显存。 配置达标跳转至对应安装教程页:。 一键式安装: 电脑配置能支持 SD 运行的朋友们,可使用 B 站秋叶分享的整合包。 具体安装方法: 打开链接 https://pan.baidu.com/s/1hY8CKbYRAj9RrFGmswdNiA?pwd=caru ,下载《1.整合包安装》,存放到电脑本地。 打开保存到电脑里的文件夹。 打开文件夹《1.秋叶整合包主包》,鼠标右击文件,点击“解压文件”。 选择解压到 D 盘或者 E 盘,小心 C 盘被占满,点击确定。 解压完成后,来到第二个文件夹,双击里面的文件,点击安装。 打开刚刚解压保存的 SD 的根目录,找到启动器,鼠标右击启动器,点击“发送到”,桌面快捷方式。 双击启动器,等待更新,接着点击左边第二个“高级选项”,在显存优化里,根据自己电脑的显存选择(就是上面查看的专用 GPU 内存),自己电脑是多少就选多少。 回到第一个一键启动,点击右下角的一键启动。出现代码页面不用管,等一下就行了,SD 的主界面会自动在网页上弹出来。如果出现报错,可以回到最开始的界面,在左边点击“疑难解答”,再点击右边的“开始扫描”,最后点击“修复”按钮。 2. 云端部署: 部署流程: 安装和配置基础环境:浏览器上按照腾讯云>控制台>云服务器的路径找到你刚才购买的实例,点击启动,就会新开一个远程访问的窗口,输入你购买时设置的密码,进入,这样你就有了一个远程的 Windows 系统环境,接下来安装显卡驱动、配置环境变量即可。 安装显卡驱动:用内置的 IE(也可下载 Chrome),打开英伟达的网站,找到驱动下载,选择购买机器时选定的显卡型号、Windows 版本号,下载对应的驱动,然后安装上。 配置环境变量:驱动安全完成后,开始配置环境变量。首先先找到你安装后驱动所在的目录,如果没有特殊设定的话,一般是在「C:\\Program Files\\NCIDIA Corporation」这里,复制这个路径,找到环境变量配置入口(控制面板>系统和安全>系统),选择「高级系统设置」,弹窗设置环境变量,找到「系统变量」里的 Path 环境变量,点击「编辑...」,然后「新建」,帮刚才复制的 nvidia 驱动安装地址粘贴进去,保存即可。 备选:SD 好难,先试试简单的无界 AI:
2025-03-25
sd 换脸
以下是关于 SD 换脸插件 Roop 的详细步骤: 1. 勾选包含 Python 和 C++包等相关项目,更改安装位置后点击右下角安装。安装时间较长,需耐心等待。 2. 安装好后,打开 SD 文件目录下的相关文件夹,在地址栏输入“cmd”并回车,在打开的 dos 界面粘贴“python m pip install insightface==0.7.3 user”代码,自动安装 insightface。若此阶段出错,建议下载最新的秋叶 4.2 整合包(6 月 23 号更新),在云盘后台回复【SD】可下载。 3. 安装完成后,重新打开启动器,后台会继续下载一些模型,全程要保证科学上网。 4. 选用真实系模型“realisticVisionV20”,关键词描述相关内容生成照片。 5. 启用 ROOP 插件,选择要替换的人物照片,面部修复选择“GFPGAN”,根据需求设置右边的参数数值和放大算法,点击生成。 6. 若生成的人脸像素偏低、模糊,可将图发送到“图生图”,开较小的重绘幅度,然后使用 controlnet 中的 tile 模型进行重绘。 此插件主要适用于真实人脸替换,对二次元人物作用不大。在使用时要谨慎,切勿触犯法律。若想要此插件,可添加公众号【白马与少年】,回复【SD】即可。推荐使用最新的秋叶整合包,出错概率最小,且科学上网很重要。
2025-03-19
trae 推荐安装那个版本的 vscode插件
在 Trae 中安装 VS Code 插件可以通过以下方式: 1. 从 Trae 的插件市场安装: 在左侧导航栏中,点击插件市场图标,界面左侧显示插件市场面板。 搜索您想要的插件并在未安装列表中将其选中,界面上显示该插件的详情窗口,展示该插件的详细说明、变更日志等信息。 点击安装,Trae 开始安装该插件。安装完成后,该插件会出现在已安装列表中。 2. 从 VS Code 的插件市场安装: 前往。 搜索您想要的插件,例如:Pylance。 在搜索结果中,点击您所需的插件,您会前往该插件的详情页。 在详情页中,点击 Version History。 结合插件页的 URL 和 Version History 中的信息,提取出以下信息(以 Pylance 为例): itemName:URL Query 中的 itemName 字段,如截图中的 mspython.vscodepylance,并将小数点(.)前后的内容分成以下两个字段: fieldA:mspython fieldB:vscodepylance version:如截图中的 2025.1.102 使用提取出来的 3 个字段的值替换下方 URL 中的同名字段。 在浏览器中输入修改后的 URL,然后按下回车键,浏览器开始下载该插件。 下载完成后,返回 Trae 并打开插件市场。 将下载的.vsix 文件拖拽至插件市场面板中,Trae 开始自动安装该插件。安装完成后,该插件会出现在已安装列表中。 此外,如果 VS Code 插件市场中某个版本的插件依赖了新版 VS Code 中的某些接口,则可能会导致该插件与 Trae 不兼容。您可以查看该插件的 Version History,然后下载该插件的历史版本。 管理插件还包括禁用插件和卸载插件: 1. 禁用插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需禁用的插件。 鼠标悬浮至列表中的插件,然后点击设置>禁用。或点击该插件以打开其详情窗口,然后点击禁用。 2. 卸载插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需卸载的插件。 鼠标悬浮至该插件,然后点击卸载。或点击该插件以打开其详情窗口,然后点击卸载。
2025-04-19
我想找一个好用的ai绘画,有什么推荐吗
以下是为您推荐的一些好用的 AI 绘画平台: 1. Midjourney:综合体验较好,尤其是其 v6 版本。 2. 可灵 AI:成熟的综合类工具。 3. 即梦 AI:成熟的综合类工具。 4. Krea:集成平台。 5. MewXAI:操作简单,功能丰富,包括 MX 绘画、MX Cute、MJ 绘画、边缘检测、室内设计、姿态检测、AI 艺术二维码、AI 艺术字等。访问地址:https://www.mewxai.cn/
2025-04-15
推荐一些 AI 工具
以下是为您推荐的一些 AI 工具: 辅助编程的 AI 工具: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议。 2. 通义灵码:阿里巴巴团队推出,提供多种编程相关能力。 3. CodeWhisperer:亚马逊 AWS 团队推出,由机器学习技术驱动,为开发人员实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数的预训练大模型。 5. Cody:Sourcegraph 推出的 AI 代码编写助手,借助强大的代码语义索引和分析能力了解开发者的整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的免费 AI 代码助手。 7. Codeium:由 AI 驱动的编程助手工具,提高编程效率和准确性。 更多辅助编程 AI 产品,还可以查看这里:https://www.waytoagi.com/category/65 。每个工具的功能和适用场景可能不同,您可根据需求选择。 内容仿写的 AI 工具: 1. 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,还能实时同步翻译,支持全文改写等功能,并智能分析文章属性。 2. 笔灵 AI 写作:https://ibiling.cn/ ,是得力的智能写作助手,支持多种写作类型的一键改写/续写/扩写等。 3. 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发的创作助手,提升写作者的写作效率和创作体验。 更多 AI 写作类工具可以查看这里:https://www.waytoagi.com/sites/category/2 。内容由 AI 大模型生成,请仔细甄别。 与思维导图相关的 AI 工具: 1. GitMind:免费跨平台,可通过 AI 自动生成思维导图,支持多种模式。 2. ProcessOn:国内思维导图+AIGC 的工具,能利用 AI 生成思维导图。 3. AmyMind:轻量级在线,无需注册登录,支持自动生成节点。 4. Xmind Copilot:Xmind 推出的基于 GPT 的 AI 思维导图助手,可一键拓展思路,生成文章大纲。 5. TreeMind:“AI 人工智能”思维导图工具,可输入需求由 AI 自动完成思维导图生成。 6. EdrawMind:提供一系列 AI 工具,包括 AI 驱动的头脑风暴功能。 这些 AI 思维导图工具都能通过 AI 技术自动生成思维导图,提高制作效率,为知识工作者带来便利。内容由 AI 大模型生成,请仔细甄别。
2025-04-14
想要学习AIGC,推荐下相关的行业大V
以下是一些 AIGC 相关的行业大 V 推荐: :归臧整理的 AIGC 周刊,关注 AI 的朋友每周必读。 :连续创业者,Prompt 版块共建者。 。 :“互联网的那点事”,微博互联网观察家。 ZHO:建筑师|ComfyUI 设计师。 :AIGC 社区野神殿创始人。 。 赛博禅心:最新最快的 AI 资讯,作者大聪明。 张蔚:华兴资本经理,架构和投资版块共建者。 :热爱分享,永远好奇,AI 高质量社群组织者。 汗青:产品经理|AI 设计师。 此外,还有北京分队中的一些相关人士: Lucky:在信息技术领域公司任职 7 年+,目前担任江西 5 家公司企业级 information security 管理,3 个地区千万级企业级 confidentiality Project 管理,5 个地区上海、合肥、苏州、南京、深圳 information security 体系建设管理顾问,目前一只 20 人+AI 项目团队,终身学习践行者。能提供 AI 相关技术的所有项目,包括 AI 图片视频、2D 动画视频、AI prompt、AI 提示词企业培训、AI 大模型、AI agent、数字人等产品。坐标南昌。 粉仔:目前抖音上的 AIGC 相关博主,粉丝画像特别受到中老年妇女们的喜爱,俨然成了她们的偶像。熟悉目前主流的 AIGC 工具。坐标北京。 sam:做技术行业,热爱互联网和 AI 技术。 海地老师:AI 影视共创社北京分社的负责人。逍遥游的制片人和编剧。 Sunkim:自由体验设计师,前保利威设计负责人,先后在新浪、百度、脉脉做体验设计工作。对 AIGC 感兴趣,目前在做 AI 口语教育类产品(上线了),和 web3 相关设计,以及跟大伙学习 AI 视频制作。 胡凯翔:国企工作 10 余年,后沉迷 AI 提示词研究编写,小七姐第一期课程毕业生,微软、讯飞认证提示词工程师,曾担任破局俱乐部企业培训和 AI+教育行动营教练,共创有约 10 万字 AI+教育手册,使用 AI 辅助阅读和开智,标书、论文的写作,玄学取名和头像设计,目前沉迷个人知识体系的搭建和离谱村系列视频的共创。 陈皓/Robin:目前在家科技公司从事产品工作,主要和 Ai,3D 视觉内容+数字人相关;有过知识付费和海外教育的创业经历。
2025-04-14
图生图网站排名推荐
以下是为您推荐的图生图网站排名: 1. 文生图: Imagen 3:真实感满分,指令遵从强。 Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 快手可图:影视场景能用,风格化较差。 Flux.1.1:真实感强,需要搭配 Lora 使用。 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 Luma:影视感强,但风格单一,糊。 美图奇想 5.0:AI 油腻感重。 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 SD 3.5 Large:崩。 2. 图生视频: pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型还是很能打的,很适合做一些二次元动漫特效,理解能力更强,更适合连续运镜。 luma 1.6:画面质量挺好,但是太贵了。 可灵 1.6 高品质:YYDS! 海螺01live:文生视频比图生视频更有创意,图生也还可以,但是有时候大幅度动作下手部会出现模糊的情况,整体素质不错,就是太贵了。 runway:我的快乐老家,画面质量不算差,适合做一些超现实主义的特效、经特殊就容镜头的。 智谱 2.0:做的一些画面特效挺出圈的,适合整过,但是整体镜头素质还差点,好处就是便宜,量大,管饱,还能给视频加音效。 vidu1.5:二维平面动画的快乐老家,适合做特效类镜头,单镜头也很惊艳,大范围运镜首尾帧 yyds!就是太贵了!!!!! seaweed 2.0 pro:s2.0 适合动态相对小的,更适合环绕旋转运镜动作小的。 pixverse v3 高品质:pincerse 的首尾帧还是非常能打的,就是画面美学风格还有待提升的空间。 sora:不好用,文生视频挺强的,但是最需要的图生视频抽象镜头太多,半成品都算不上,避雷避雷避雷,浪费时间。 3. 小白也能使用的国内外 AI 生图网站: 可灵可图 1.5:https://app.klingai.com/cn/texttoimage/new 通义万相(每日有免费额度):https://tongyi.aliyun.com/wanxiang/creation 文心一言:https://yiyan.baidu.com/ 星流(每日有免费额度):https://www.xingliu.art/ Libiblib(每日有免费额度但等待较久):https://www.liblib.art/
2025-04-13
现在比较好用的AI硬件工具推荐一下,比如鼠标,眼镜,耳机啥的
以下是为您推荐的一些 AI 硬件工具: 1. 对于将 Raspberry Pi 连接到其他设备的配件,您可以参考: 防止过热的散热器 MicroUSB 转 USB 适配器,用于 Logitech 键盘的无线传感器 用于显示器的 MiniHDMI 转 HDMI 适配器 键盘和鼠标:推荐 2. 在可穿戴方面,以 GenAI 硬件为例,Meta 雷朋眼镜是具有代表性的产品。您还可以查看 GenAI 硬件榜单获取更多信息,比如: ,该榜单包含多个分类,数据来源包括 google、tiktok、twitter、亚马逊等。
2025-04-13