直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

我想学comfy ui

回答

以下是一些关于学习 Comfy UI 的资源和信息:

  • ComfyUI 官方文档:提供了使用手册和安装指南,适合初学者和有经验的用户。可在ComfyUI 官方文档网站获取相关信息。
  • 优设网:有详细的 ComfyUI 入门教程,适合初学者,介绍了其特点、安装方法及生成图像等内容。教程地址是优设网的 ComfyUI 入门教程
  • 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户。可在知乎的 ComfyUI 介绍找到相关教程。
  • Bilibili:提供了从新手入门到精通各个阶段的一系列视频教程,可在Bilibili 的 ComfyUI 系列教程找到。

此外,还有以下相关内容:

  • 第 1 课:做最好懂的 Comfy UI 入门教程:Stable Diffusion 专业节点式界面新手教学。教学辅导书(含知识点扩充与分享链接):第 1 课:初始界面与基础操作。ComfyUI 整合包下载:官方 Release 页面:github.com/comfyanonymous/ComfyUI/releases ;分流度盘:pan.baidu.com/s/1d9XLF96OzWlLtUGvZiYdVA?pwd=nely ;分流 Quark:pan.quark.cn/s/ff8172bebe27(无提取码,请完整复制所有链接)。感谢@eSheep_电子羊对本期教程视频的大力支持!到 eSheep 电子羊 AIGC 社区,体验原汁原味的在线 ComfyUI:[https://www.esheep.com/?channel=zz&from=19],每日登录即可领取 100 羊毛,可支持免费生成 100 张图!
  • 学习使用 ComfyUI 的原因:更接近 SD 的底层工作原理;自动化工作流,符合 AI 精神,即消灭重复性工作;作为强大的可视化后端工具,可实现 SD 之外的功能,如调用 api 等,还可根据定制需求开发节点或模块。

内容由 AI 大模型生成,请仔细甄别。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

问: 有没有comfy ui相关的学习资料?

是的,根据搜索结果,有几个网站提供了关于ComfyUI的学习教程:1.ComfyUI官方文档:提供了ComfyUI的使用手册和安装指南,适合初学者和有经验的用户。你可以在[ComfyUI官方文档网站](https://www.comfyuidoc.com/zh/)找到相关信息。1.优设网:提供了一篇详细的ComfyUI入门教程,这篇教程适合初学者,详细介绍了ComfyUI的特点、安装方法以及如何使用ComfyUI生成图像等内容。教程地址是[优设网的ComfyUI入门教程](https://www.uisdc.com/comfyui-3)。1.知乎:有用户分享了ComfyUI的部署教程和使用说明,这篇介绍适合那些已经有一定基础并希望进一步了解ComfyUI的用户。可以在[知乎的ComfyUI介绍](https://zhuanlan.zhihu.com/p/662041596)找到相关教程。1.Bilibili:提供了一系列的ComfyUI视频教程,涵盖了从新手入门到精通的各个阶段。这些视频教程可以帮助用户更直观地学习ComfyUI的使用。可以在[Bilibili的ComfyUI系列教程](https://www.bilibili.com/video/BV14r4y1d7r8/)找到视频教程。这些资源为用户提供了丰富的学习材料,从基础操作到高级技巧,可以帮助用户更好地掌握ComfyUI的使用。内容由AI大模型生成,请仔细甄别。

第1课:做最好懂的Comfy UI入门教程:Stable Diffusion专业节点式界面新手教学

为什么说Comfy UI是你2024年必须掌握的一个新的生成式AI工具?这个系列,希望可以成为你看过最好懂的Comfy UI入门教程!📕教学辅导书(含知识点扩充与分享链接):[第1课:初始界面与基础操作](http://gf66fxi6ji.feishu.cn/wiki/UzFfwaOx3iY3ZAksErvcBbrpnPb)fyUI整合包下载:官方Release页面:github.com/comfyanonymous/ComfyUI/releases分流度盘:pan.baidu.com/s/1d9XLF96OzWlLtUGvZiYdVA?pwd=nely分流Quark:pan.quark.cn/s/ff8172bebe27(无提取码,请完整复制所有链接)感谢[@eSheep_电子羊](https://space.bilibili.com/1693856846)对本期教程视频的大力支持!🐏到eSheep电子羊AIGC社区,体验原汁原味的在线ComfyUI:[https://www.esheep.com/?channel=zz&from=19](https://www.esheep.com/?channel=zz&from=19)每日登录即可领取100羊毛,可支持免费生成100张图!ComfyUI是什么?你大概也听说过一些关于它的传说:——用它来出图更快、更流畅,但配置要求却反而更低?——只要“一键”就可以加载近乎无穷无尽的工作流,来实现包括人像生成背景替换图片转动画等在内的各种神奇功能?

ComfyUI自动生成抠图素材

我为什么学习使用ComfyUI:更接近SD的底层工作原理,在更靠近一朵鲜花的地方,才能闻到它的芳香自动化工作流(我也用webui,虽然很好,但我觉得ComfyUI更符合AI的精神,即消灭重复性工作)作为一个强大的可视化后端工具,可以实现SD之外的功能,如调用api及本文所讲的内容等可根据定制需求开发节点或模块

其他人在问
comfyui flux相关的教程
以下是关于 ComfyUI Flux 的教程: 安装及使用: 模型放置: t5xxl_fp16.safetensors:放在 ComfyUI/models/clip/目录下。 clip_l.safetensors:放在 ComfyUI/models/clip/目录下。 ae.safetensors:放在 ComfyUI/models/vae/目录下。 flux1dev.safetensors:放在 ComfyUI/models/unet/目录下。 下载地址: 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 工作流下载:上面提供的工作流复制即可,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,将工作流或图片拖拽到 ComfyUI 里。 ComfyUI 共学相关: 插画提效成果显著,原本需要 200 人美术团队一年多完成的 1 万多张动画插画,最终不到 10 人用半年完成。 课程从零基础开始,从认识 config、UI 及行业概念讲起,逐步深入到环境部署、底层技术概念、提示词等内容。 介绍 config 牛角尖大王系列,包括 control net、IP Adapter、图像放大、mask 等部分,阐述了它们的作用和玩法。 具备搭建复杂工作流能力,学习相关知识后初步具备搭建复杂工作流能力,会拆解分析网上热门工作流。 解决 config UI 报错问题,报错问题可分为网络、模型、工作流搭建、环境等方面,安装新插件时可参考项目地址的 requirement 文档。 规划实战案例思路,目前想到了三个实战案例的思路。 关于 config UI 生态及相关技术的分享,郭佑萌介绍课程提纲,包括课程可能的扩充、回顾总结及重点讲解 Flux 模型,实际课程不严格按大纲走,会根据大家接受程度和安排进行共学。
2024-09-16
在COMFYUI中使用FLUX大模型时,怎么才能让多次生成的人物一致
在 ComfyUI 中使用 FLUX 大模型让多次生成的人物一致的方法如下: 控制人物在多场景、多个姿势下的一致性有很多方法,课程后期会介绍。 对于多张图输出的显示问题,一次产出多张图在预览窗口目前不能并排显示。 Lora 的刷新:将 Lora 丢到文件夹后,多点几次刷新即可,Web UI 中 Lora 库有刷新按钮。 另外,在 Midjourney 中,人物一致性已上线,其操作如下: DavidH 介绍:Hey @everyone @here we're testing a new "Character Reference" feature today This is similar to the "Style Reference" feature, except instead of matching a reference style it tries to make the character match a "Character Reference" image. 具体操作:Type cref URL after your prompt with a URL to an image of a character. You can use cw to modify reference 'strength' from 100 to 0. strength 100 . 适用范围:This feature works best when using characters made from Midjourney images. It's not designed for real people / photos . 网页端操作:How does it work on the web alpha? Drag or paste an image into the imagine bar, it now has three icons. Selecting these sets whether it is an image prompt, a style reference, or a character reference. Shift + select an option to use an image for multiple categories. 在 ComfyUI 中处理模型连接和提示词相关问题,如让两个模型同时起作用的操作: 加入一个新节点,右键点击 【新建节点】 【实用工具】 【Primitive 元节点】。 在文本节点上单击右键,选择【转换文本为输入】,此时文本节点上就多了一个文本的连接点。 将元节点与文本节点相连接,元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。 再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。
2024-09-13
Way to AGI里所有COMFYUI工作流
以下是关于 ComfyUI 工作流的相关内容: 打开节点树的列表,可以看到文生图、图生图以及 ControlNet 等常见工作流。选择文生图,会有更细化的预设工作流选项,ControlNet 中也有工作流预设,还有根据插件整理的丰富工作流。例如可选择“文生图”中的“基础+自定 VAE”,选好后点击“替换节点树”,界面会出现已连接好的工作流节点,包括大模型、clip、vae、正反提示词、尺寸、采样器等熟悉的参数,且是中文面板。不了解操作的可参考上一篇【ComfyUI】本地部署 ComfyUI 上手指南。 国内的 ComfyUI 工作流网站有: eSheep 电子羊 AIGC 社区 https://www.esheep.com/app ,主页点击工作流/应用分区,即可浏览、下载或在线运行各类工作流。 AIGODLIKE https://www.aigodlike.com/ ,下拉选取“ComfyUI 奥术”,即可查看其他用户上传的 ComfyUI 生成图片,保存或复制参数皆可读取到图片中的工作流。 在完成准备工作后运行 ComfyUI,默认版本不支持模型版本和 node 管理,需安装 ComfyUI Manager 插件。工作流下载好后,可使用 ComfyUI 菜单的 load 功能加载,点击菜单栏「Queue Prompt」开始视频生成,通过工作流上的绿色框查看运行进度,最后在 ComfyUI 目录下的 output 文件夹查看生成好的视频。若生成视频时出现显存溢出问题,请另行处理。
2024-09-13
学习comfyui有哪些技术或者文章可以学习和参考?
以下是一些学习 ComfyUI 的技术、文章和资源: 飞书学习群中的相关内容: 陈旭常用节点讲解和简单的节点制作 长风归庭基础教程+工作流创建 ヘヘ阿甘采样器原理与优化 王蓉🍀 🎈 Wang Easy 基础搭建和转绘 唯有葵花向日晴基础教程,工作流开发,实际应用场景 热辣 HuolarrAI 系统课私聊图生视频 咖菲猫咪基础教程/工作流搭建思路/各版本模型使用的优缺点 傅小瑶 Lucky 如何制作多人转绘视频 云尚工作流节点搭建思路 FǎFá 热门节点功能,搭建 森林小羊基本报错解决方式及基础工作流逻辑分析 苏小蕊基础教程 Sophy 基础课程 蜂老六装一百个最新常用插件后如何快速解决冲突问题 阿苏工作流框架设计 aflyrt comfyui 节点设计与开发 老宋&SD 深度解释虚拟环境部署和缺失模型的安装 Liguo 模型训练 啊乐福基础课程 塵优秀案例 风信基础课程➕平面设计应用场景 北南基础课程 视频工作流框架设计 8 月 13 日 ComfyUI 共学的相关内容:算力和资源获取方面,飞翔提供了 50 个小时的算力时间,可在飞书群填问卷获取,分享模型较少可提建议,相关文档在飞书和公众号中。AI 绘图相关技术与工具的介绍及交流公众号文章包含 AGI 相关信息:通往 AGI 之路的公众号最新文章中有相关信息,内置工作流和启动器方便,Mac 系统因无 CUDA 生态不太好用。推荐提示词辅助插件:如 SDXL 的 S1XL style,可对提示词进行风格化扩充,还有能翻译提示词的插件,如沙拉查词、沉浸式翻译等。解释 CLIP 和 CFG 的区别:CLIP 用于解析提示词,将其转化为模型可理解的向量,CFG 是提示词对画面影响的强度,即提示词引导系数。搭建带 Lora 的图生图工作流:介绍了加载模型、设置 clip 跳过层、处理图像、连接采样器和解码器等步骤,并展示效果。关于 Lora 串联和图像放大模型的讨论 Lora 串联:多个 Lora 串联时左右顺序不影响结果,可复制并点对点连接。CLIP 层调整:CLIP 层1 和2 的效果不同,加 Lora 时某些 Lora 可能更适合2。 相关网站: ComfyUI 官方文档:提供了 ComfyUI 的使用手册和安装指南,适合初学者和有经验的用户。可在找到相关信息。 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是。 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可在找到相关教程。 Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可在找到视频教程。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-09-12
sd和comfy的详细学习教程推荐
以下是关于系统学习 SD 和 Comfy 的详细教程推荐: 学习 SD 提示词的步骤: 1. 学习基本概念:了解 Stable Diffusion 的工作原理和模型架构,理解提示词如何影响生成结果,掌握提示词的组成部分(主题词、修饰词、反面词等)。 2. 研究官方文档和教程:通读 Stable Diffusion 官方文档,研究来自开发团队和专家的教程和技巧分享。 3. 学习常见术语和范例:熟悉 UI、艺术、摄影等相关领域的专业术语和概念,研究优秀的图像标题和描述作为提示词范例。 4. 掌握关键技巧:学习如何组合多个词条来精确描述想要的效果,掌握使用“()”、“”等符号来控制生成权重的技巧,了解如何处理抽象概念、情感等无形事物的描述。 5. 实践和反馈:使用不同的提示词尝试生成各种风格和主题的图像,对比提示词和实际结果,分析原因,总结经验教训,在社区内分享结果,请教高手,获取反馈和建议。 6. 创建提示词库:根据主题、风格等维度,建立自己的高质量提示词库,将成功案例和总结记录在案,方便后续参考和复用。 7. 持续跟进前沿:关注 Stable Diffusion 的最新更新和社区分享,及时掌握提示词的新技术、新范式、新趋势。 相关入门教程链接: 1. 2. 3. 4. 5. 6. 7. 8. 9. 关于 Comfy 的学习,您可以参考以下知乎教程中的相关部分:,其中包含零基础使用 ComfyUI 搭建 Stable Diffusion 推理流程的内容。
2024-09-11
Flux 的lora模型训练教程,我想用用diffuser代码训练,而不是webui或comfyui
以下是关于 Flux 的 lora 模型训练的相关信息: Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main GGUF 配套节点插件:https://github.com/city96/ComfyUIGGUF 在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,但 NF4 的配套节点插件搜不到。 注意使用精度优化的低配模型时,工作流和原版不同。把官方的 fp8 工作流中底模的节点换成 NF4 或者 GUFF 即可。 相关生态发展迅速,有 Lora、Controlnet、IPadpter 相关生态建设,字节最近发布的 Flux Hyper lora 可用于 8 步快速生图。下节将先讲讲 Flux 的 lora 训练。
2024-09-05
有什么AI生成UI的产品吗
目前有以下一些 AI 生成 UI 的产品: 1. Artguru AI Art Generator:是一个在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:这是一款 AI 工具,可将图片转换为非凡肖像,有 500 多种风格供选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细且具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计的 AI 工具,能将上传的照片转换为芭比风格,效果出色。 此外,Midjourney 也可以生成 UI 界面。如果想指定生成某个页面(如首页、登录页等),只需添加页面指令描述,例如“landing page、Profile Page”。通过一系列操作发现,Midjourney 产出的设计图视觉效果不错,更适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但要让其产出的 UI 设计图直接落地开发,目前还有一定距离。 在 UI 层,SillyTavern、Agnaistic 和 KoboldAI 是受欢迎的选择。
2024-09-11
stable diffusion和comfly UI
Stable Diffusion 是一种图像生成模型,而 ComfyUI 是一个基于节点流程式的 Stable Diffusion AI 绘图工具 WebUI。 ComfyUI 具有以下特点和相关知识: 工作流定制:通过将 Stable Diffusion 的流程拆分成节点,实现更加精准的工作流定制和完善的可复现性。 核心组件: UNET:从噪音中生成图像的主要组件,在预测过程中通过反复调用,将其预测输出的 noise slice 从原有的噪声中去除,得到逐步去噪后的图像表示。Stable Diffusion Model 的 UNET 包含约 860M 的参数,以 float32 的精度编码大概需要 3.4G 的存储空间。 CLIP:将用户输入的 Prompt 文本转化成 text embedding,UNET 进行迭代降噪,在文本引导下进行多轮预测。 存放路径:ComfyUI 的 Checkpoint 存放路径为 models/checkpoints/,包括 SD 基础预训练模型,如 SD1.5、SDXL 以及 SD 微调模型。 模型实例:如【majicMIX realistic 麦橘写实 V7】by 麦橘 MERJIC sd1.5 微调、【LEOSAM HelloWorld 新世界】by LEOSAM 是只兔狲 SDXL 微调。 训练方法:如 DreamBooth,by Google。 格式:EMAonly & pruned 和 Full,EMAonly & pruned 只画图,Full 可画图和微调训练。 在与 Blender 结合方面: 安装:先安装稳定版 Blender(可从网盘下载或在 Steam 平台下载),然后安装无限圣杯的插件。进入“偏好设置”——插件——选择“安装”,找到“无限圣杯节点工具”里面的压缩包进行安装,安装好之后打上勾。接着更改 ComfyUI 路径为电脑中的地址,并选择适合自己的显存模式。安装完成后重启。 使用:打开软件,编辑器类型中出现“ComfyUI Node”,点击进入 ComfyUI 界面,先点击上方的“新建”按钮,然后展开右侧的 N 面板可以看到无限圣杯的界面。
2024-09-10
我想学习AI,可很难坚持,为什么呢
学习 AI 难以坚持可能有以下原因: 1. 缺乏能带来足够正反馈的高价值应用场景。例如学习 AI 绘画,在未找到合适应用场景时难以持续投入使用。 2. 学习本身具有反人性特点,通常只有功利导向的学习才会带来强烈的付费意愿。 3. “突破性新技术+垂直行业知识”的组合能为学习者带来更高投入产出比,但前提是要找到 AI 在该行业的高价值应用场景。比如在 AI 领域,让 AI 工程师懂行业、让行业专家懂 AI 能提高投入产出比,但要先找到高价值应用场景。 4. 如果所在行业的人不值钱,廉价劳动力好找且人远比 AI 便宜,或者这个领域的人足够“稳定”,办事效率和产出质量的优先级远不如其他,可能导致对学习 AI 无动于衷。 如果要让人主动学习 AI,亲测有效的方式是让其看到 AI 能多快多好地完成手头的活儿。
2024-09-17
我想学习AI,x上哪些博主值得我关注
以下是一些值得您关注的 AI 领域博主: 只剩一瓶辣椒酱:b 站大 up 主,SD 的 ComfyUI 推广者,比现在的 webUI 更稳定,辣椒制作了 ComfyUI 的多语言翻译插件,实现了常驻菜单栏/搜索栏/右键上下文菜单/节点等的翻译 SD,blender 教程炉火纯青。相关链接: 歸藏:产品设计师、AI 画图工具操作员、AI 课程撰写与信息收集整理者,致力于发掘借助 AI 工具改善设计与产品开发流程的各种可能性。相关链接: 莱森:B站喂饭 up 主,制作 Midjourney 注册教程教学(保姆级全系列课程合集)。相关链接: 墨幽:大模型制作者,墨幽人造人。相关链接: Nenly:B站喂饭 up 主,SD 入门到入神。相关链接: 此外,为您推荐以下 AI 学习资源: 陆奇:未来,唯一有价值的是你有多大见解
2024-09-11
我想学习一下,如何在CHATGPT上创建一个智能体,具体流程
在 ChatGPT 上创建智能体的流程如下: 1. 思考您想要创建的智能体类型以及是否需要外部数据,这两个步骤的先后顺序不重要。 2. 寻找所需的外部数据的 API 文档,或者基于需求自行开发 API,也可以寻找市面上可直接使用的 Action 。 3. 基于 API 文档,编写 Action 里的 Schema 和 Prompt(即如何处理取回来的信息)。 具体操作步骤: 1. 点击“浏览 GPTs”按钮。 2. 点击“Create”按钮创建自己的智能体。 3. 使用自然语言对话或手工设置进行具体设置。 4. 开始调试智能体并发布。
2024-09-10
我想学习ai运用,我该从哪入手
如果您想学习 AI 运用,可以从以下几个方面入手: 1. 从编程语言入手学习:例如 Python、JavaScript 等,掌握编程语法、数据结构、算法等基础知识,为后续的 AI 学习奠定基础。 2. 尝试使用 AI 工具和平台:如 ChatGPT、Midjourney 等体验 AI 的应用场景,也可以探索面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识:了解 AI 的基本概念、发展历程、主要技术(如机器学习、深度学习等),以及 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目:参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动,尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态:关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展,思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 需要注意的是,在学习新技能时,尤其是在初始阶段,应尽量避免过度依赖 AI。比如在学习写作时,应先掌握写作的基本要素,形成自己的创作风格和思路,再合理利用 AI 辅助优化。
2024-09-07
我想学习如何写promt
以下是关于如何写 prompt 的一些指导: 写 prompt 是决定 AI 模型理解和生成文本的关键步骤。一个好的 prompt 能帮助模型更好地理解任务要求并生成符合预期的文本。 编写 prompt 的建议: 1. 明确任务:清晰定义任务,如写故事时包含背景、角色和主要情节。 2. 提供上下文:若任务需特定背景知识,在 prompt 中提供足够信息。 3. 使用清晰语言:尽量用简单、清晰的语言描述,避免模糊或歧义词汇。 4. 给出具体要求:如有特定格式或风格要求,在 prompt 中明确指出。 5. 使用示例:若有特定期望结果,在 prompt 中提供示例。 6. 保持简洁:避免过多信息,以免模型困惑。 7. 使用关键词和标签:帮助模型理解任务主题和类型。 此外,使用 GPT 模仿创作内容时,写出好的 prompt 卡点在于用方法论教 GPT 创作,即“know how”。比如让 GPT 创作视频标题时,不能简单写“帮我写爆款视频的标题”,而要提供创作标题的方法论和技巧,如修辞手法、写作人称、语言风格、内容结构等。可以通过找对标账号的标题拆解、模仿来获取这些方法论和技巧。 如果之前没写过结构化的 prompt,推荐打开云中江树老师的 LangGPT 项目学习:https://github.com/yzfly/LangGPT/blob/main/README_zh.md 。最快的方法是改写大佬写好的 prompt,例如 JK 老师的欢乐多朋友圈段子生产 V0.3 。
2024-09-04
我想学习AI,并用其赚钱
学习 AI 有可能赚钱,但不能保证每个人都能成功。在人工智能领域,存在许多高薪工作,如数据科学家、机器学习工程师等,掌握 AI 技术可在这些岗位获得不错收入,且 AI 技术在金融、医疗、制造业等行业均有应用,能增加就业机会和职业发展可能。然而,能否赚钱取决于多种因素,包括个人学习能力、实际应用能力、对市场和商业的理解等。仅仅学会基础知识可能难以在竞争中脱颖而出,需要持续学习与实践。 另外,对于 GPTs/GLMs 能否赚钱的问题,答案是能,但大多数人不能。以一个 AI 产品经理的角色复盘 2023 年的所见所闻所感,从“钱”这个最俗气的角度来聊 AI 赚钱(应用落地)这件事。目前最大的第三方 GPTs 商店 BeBeGPTs 收录了 10W+的 GPTs 数据(官方 300W+),即使存在数据收集的局限,结果仍有一定参考价值。
2024-09-04