Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

flux怎么提升生图速度需要哪些依赖

Answer

要提升 Flux 的生图速度,以下是一些相关的依赖和要点:

  1. 条件引导:在去噪过程中,模型使用编码后的文本向量来引导图像生成,确保生成的图像与输入的文本描述相符。
  2. 采样器:ComfyUI 提供了多种采样算法(如 Euler、DDIM、DPM++等)来控制去噪过程,不同的采样器可能会影响生成速度和结果。
  3. Vae 编码:VAE 由编码器和解码器组成。编码器输入图像并输出表示其特征的概率分布,解码器将概率分布映射回图像空间。
  4. 结果输出:ComfyUI 最终将生成的图像显示在界面上,用户可进行保存、编辑或用于其他目的。
  5. 额外控制:ComfyUI 支持多种高级功能,如图像到图像、Lora、ControlNet、ipadapter 等。
  6. 低配置方案:对于显存不够 16G 的情况,开源社区有优化方案。如 NF4 来自 controlnet 的作者,GGUF 包含多个版本。NF4 模型可从 https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensors 下载,放置在 ComfyUI/models/checkpoint/中,其配套节点插件可通过 git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git 获取。GGUF 模型可从 https://huggingface.co/city96/FLUX.1-dev-gguf/tree/main 下载,配套节点插件为 https://github.com/city96/ComfyUI-GGUF 。在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,NF4 的配套节点插件则搜不到。使用精度优化的低配模型时,工作流和原版不同。相关生态发展迅速,有 Lora、Controlnet、IP-adpter 等,字节最近发布的 Flux Hyper lora 可实现 8 步快速生图。
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI的生图原理 副本

在去噪过程中,模型使用编码后的文本向量来引导图像生成。这确保了生成的图像与输入的文本描述相符。[heading1]五、采样器[content]ComfyUI提供了多种采样算法(如Euler,DDIM,DPM++等)来控制去噪过程。不同的采样器可能会产生略微不同的结果或影响生成速度。[heading1]六、Vae编码[content]VAE是一种基于概率生成模型的框架,它由编码器(Encoder)和解码器(Decoder)组成。(1)编码器:编码器的任务是输入一幅图像,输出一个表示该图像特征的概率分布。这个概率分布通常是一个高斯分布,其均值和方差分别表示图像的特征。(2)解码器:解码器的任务是将编码器输出的概率分布映射回图像空间。它接收一个随机采样的噪声向量(来自编码器输出的概率分布),通过一系列的卷积层和非线性激活函数,生成与输入图像相似的图像。[heading1]七、结果输出[content]最终,ComfyUI将生成的图像显示在界面上,用户可以保存、进一步编辑或用于其他目的。[heading1]八、额外控制[content]ComfyUI支持多种高级功能,如:图像到图像:使用现有图像作为起点进行生成。Lora:使用额外的小型模型来调整风格或内容。ControlNet:允许用用额外的图像来精确控制生成过程。ipadapter:使用参考图像进行风格迁移生成。放大和后处理:改善生成图像的质量和分辨率。

工具教程:Flux

开源社区迅速展开了对低配置方案的优化,NF4来自我们controlnet的作者,GGUF则包含多个版本可以使用[heading4]NF4模型下载[content]https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensors放置在ComfyUI/models/checkpoint/中(不像其他Flux模型那样放置在UNET中)NF4配套节点插件git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git[heading4]GGUF模型下载[content]Flux GGUF模型:https://huggingface.co/city96/FLUX.1-dev-gguf/tree/mainGGUF配套节点插件GGUF节点包:https://github.com/city96/ComfyUI-GGUF以下是使用GGUF生图:值得一提的是在最新版本的comfyUI中GGUF的节点插件是可以在Manager管理器中搜到下载安装的,NF4的配套节点插件则搜不到。注意使用精度优化的低配模型的话,工作流和原版是不一样的。此处没有专门列举。[workflow.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/NUMabE5CcoxYVTxoSQAcpCslnWd?allow_redirect=1)自己改的话就是把上面官方的这个fp8的工作流,只需把底模的节点换成NF4的或者GUFF的即可。相关生态发展很快,有Lora、Controlnet、IP-adpter相关生态建设非常速度,以及字节最近发布的Flux Hyper lora是为了8步快速生图。下节我们先讲讲Flux的lora训练。

工具教程:Flux

开源社区迅速展开了对低配置方案的优化,NF4来自我们controlnet的作者,GGUF则包含多个版本可以使用[heading4]NF4模型下载[content]https://huggingface.co/lllyasviel/flux1-dev-bnb-nf4/blob/main/flux1-dev-bnb-nf4.safetensors放置在ComfyUI/models/checkpoint/中(不像其他Flux模型那样放置在UNET中)NF4配套节点插件git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git[heading4]GGUF模型下载[content]Flux GGUF模型:https://huggingface.co/city96/FLUX.1-dev-gguf/tree/mainGGUF配套节点插件GGUF节点包:https://github.com/city96/ComfyUI-GGUF以下是使用GGUF生图:值得一提的是在最新版本的comfyUI中GGUF的节点插件是可以在Manager管理器中搜到下载安装的,NF4的配套节点插件则搜不到。注意使用精度优化的低配模型的话,工作流和原版是不一样的。此处没有专门列举。[workflow.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/NUMabE5CcoxYVTxoSQAcpCslnWd?allow_redirect=1)自己改的话就是把上面官方的这个fp8的工作流,只需把底模的节点换成NF4的或者GUFF的即可。相关生态发展很快,有Lora、Controlnet、IP-adpter相关生态建设非常速度,以及字节最近发布的Flux Hyper lora是为了8步快速生图。下节我们先讲讲Flux的lora训练。

Others are asking
flux ae.sft放在哪个文件夹
在 ComfyUI 中,flux ae.sft 应放在 ComfyUI/models/vae/ 文件夹下。 Flux 模型在 ComfyUI 中的使用,需要将相关模型放在对应的目录下。具体来说,t5xxl_fp16.safetensors 放在 ComfyUI/models/clip/ 目录下,clip_l.safetensors 放在 ComfyUI/models/clip/ 目录下,ae.safetensors 放在 ComfyUI/models/vae/ 目录下,flux1dev.safetensors 放在 ComfyUI/models/unet/ 目录下。flux1dev.safetensors 是底模,ae.safetensors 是 VAE,clip_l.safetensors 和 t5xxl_fp16.safetensors 是关于文字语言编码。
2025-03-07
ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUI-aki(1)\ComfyUI-aki-v1.6\ComfyUI\models\checkpoints\flux1-dev-fp8.safetensors
很抱歉,根据您提供的错误信息“ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUIaki\ComfyUIakiv1.6\ComfyUI\models\checkpoints\flux1devfp8.safetensors”,暂时无法明确具体的问题原因。可能是模型文件格式不被识别,或者文件路径存在错误等。建议您检查文件的完整性和正确性,确保其符合相关软件的要求。
2025-03-07
midjourney_whisper_flux_lora_v01
以下是关于您提到的“midjourney_whisper_flux_lora_v01”的相关信息: 1. XLabsAI 发布了 6 个不同的 Lora,包括 Midjourney 风格、写实风格、动漫风格、迪斯尼风格、风景风格等,并提供了相应示例。 2. 文生图模型排序(从高到低):Imagen 3 真实感满分,指令遵从强;Recraft 真实感强,风格泛化很好,指令遵从较好(会受风格影响);Midjourney 风格化强,艺术感在线,但会失真,指令遵从较差;快手可图 影视场景能用,风格化较差;Flux.1.1 真实感强,需要搭配 Lora 使用;文生图大模型 V2.1L(美感版) 影视感强,但会有点油腻,细节不够,容易糊脸;Luma 影视感强,但风格单一,糊;美图奇想 5.0 AI 油腻感重;腾讯混元 AI 油腻感重,影视感弱,空间结构不准;SD 3.5 Large 崩。 3. 指定 AI 生图里的文字,有 9 种解决方案,其中 2 种快过时了。包括 Midjourney(v6 版本开始支持文字效果,主要支持英文,中文支持有限)、Ideogram(以图片嵌入文字能力闻名,2.0 模型能力得到进一步加强,支持复杂文本和多种艺术风格,文字与图像能够自然融合,支持英文,中文提示词可自动翻译为英文)、Recraft(V3 开始支持文本渲染能力,是目前唯一能在图像中生成长文本的模型,支持精确的文本位置控制,支持图像编辑功能,支持矢量图生成,支持英文,中文渲染能力较弱)、Flux(FLUX.1 是一款高质量的开源图像生成模型,支持复杂指令,支持文本渲染,支持图像编辑,生成图像的质量很高,主要支持英文)。
2025-03-07
flux 训练lora 教程
以下是关于 Flux 训练 Lora 的教程: 1. 准备模型:需要下载以下几个模型:t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。注意:不使用的话它们放到哪里都可以,甚至放一起一个文件夹,只要知道“路径”,后面要引用到“路径”。因为是训练,不是跑图,训练的话,模型就用 flux1dev.safetensors 这个版本,编码器也用 t5xxl_fp16.safetensors 这个版本最好。 2. 下载脚本: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 3. 安装虚拟环境:下载完解压,在文件中找到 installcnqinglong.ps1 这个文件,右键选择“使用 PowerShell 运行”,新手的话这里就点击“Y”,然后等待 1 2 小时的漫长下载过程,下好了之后最后会提示是否下载 hunyuan 模型,选择 n 不用下载。 4. 0 基础训练大模型: 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 步骤一·创建数据集:在数据集一栏中,点击右上角创建数据集,输入数据集名称。zip 文件可以是包含图片 + 标签 txt,也可以只有图片没有打标文件(之后可以在 c 站使用它的自动打标功能),也可以一张一张单独上传照片,但建议提前把图片和标签打包成 zip 上传。Zip 文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后就会上传成功,可以点击详情检查,可以预览到数据集的图片以及对应的标签。 步骤二·Lora 训练:点击 Flux,基础模型会默认是 FLUX 1.0D 版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集,触发词可有可无,取决于数据集是否有触发词,模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认 20 重复次数和 10 轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后就可以等待训练了,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 5. ControlNet 作者张吕敏再出新项目 LuminaBrush:基于数据集在 Flux 上训练 LoRA,并用 LoRA 生成的图像来扩展这个图像数据集。使用均匀光照图像作为中间表示具有一些优势,比如避免来自 3D 反照率的过于锐利的网格边界或过于平坦的表面。而这些图像在细节层面也足够细腻,可以处理皮肤纹理、头发、毛发等细节。接下来,通过合成随机法线,将这些均匀光照图像进行随机再光照,以训练一个可以从任何输入图像中提取均匀光照外观的模型。第一阶段的这个模型目前也提供了在线 demo:https://huggingface.co/spaces/lllyasviel/lumina_brush_uniform_lit 。第二阶段,会从数百万张高质量的自然场景图像中提取均匀光照外观图像,以构建成对数据集,用于训练最终的交互式光照绘制模型。
2025-03-04
comfyui flux 模特换衣服 的新手 教程
以下是关于 ComfyUI Flux 模特换衣服的新手教程: 工作流整体思路: 1. 生成适合服装的模特: 可以抽卡,抽到满意的模特。加入 Redux 模型,强度不用太高,让提示词生效,Reduxprompt 节点风格细节等级需注意(1=27×27 最强,14=1×1 最弱)。 2. 进行高精度的换装: 先进行预处理的工作,拼出来 mask。 重绘 mask 区域。 工作流解释: 1. 模特生成: 先生成与衣服匹配的模特,先不关注衣服的相似度,抽出满意的模特。 2. 服装高精度处理: mask 的处理:做两个工作,将模特身上的衣服分割出来,拼接出来对应模特与衣服合并后图片的遮罩。 提示词格式与 Redux 权重:使用 Flux 的 fill 模型,提示词书写格式为这是一组图片,左边是衣服,右边的模特穿着左边的衣服。Redux 这里,把权重的调整为最大。 【SD】商业换装教程: 1. 在扩展面板中使用网址安装 Segment Anything,guthub 地址:https://github.com/continuerevolution/sdwebuisegmentanything 。重启之后安装 SAM 模型。 2. 在 github 上有三个 SAM 模型,由大到小分别是 vit_h,可根据情况选择,大部分选 vit_l 。将下载好的 SAM 模型放在指定路径。 3. 测试 SAM 模型效果,左键点击要保留的部分打上黑点,右键点击不要的部分打上红点,双击不需要的点可移除。 4. 预览分离结果,选择合适的蒙版进行服装替换等操作。 点开“展开蒙版设置”,设定蒙版扩展量,建议 30,然后点击发送到“重绘蒙版”。 5. 换衣步骤:在图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 6. 若出现衔接问题,可通过降低重绘幅度或添加 openpose 控制人物身体姿势。还可使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,自行试验选择效果好的。
2025-03-04
flux模型放在那个文件夹
FLUX 模型的放置位置如下: FLUX.1等版本的模型应放在 ComfyUI/models/unet/文件夹中。如果爆显存了,“UNET 加载器”节点中的 weight_dtype 可以控制模型中权重使用的数据类型,设置为 fp8 可降低显存使用量,但可能会稍降质量,默认的 weight_type 显存使用较大。 t5xxl_fp16.safetensors 和 clip_l.safetensors 应放在 ComfyUI/models/clip/文件夹里面。可以使用 t5xxl_fp8_e4m3fn.safetensors 来降低内存使用率,若有超过 32GB 内存,建议使用 fp16。 下载的 Vae 模型应放入 ComfyUI/models/vae 文件夹。 同时,以下模型也有对应的放置位置: flux1dev.safetensors 放在 ComfyUI/models/unet/目录下。 t5xxl_fp16.safetensors 和 clip_l.safetensors 放在 ComfyUI/models/clip/目录下。 ae.safetensors 放在 ComfyUI/models/vae/目录下。 flux1dev.safetensors 是底模,ae.safetensors 是 VAE,clip_l.safetensors 和 t5xxl_fp16.safetensors 是关于文字语言编码。
2025-03-03
文生图模型打分的排行榜
以下是文生图模型的打分排行榜(从高到低): 文生图模型: Imagen 3:真实感满分,指令遵从强。 Recraft:真实感强,风格泛化很好,指令遵从较好(会受风格影响)。 Midjourney:风格化强,艺术感在线,但会失真,指令遵从较差。 快手可图:影视场景能用,风格化较差。 Flux.1.1:真实感强,需要搭配 Lora 使用。 文生图大模型 V2.1L(美感版):影视感强,但会有点油腻,细节不够,容易糊脸。 Luma:影视感强,但风格单一,糊。 美图奇想 5.0:AI 油腻感重。 腾讯混元:AI 油腻感重,影视感弱,空间结构不准。 SD 3.5 Large:崩。 文生视频模型: 海螺:语意遵循不错,模型解析有待提高,自带电影滤镜,但有些用力过猛,得益于海量的影视数据。 可灵 1.5:颜色失真,缺少质感,偏科严重,物理规律和提示词遵循较强。 智谱:语意遵循,质感较差,画质一言难尽。 mochi:动态丰富,想象力丰富,美学质感较好。 pd 2.0 pro:PPT 效果,训练数据较少,但是联想启发性很好。 runway:空间感强,语意遵循较差,流体效果一绝。 Seaweed 2.0 pro:质感略弱于可灵 1.5,整体感觉师出同门。 sora:运镜丰富,物理逻辑混乱。 Pixverse v3:动态稳,丝滑,整体美学强于可灵 1.5。 luma 1.6:语意遵循差,提示词随便,动起来算我输。
2025-03-07
有哪些本地生图工具
以下是一些本地生图工具: Liblib 在线生图: 本地 ComfyUI Flux + Lora 工作流: 。 SDXL:可以将图片发送到图生图当中,大模型切换为“refiner”,重绘幅度开小一点,再次点击生成。还可以安装 refine 插件,在扩展列表中搜索 refine 并安装,启用后可在文生图界面直接使用 refine 模型。
2025-03-06
有类似cherrystudio这种专门用于生图的Agent?
目前尚未有像 CherryStudio 这样专门用于生图的知名 Agent 。但在 AI 领域,不断有新的工具和技术出现,您可以持续关注相关的科技动态以获取最新信息。
2025-03-06
有什么AI生图网站支持生成汉字?
以下是一些支持生成汉字的 AI 生图网站: 1. ComfyUI Kwai Kolors 快手可图:支持中英文提示词工作流,有相关的下载安装设置教程,可生成汉字。您可以通过了解更多。 2. 豆包 App 支持文生图中文文字生成。
2025-03-06
怎么在AI文生图中精准的输出想要的文字
要在 AI 文生图中精准输出想要的文字,可以参考以下方法: Recraft 模型: 提供提示词加上文本位置,因为模型获得的输入数据越多,越容易产生精确输出。遵循指令比仅理解提示词更容易。 Tusiart 模型: 定主题:明确生成图片的主题、风格和表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 ControlNet:可控制图片中特定的图像,如人物姿态、生成特定文字等,属于高阶技能。 局部重绘:下篇再学。 设置 VAE:选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,同样用单词和短语组合,用英文半角逗号隔开,不用管语法。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据个人喜好和需求选择。 Liblibai 模型: 定主题:明确生成图片的主题、风格和表达的信息。 选择 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 设置 VAE:选择 840000 即可。 CLIP 跳过层:设成 2 。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,同样用单词和短语组合,用英文半角逗号隔开,不用管语法。 采样方法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 时,迭代步数在 30 40 之间。 尺寸:根据个人喜好和需求选择。 生成批次:默认 1 批。
2025-03-06
我想大规模进行文生图,然后图生视频,用什么方案比较好
以下是一些大规模进行文生图然后图生视频的方案: 1. 可以选择大语言模型 chatgpt、kimi 进行剧本分镜设定,文生图使用 midjourney 生成视觉画面,图生视频选择即梦 dreamina 制作动态画面,suno 音乐编曲,ondoku 主角台词配音,视频剪辑使用剪映。同时,视频中的小部分音效可在网上无版权下载,剪映中也有大量音效可用。 2. 对于视频的大部分片段,可以用 runway(https://app.runwayml.com/)制作,少数片段用即梦(https://jimeng.jianying.com/aitool/home)的动效画板和首尾帧。登录 runway 账户后,在首页左侧点击“Text/Imagine to Video”,上传图片,更改模型版本、输入提示词、修改生成的视频时长等。 3. 以下是一些图生视频模型的特点(从高到低排序): pd 2.0 pro:即梦生成的画面有点颗粒感,p2.0 模型理解能力更强,更适合连续运镜,适合做一些二次元动漫特效。 luma 1.6:画面质量挺好,但价格昂贵。 可灵 1.6 高品质:表现出色。 海螺01live:文生视频比图生视频更有创意,图生也还可以,但大幅度动作下手部会出现模糊,整体素质不错,价格较贵。 runway:画面质量不算差,适合做一些超现实主义的特效、特殊镜头。 智谱 2.0:画面特效出众,价格便宜,量大,但整体镜头素质稍差。 vidu1.5:适合二维平面动画特效,大范围运镜首尾帧出色,但价格贵。 seaweed 2.0 pro:适合动态相对小、环绕旋转运镜动作小的情况。 pixverse v3 高品质:首尾帧表现好,画面美学风格有待提升。 sora:不好用,文生视频较强,但图生视频抽象镜头多,不建议使用。
2025-03-06
注意Cursor 相关报错原因,如重复安装依赖项、重新创建文件
以下是关于 Cursor 相关报错原因及实践的一些内容: 报错原因: 重复安装依赖项。 重新创建文件。 导入的路径不对。 错误导入已经废弃的文件。 突破 AI 记忆的东西。 Cursor 缓存未更新。 实践经验: 前期描述好需求,在设置里注意 Rules for AI 的提示词。 按照功能模块单独建立实现文档,包括深入理解需求、技术实现、测试等。 学会看代码,了解每一步文件的作用,有助于提升技术理解。 分阶段实现需求,效率更高,只考虑本阶段需求。 主动思考,大语言模型有局限性,如在 Cursor 中可能出现报错排查指引错误的情况,需要人工强介入。 注意细节操作,每次修改完代码要保存再运行,整体修改慎用,新增功能可新开对话,每个项目新建文件夹并将相关文件放在里面,代码中多带日志方便报错调试。 进行单元测试时可能遇到安装缺失库进度慢、Cursor 工作位置错误导致关键文档放错位置和创建垃圾文件等问题。
2025-01-16
AI提升工作效率
以下是关于 AI 提升工作效率的相关内容: 在游戏行业,从游戏的前期制作到中期运营再到后期迭代,大模型不仅能降低成本,还能打造创新玩法,提供更好的游戏体验。例如网易推出的首款 AI 手游《逆水寒》,将 AIGC 应用于美术开发,在 NPC 与玩家的交互上呈现独特剧情体验,还内嵌了全自动“AI 作词机”,玩家输入关键词,AI 就能一秒生成完整诗词。 在人力资源管理领域,AI 的应用覆盖了从招聘初期到员工绩效评估再到员工培训与发展的各个环节,显著提高了工作效率。 在全行业中,基础办公提效如 PPT、Excel、会议报告、策划会、文案包装、图文海报、客服机器人 bot 等,都可以从【单个任务 task>角色 role>角色间协同 collaboration】显著提高工作效率。健身行业的 AI 减重顾问,既能解决售前客服问题,也能进行健康监护,提高学员体验。 此外,微软与 LinkedIn 的 2024 工作趋势报告显示,75%的全球知识工作者已使用生成式 AI,79%的领导者认为 AI 是竞争力的关键,重度用户表示 AI 让工作更高效、更具创造力、更易管理。还有德克萨斯大学的可拉伸电子皮肤为机器人赋予人类般的触感和灵敏度,ICLight 图像重新照明技术能通过文本提示生成特定光照方向的图像,Ilus AI 是快速生成插画的工具,预制模型能快速生成多种风格插画,还能上传插画进行个性化训练并导出特定格式。
2025-03-07
AI提升内部系统效率
以下是一些利用 AI 提升内部系统效率的方向和示例: 1. 客户潜力评分系统:根据消费行为自动标记高价值客户。 2. 实时话术提示工具:导购与客户沟通时 AI 推荐应答策略。 3. 自动化周报生成:汇总销售数据、客户反馈生成可视化报告。 4. 竞品监控仪表盘:抓取社交媒体数据对比竞品声量。 5. 智能排班优化:根据客流预测自动调整导购排班表。 6. 培训模拟考试系统:基于产品知识库生成随机测试题。 7. 库存周转分析工具:预测滞销品并推荐促销策略。 8. 舆情预警系统:实时监测负面评价并推送处理建议。 9. 客户流失预测模型:通过行为数据预警流失风险。 10. 智能邮件分类器:自动分类客户咨询邮件并分配优先级。 11. 门店热力图分析:通过摄像头数据优化商品陈列布局。 12. 多语言知识库同步:自动翻译产品手册并更新至内部系统。 13. 销售目标拆解工具:根据历史数据为导购分配个性化 KPI。 14. 实时翻译耳机:导购与外国客户沟通时提供语音翻译。 15. 客户兴趣标签生成:从聊天记录中提取关键词生成标签。 16. 智能补货提醒:结合销售速度与供应链数据触发补货流程。 17. 差旅费用优化:根据活动日程推荐最低成本差旅方案。 18. 会议纪要自动生成:转录会议录音并提取任务清单。 19. 员工满意度分析:通过匿名问卷分析导购工作痛点。 20. 危机公关话术库:针对突发负面事件提供标准应对模板。 此外,在相关法律法规方面,《人工智能法案》提到 AI 系统应考虑先进方法和相关适用标准,以降低能源使用、资源使用和浪费,并提高其能源效率和系统整体效率。在实际应用中,如 Coinbase 深度应用 AI 用于欺诈预防、客户支持、风险评分、设计等领域,其 100%工程师已使用 Cursor AI 编程工具提升开发效率,并计划让 AI 自动为 Jira/Linear 工单生成 PR,推进从需求到代码的初步自动化。
2025-03-07
青年员工人工智能能力提升的路径与思考
青年员工提升人工智能能力的路径与思考如下: 学习路径:成为基于 Agent 的创造者 结合“一人公司”的愿景,未来的 AI 数字员工会以大语言模型为大脑,串联所有工具。 数字员工(agent)=学历(大模型)+察言观色(观察)+逻辑思维(推理)+执行(SOP)。 创造者的学习要用大模型和 Agent 模式把工具串起来,着重关注创造能落地 AI 的 agent 应用,大模型的开发研究和演进交给学术界和大厂。 Agent 工程(基础版): 梳理流程:梳理工作流程 SOP,并拆解成多个单一「任务」和多个「任务执行流程」。 「任务」工具化:自动化每一个「任务」,形成一系列小工具,让机器能完成每一个单一任务。 建立规划:串联工具,基于 agent 框架让 bot 来规划「任务执行流程」。 迭代优化:不停迭代优化「任务」工具和「任务执行流程」规划,造就能应对实际场景的 Agent。 数字员工“进化论”:在固化流程和让 AI 自主思考之间需在对 AI 能力基础上作出妥协和平衡。 趋势研究:AI 时代的个人成长路径 第 2 阶段:AI 素养培养与工具掌握 建立拥抱 AI 的心态后,提升 AI 素养,系统学习 AI 相关知识,包括机器学习、自然语言处理等基本概念,以及 AI 在各行业中的应用案例。 上手一些 AI 工具,如 ChatGPT、智能翻译工具、AI 绘图程序等,在日常工作中练习利用 AI 工具完成部分任务,如协助撰写文档、整理数据、生成简单代码等。 熟练驾驭 AI 工具,成为使用者而非旁观者,使用时保持理性,认识到当前 AI 的局限,学会验证输出结果,不盲从。 戴尔因 AI 上演“大逃杀”的启示 对于处于中间位置的执行层,形势紧迫,面临人工智能取代工作职能和向上攀升的机会,需迅速掌握并运用人工智能技术。 为在变革中生存和发展,需关注两方面: 有效应用人工智能技术:迅速掌握生成式人工智能基本概念和潜在影响,重点理解其对工作方式和行业格局的革新;深入了解市场上现有的人工智能产品和工具,并积极应用到实际工作中。 保持持续学习和关注的态度。
2025-03-06
作为产品经理ai可以如何提升效率
以下是 AI 提升产品经理效率的一些方式: 1. 辅助精读论文:能帮助翻译、拆解公式,分析代码等。可使用工具如 https://scispace.com 。 2. 写一些小脚本:如写 SQL 查询、Python 脚本、正则表达式、图片批量处理等。 3. 产品宣传文案:根据产品宣传渠道写营销文案、营销邮件、产品上架文案等。 4. 调研问卷设计/整理:生成调研框架,回收非结构化问卷,按指定框架生成指定表头表格。 5. 竞品分析:用 BingChat 或 ChatGPT Browsering 插件,按指定框架对比各项数据,如 DAU、用户结构、市场占比等。 6. 解释专业名词:很多垂直领域都有不少缩写或行业黑话,可以用 ChatGPT 解释举例、给场景说明。 7. 优化代码:如让 GPT 介入优化 SQL 查询代码,提高运行效率和降低复杂度。 8. 从不同视角梳理产品逻辑:写完 PRD 后,让 GPT 试着从产品和研发两个视角写逻辑代码,以发现产品逻辑表达问题,方便 QA 同学测试。 此外,对于创业团队,尤其做出海产品的产品经理,AI 的价值会更大些。还有产品经理可以使用如 PMAI 这样的工具,它是一款面向产品经理的生产力工具,具有一键生成 PRD、输出解决方案、生成 SQL 等实用功能。产品体验地址:https://www.pmai.cn/?utm_source=qoZaR5O 。
2025-03-04
推理行大模型对于RAG的准确性提升,带来哪些改变
推理行大模型对 RAG 准确性提升带来了以下改变: 1. 当辅以能有效提取文档中结构化信息并整合为提示词的 PDF 解析器时,大语言模型能作出更准确的响应,提高了提供给模型的数据质量和相关性,从而提升模型输出质量。 2. 大模型应用领域常用的 RAG 方法,能让模型用自定义数据生成结果,处理无尽私有数据,将模型当成高效推理机器。但 RAG 存在一些常见误区: 随意输入任何文档不一定能得到准确回答,RAG 流程中的多个环节都会影响最终质量。 RAG 虽能减少幻觉,但不能完全消除,只要有大模型参与就可能产生幻觉。 RAG 仍消耗大模型的 Token,最终需大模型处理检索结果生成通顺回答。 未来,将研究分享更多基于深度学习的文档解析方法,以更全面理解 RAG 质量和文档解析质量的关系。同时,前沿模型研发团队力争做到吞吐量、速度和准确度的最佳平衡。
2025-03-03
教师如何用ai提升教学效率
以下是教师利用 AI 提升教学效率的一些方式: 1. 利用多文体智能作文批改评分工具,如 BigModel 智谱 AI 大模型开放平台。大模型能凭借其数据处理能力和应用潜力,为教师提供精确的学生需求洞察,帮助教师量身打造学习方案,提高教学效果和工作效率。 2. 借助 Character.ai 平台,让历史人物作为数字教师为学生授课,实现一对一辅导,提高学生参与感,生动地传授知识,还能根据学生情况提供定制化学习计划和资源,缓解教育资源不平等问题。 3. 使用阅读备课小助手,如在 flowgpt 上传的相关工具,极大缩短教学准备时间。例如,以前准备教研素材和制作 PPT 可能需要一天到一天半,现在可缩短至 1 2 小时。它能根据输入的阅读文章,按要求生成教学目标、词汇列表、段落分析、阅读理解题目和泛读文章等,还能实现一键课程目标设计、制作词汇练习、生成段落结构、生成泛读练习、生成口语输出活动和回答模板等功能。
2025-03-03