直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

在COMFYUI中使用FLUX大模型时,怎么才能让多次生成的人物一致

回答

在 ComfyUI 中使用 FLUX 大模型让多次生成的人物一致的方法如下:

  • 控制人物在多场景、多个姿势下的一致性有很多方法,课程后期会介绍。
  • 对于多张图输出的显示问题,一次产出多张图在预览窗口目前不能并排显示。
  • Lora 的刷新:将 Lora 丢到文件夹后,多点几次刷新即可,Web UI 中 Lora 库有刷新按钮。

另外,在 Midjourney 中,人物一致性已上线,其操作如下:

  • DavidH 介绍:Hey @everyone @here we're testing a new "Character Reference" feature today This is similar to the "Style Reference" feature, except instead of matching a reference style it tries to make the character match a "Character Reference" image.
  • 具体操作:Type --cref URL after your prompt with a URL to an image of a character. You can use --cw to modify reference 'strength' from 100 to 0. strength 100 (--cw 100) is default and uses the face, hair, and clothes. At strength 0 (--cw 0) it'll just focus on face (good for changing outfits / hair etc).
  • 适用范围:This feature works best when using characters made from Midjourney images. It's not designed for real people / photos (and will likely distort them as regular image prompts do). Cref works similarly to regular image prompts except it 'focuses' on the character traits. The precision of this technique is limited, it won't copy exact dimples / freckles / or tshirt logos. Cref works for both Niji and normal MJ models and also can be combined with --sref Advanced Features. You can use more than one URL to blend the information / characters from multiple images like this --cref URL1 URL2 (this is similar to multiple image or style prompts).
  • 网页端操作:How does it work on the web alpha? Drag or paste an image into the imagine bar, it now has three icons. Selecting these sets whether it is an image prompt, a style reference, or a character reference. Shift + select an option to use an image for multiple categories.

在 ComfyUI 中处理模型连接和提示词相关问题,如让两个模型同时起作用的操作:

  • 加入一个新节点,右键点击 - 【新建节点】 - 【实用工具】 - 【Primitive 元节点】。
  • 在文本节点上单击右键,选择【转换文本为输入】,此时文本节点上就多了一个文本的连接点。
  • 将元节点与文本节点相连接,元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。
  • 再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

8月13日ComfyUI共学

人物一致性控制:控制人物在多场景、多个姿势下的一致性有很多方法,课程后期会介绍。多张图输出的显示问题:一次产出多张图在预览窗口目前不能并排显示。Lora的刷新:将Lora丢到文件夹后,多点几次刷新即可,Web UI中Lora库有刷新按钮。进阶学习途径:提到一些全球交流频道,如Confii生态大会相关频道。关于图像生成与工作流相关问题的讨论Discord使用问题:Discord已荒废很久,对于相关操作存在疑问。图像输出显示问题:探讨了图像输出是否并排显示,可能因误点单张显示导致,叉掉即可恢复并排。图像放大采样问题:放大后模糊需再次编码,放入采样器重新采样。模型训练与应用:训练自己人像可用于生成脸部头像,图像生成后可加载出视频。节点功能及学习方式:节点功能通过实践和需求寻找尝试,而非死记硬背,可参考优秀工作流和节点开发者的成果,如open art网站上的工作流。关于AI绘图提示词及工作流学习的安排

【ComfyUI】使用ComfyUI玩SDXL的正确打开方式

添加噪波:disable。这里关闭,因为是继承上一个采样器,所以不需要再添加噪声。运行后操作:fixed。相当于锁定随机种子的意思。步数:30。迭代的总步数,和之前保持一致。开始降噪步数:20。传递过来之后,是从第20步开始的。结束降噪步数:30。这个数字也可以保持默认,反正就是运行到结束。返回噪波:disable。不用返回了,到这一步已经结束了。但是,现在问题来了。如果我将refiner的模型连上提示词的话,第一个base模型的链接就会断开,怎么样才能让两个模型同时起作用呢?我们来加入一个新节点,右键点击-【新建节点】-【实用工具】-【Primitive元节点】。这个节点很有意思,它连接谁,就会变成谁的属性。在文本节点上单击右键,选择【转换文本为输入】。此时,文本节点上就多了一个文本的连接点。将元节点与文本节点相连接,这时元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。再复制出一套正负提示词节点,一套给base模型,一套给refiner模型。然后,base模型的那一套输出给第一个采样器节点,refiner模型的那一套输出给第二个采样器节点。

Midjourney 人物一致性已上线

官方说明和操作:DavidH:Hey @everyone @here we're testing a new"Character Reference"feature today This is similar to the"Style Reference"feature,except instead of matching a reference style it tries to make the character match a"Character Reference"image.How it worksType --cref URL after your prompt with a URL to an image of a characterYou can use --cw to modify reference 'strength' from 100 to 0strength 100(--cw 100)is default and uses the face,hair,and clothesAt strength 0(--cw 0)it'll just focus on face(good for changing outfits / hair etc)What it's meant forThis feature works best when using characters made from Midjourney images.It's not designed for real people / photos(and will likely distort them as regular image prompts do)Cref works similarly to regular image prompts except it 'focuses' on the character traitsThe precision of this technique is limited,it won't copy exact dimples / freckles / or tshirt logos.Cref works for both Niji and normal MJ models and also can be combined with --sref Advanced FeaturesYou can use more than one URL to blend the information /characters from multiple images like this --cref URL1 URL2(this is similar to multiple image or style prompts)How does it work on the web alpha?Drag or paste an image into the imagine bar,it now has three icons.selecting these sets whether it is an image prompt,a style reference,or a character reference.Shift+select an option to use an image for multiple categories Remember,while MJ V6 is in alpha this and other features may change suddenly,but V6 official beta is coming soon.We'd love everyone's thoughts in ⁠ideas-and-features We hope you enjoy this early release and hope it helps you play with building stories and worlds

其他人在问
comfyui flux相关的教程
以下是关于 ComfyUI Flux 的教程: 安装及使用: 模型放置: t5xxl_fp16.safetensors:放在 ComfyUI/models/clip/目录下。 clip_l.safetensors:放在 ComfyUI/models/clip/目录下。 ae.safetensors:放在 ComfyUI/models/vae/目录下。 flux1dev.safetensors:放在 ComfyUI/models/unet/目录下。 下载地址: 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 工作流下载:上面提供的工作流复制即可,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,将工作流或图片拖拽到 ComfyUI 里。 ComfyUI 共学相关: 插画提效成果显著,原本需要 200 人美术团队一年多完成的 1 万多张动画插画,最终不到 10 人用半年完成。 课程从零基础开始,从认识 config、UI 及行业概念讲起,逐步深入到环境部署、底层技术概念、提示词等内容。 介绍 config 牛角尖大王系列,包括 control net、IP Adapter、图像放大、mask 等部分,阐述了它们的作用和玩法。 具备搭建复杂工作流能力,学习相关知识后初步具备搭建复杂工作流能力,会拆解分析网上热门工作流。 解决 config UI 报错问题,报错问题可分为网络、模型、工作流搭建、环境等方面,安装新插件时可参考项目地址的 requirement 文档。 规划实战案例思路,目前想到了三个实战案例的思路。 关于 config UI 生态及相关技术的分享,郭佑萌介绍课程提纲,包括课程可能的扩充、回顾总结及重点讲解 Flux 模型,实际课程不严格按大纲走,会根据大家接受程度和安排进行共学。
2024-09-16
Way to AGI里所有COMFYUI工作流
以下是关于 ComfyUI 工作流的相关内容: 打开节点树的列表,可以看到文生图、图生图以及 ControlNet 等常见工作流。选择文生图,会有更细化的预设工作流选项,ControlNet 中也有工作流预设,还有根据插件整理的丰富工作流。例如可选择“文生图”中的“基础+自定 VAE”,选好后点击“替换节点树”,界面会出现已连接好的工作流节点,包括大模型、clip、vae、正反提示词、尺寸、采样器等熟悉的参数,且是中文面板。不了解操作的可参考上一篇【ComfyUI】本地部署 ComfyUI 上手指南。 国内的 ComfyUI 工作流网站有: eSheep 电子羊 AIGC 社区 https://www.esheep.com/app ,主页点击工作流/应用分区,即可浏览、下载或在线运行各类工作流。 AIGODLIKE https://www.aigodlike.com/ ,下拉选取“ComfyUI 奥术”,即可查看其他用户上传的 ComfyUI 生成图片,保存或复制参数皆可读取到图片中的工作流。 在完成准备工作后运行 ComfyUI,默认版本不支持模型版本和 node 管理,需安装 ComfyUI Manager 插件。工作流下载好后,可使用 ComfyUI 菜单的 load 功能加载,点击菜单栏「Queue Prompt」开始视频生成,通过工作流上的绿色框查看运行进度,最后在 ComfyUI 目录下的 output 文件夹查看生成好的视频。若生成视频时出现显存溢出问题,请另行处理。
2024-09-13
学习comfyui有哪些技术或者文章可以学习和参考?
以下是一些学习 ComfyUI 的技术、文章和资源: 飞书学习群中的相关内容: 陈旭常用节点讲解和简单的节点制作 长风归庭基础教程+工作流创建 ヘヘ阿甘采样器原理与优化 王蓉🍀 🎈 Wang Easy 基础搭建和转绘 唯有葵花向日晴基础教程,工作流开发,实际应用场景 热辣 HuolarrAI 系统课私聊图生视频 咖菲猫咪基础教程/工作流搭建思路/各版本模型使用的优缺点 傅小瑶 Lucky 如何制作多人转绘视频 云尚工作流节点搭建思路 FǎFá 热门节点功能,搭建 森林小羊基本报错解决方式及基础工作流逻辑分析 苏小蕊基础教程 Sophy 基础课程 蜂老六装一百个最新常用插件后如何快速解决冲突问题 阿苏工作流框架设计 aflyrt comfyui 节点设计与开发 老宋&SD 深度解释虚拟环境部署和缺失模型的安装 Liguo 模型训练 啊乐福基础课程 塵优秀案例 风信基础课程➕平面设计应用场景 北南基础课程 视频工作流框架设计 8 月 13 日 ComfyUI 共学的相关内容:算力和资源获取方面,飞翔提供了 50 个小时的算力时间,可在飞书群填问卷获取,分享模型较少可提建议,相关文档在飞书和公众号中。AI 绘图相关技术与工具的介绍及交流公众号文章包含 AGI 相关信息:通往 AGI 之路的公众号最新文章中有相关信息,内置工作流和启动器方便,Mac 系统因无 CUDA 生态不太好用。推荐提示词辅助插件:如 SDXL 的 S1XL style,可对提示词进行风格化扩充,还有能翻译提示词的插件,如沙拉查词、沉浸式翻译等。解释 CLIP 和 CFG 的区别:CLIP 用于解析提示词,将其转化为模型可理解的向量,CFG 是提示词对画面影响的强度,即提示词引导系数。搭建带 Lora 的图生图工作流:介绍了加载模型、设置 clip 跳过层、处理图像、连接采样器和解码器等步骤,并展示效果。关于 Lora 串联和图像放大模型的讨论 Lora 串联:多个 Lora 串联时左右顺序不影响结果,可复制并点对点连接。CLIP 层调整:CLIP 层1 和2 的效果不同,加 Lora 时某些 Lora 可能更适合2。 相关网站: ComfyUI 官方文档:提供了 ComfyUI 的使用手册和安装指南,适合初学者和有经验的用户。可在找到相关信息。 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是。 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可在找到相关教程。 Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可在找到视频教程。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-09-12
Flux 的lora模型训练教程,我想用用diffuser代码训练,而不是webui或comfyui
以下是关于 Flux 的 lora 模型训练的相关信息: Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main GGUF 配套节点插件:https://github.com/city96/ComfyUIGGUF 在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,但 NF4 的配套节点插件搜不到。 注意使用精度优化的低配模型时,工作流和原版不同。把官方的 fp8 工作流中底模的节点换成 NF4 或者 GUFF 即可。 相关生态发展迅速,有 Lora、Controlnet、IPadpter 相关生态建设,字节最近发布的 Flux Hyper lora 可用于 8 步快速生图。下节将先讲讲 Flux 的 lora 训练。
2024-09-05
Error occurred when executing IPAdapterAdvanced: insightface model is required for FaceID models File "D:\AI\comfyui_20240421\execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "D:\AI\co
以下是针对您所遇到的报错问题的一些解决建议: 1. 对于 ipadater 部分报错说 model 不存在的情况,将文中画圈部分修改调整到不报错。Pulid 部分,除了下载好对应的节点以及参考官方网站最下面的安装对应要求外,还要注意上图中的第二要点,对应安装一些内容,具体要求可查看云盘中命名为“pulid 插件模型位置.png”的文件及对应的云盘链接:PulID 全套模型,链接:https://pan.baidu.com/s/1ami4FA4w9mjuAsPK49kMAw?pwd=y6hb,提取码:y6hb。否则将会遇到报错:Error occurred when executing PulidEvaClipLoader。 2. 对于 Ollama 大模型部分,为了应对没下载大模型带来的报错,需要下载大模型。首先,下载 ollama,网站: 。 3. 如果缺少 ipadapter 的模型,可去这个网址下载:https://github.com/cubiq/ComfyUI_IPAdapter_plus 。如果遇到“Error occurred when executing IPAdapterUnifiedLoader:ClipVision model not found.......”类似的报错,可在这个网址里找到多个关于 IPAdapter 报错的解决办法:https://github.com/cubiq/ComfyUI_IPAdapter_plus/issues/313 。 另外,换脸工作流的核心组件是 Apply InstantID Advanced 节点,这个节点的作用就是将源人脸替换到目标图像中。其中,instantID 模型擅长提取图片的高层次特征,包括面部的纹理信息、几何结构、风格特征等,在图中例子是 IPAdpater,用于识别和保留目标图像 image_kps 的风格并迁移到生成图像中。instantID Face Analysis 节点用于提取人脸五官的特征向量,作用是使生成图像时,人脸的眼睛、鼻子、嘴巴等样子仍然符合源人脸 image 的特征。controlnet 模型的作用是识别目标图像 image_kps 的低层次特征,包括骨架、姿势、边缘、结构。controlnet 模型和 instantID 模型起到不同的控制作用,结合使用可以达到将源人脸的五官替换目标图像中五官的效果。
2024-09-03
comfyui管理器下载网站
以下是 ComfyUI 管理器的下载网站: 推荐安装管理器插件,下载地址:https://github.com/ltdrdata/ComfyUIManager 资源占用视图的插件下载地址:https://github.com/crystian/ComfyUICrystools 此外,关于 ComfyUI 管理器还有以下相关信息: 安装完成管理器插件后,控制面板最下面会出现“管理器”按钮,点开可看到“ComfyUI 管理器”界面,可关掉“跳过更新检查”以自动检查插件更新,点击“安装节点”可进入插件管理界面进行插件下载、更新等操作。 若在本地环境下安装 Manager,可参考 Github 下载地址(作者在页面里提供了文件包以及安装方法):https://github.com/ltdrdata/ComfyUIManager
2024-09-02
怎么才能让FLUX生成的人物更像真人的照片
以下是一些可能有助于让 FLUX 生成的人物更像真人照片的建议: 1. 尝试使用特定的提示词,例如“abstract network out of glass made of holographic liquid crystal, dark background, blue light reflections, symmetrical composition, centered in the frame, highly detailed, hyperrealistic, cinematic lighting, in the style of Octane Rende ar 16:9 style raw personalize v 6.1”。 2. 可以训练 FLUX Lora 模型,如褪色胶片风格,推荐权重 0.6 0.8,人像会偏向复古褪色的胶片风格。 3. 对于生成人物,还可以参考 XLabsAI 发布的不同 Lora,如 mjv6_lora(Midjourney 风格)、realism_lora(写实风格)等,并使用相应的示例进行参考和调整。 4. 您还可以从以下地址下载相关的 Lora:https://hfmirror.com/Kijai/fluxlorascomfyui/tree/main/xlabs
2024-09-13
Flux工作流
Flux 工作流相关内容如下: 安装及使用:如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多。ae.safetensors 和 flux1dev.safetensors 的下载地址为:https://huggingface.co/Kijai/fluxfp8/tree/main 。最后下载 dev 的工作流,可使用上面提供的工作流,或者下面官方原版的图片链接,图片导入 ComfyUI 就是工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png 。打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。 随机提示词+FLux NF4 模型文生图工作流。 FLUX 的周边生态发展迅速,具体的 Lora 包括 mjv6_lora、动漫 Lora、写实 Lora、迪士尼 Lora、风景_lora、艺术 Lora 。Xlabs Lora 下载:https://huggingface.co/XLabsAI/fluxRealismLora 。另外社区也开始利用训练脚本训练 Lora 了,比如这个,支持 FLUX Lora、ControlNet 的加载,支持文生图、图生图。
2024-09-13
Flux 的lora模型训练教程
以下是 Flux 的 Lora 模型训练教程: 首先,您需要下载相关模型,如 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 Flux GGUF 模型可从以下链接获取:https://huggingface.co/city96/FLUX.1devgguf/tree/main ,同时还有 GGUF 配套节点插件及 GGUF 节点包:https://github.com/city96/ComfyUIGGUF 。在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,但 NF4 的配套节点插件则搜不到。 如果您的显卡是 16G 的,右键 16G 那个 train_flux_16GLora 的文件;如果您的显卡是 24G 或更高的,右键 24G 那个 train_flux_24GLora 的文件。(DB 全参微调对硬件要求更高,内存 32G 不行)即使是 train_flux_24GLora 的方式,也建议内存尽量高于 32G 以避免意外。 右键用代码编辑器方式打开文件(图中右边红框的两种任意一种均可,没有可以下载一下)。开头的绿色部分不用动,理论上只改红色部分:底模路径、VAE 路径、数据集路径,还有下面的 clip 路径和 T5xxl 路径。如果相关模型在一个文件夹里,路径填写会更简单;如果不在,要准确找到并复制 flux1dev 底模的文件路径,注意检查双引号的使用,避免多双引号、漏双引号或路径错误。训练集的路径要注意是到 train 截止。在 SD3 训练相关参数那里,还有部分路径需要设置。
2024-09-05
flux模型有哪些
Flux 模型主要包括以下几种: 1. Lora 模型:训练时需要下载 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors 等模型。 2. 主模型: FLUX.1模型:https://huggingface.co/blackforestlabs/FLUX.1dev FLUX.1模型:https://huggingface.co/blackforestlabs/FLUX.1schnell 3. VAE 模型:下载地址为 https://huggingface.co/blackforestlabs/FLUX.1schnell/blob/main/ae.sft,下载后放在 comfyui\\models\\vae 文件夹中。 4. CLIP 模型:官方提供了 clip_l.safetensors,还有 t5xxl 的 FP8 和 FP16 的两种精度的 clip 模型供选择,可根据电脑配置任选 FP8 或者 FP16 精度下载,下载地址为 https://huggingface.co/comfyanonymous/flux_text_encoders/tree/main,下载后放在 comfyui\\models\\clip 文件夹中。 此外,如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址为 https://huggingface.co/Kijai/fluxfp8/tree/main 。 GitHub 仓库:https://github.com/blackforestlabs/flux 。 百度网盘链接:https://pan.baidu.com/s/1VPQedispwtR29kDrhGR10A?pwd=4iwj 。 最后,还可以下载 dev 的工作流,如上面提到的链接或者官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,将工作流或图片拖拽到 ComfyUI 里使用。
2024-09-04
国内评分最高的国内大模型是什么
根据目前的测评报告,在国内大模型中,得分较高的有文心一言 4.0(API),其总分 79.02 分。在工具使用的测评中,智谱清言表现不俗,取得 83.78 的高分,排名国内模型第一。过去八个月国内模型在 SuperCLUE 基准上的第一名多次为文心一言 4.0。综合来看,国内大模型在不断进步,与国外模型的差距在逐渐缩小,但不同模型在不同方面的表现各有优劣。
2024-09-17
本地知识库系统如何利用大语言模型
以下是关于本地知识库系统如何利用大语言模型的相关内容: 一、部署大语言模型 1. 下载并安装 Ollama 根据电脑系统,从 https://ollama.com/download 下载 Ollama。 下载完成后,双击打开,点击“Install”。 安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。 2. 下载 qwen2:0.5b 模型(0.5b 方便测试,设备充足可下载更大模型) Windows 电脑:点击 win+R,输入 cmd 点击回车。 Mac 电脑:按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,选择“终端”应用程序。 复制相关命令行并粘贴回车,等待自动下载完成。(下载久了若卡住,鼠标点击窗口,键盘点空格可刷新) 二、了解 RAG 利用大模型的能力搭建知识库是 RAG 技术的应用。在进行本地知识库搭建实操前,需对 RAG 有大概了解。大模型训练数据有截止日期,当需要依靠不在训练集中的数据时,主要通过检索增强生成 RAG 实现。RAG 应用可抽象为 5 个过程: 1. 文档加载:从多种来源加载文档,LangChain 提供 100 多种不同的文档加载器,包括 PDF 等非结构化数据、SQL 等结构化数据以及代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或“文档片”。 3. 存储:涉及将切分好的文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 三、通过 Open WebUI 使用大模型 1. 首先访问相关网址,打开页面时使用邮箱注册账号。 2. Open WebUI 一般有两种使用方式: 聊天对话。 RAG 能力,可让模型根据文档内容回答问题,这是构建知识库的基础之一。 3. ChatGPT 访问速度快、回答效果好的原因: 快:GPT 大模型部署的服务器配置高。 好:GPT 大模型的训练参数多、数据更优以及训练算法更好。
2024-09-17
算法和模型是什么关系
算法和模型是相互关联但又有所区别的概念。 模型是对问题或现象的一种抽象表示,它描述了数据之间的关系和模式。例如,在卷积神经网络(CNN)中,其结构就是一种模型,主要用于模式识别任务。 算法则是用于解决问题或实现模型的一系列步骤和方法。在 AI 领域,算法用于训练和优化模型。比如在自然语言处理和图像识别中,某些算法能够使 CNN 在计算上更有效、更快速,从而击败大多数其他算法。 随着我们对大脑工作机制的认知加深,神经网络的算法和模型也会不断发展和进步。 同时,在确保 AI 模型的道德和伦理性方面,也涉及到一系列的算法设计和处理步骤,如数据清洗、算法设计以减少偏见和不公平性、制定道德和伦理准则、保持透明度、接收用户反馈、持续监控、人工干预以及对相关人员进行教育和培训等。 另外,生成式人工智能模型正在从根本上改变我们与计算机的关系,使其有可能成为我们的伴侣,这也对我们对关系的定义提出了新的挑战。
2024-09-15
有什么大模型是可以预测人的行为或者将来发展的
以下是一些与预测人的行为或将来发展相关的大模型信息: 斯坦福大学和谷歌的生成式智能体能够产生令人信服的人类行为代理。相关链接:https://syncedreview.com/2023/04/12/stanfordugooglesgenerativeagentsproducebelievableproxiesofhumanbehaviours/ 关于大模型的未来展望,认为它们将能够读取和生成文本,拥有更丰富的知识,具备多种能力,如查看和生成图像与视频、听取发声创作音乐、利用系统 2 进行深入思考等,还可能在特定领域内自我优化和针对任务进行定制调整。 同时,还为您提供了一些大模型相关的其他资源链接: Google Research,2022 & beyond:Generative models:https://ai.googleblog.com/2023/01/googleresearch2022beyondlanguage.htmlGener ativeModels Building the most open and innovative AI ecosystem:https://cloud.google.com/blog/products/aimachinelearning/buildinganopengenerativ eaipartnerecosystem Generative AI is here.Who Should Control It?https://www.nytimes.com/2022/10/21/podcasts/hardforkgenerativeartificialintelligen ce.html Generative AI:Perspectives from Stanford HAI:https://hai.stanford.edu/sites/default/files/202303/Generative_AI_HAI_Perspectives.pd f Generative AI at Work:https://www.nber.org/system/files/working_papers/w31161/w31161.pdf The future of generative AI is niche,not generalized:https://www.technologyreview.com/2023/04/27/1072102/thefutureofgenerativeaiis nichenotgeneralized/ Attention is All You Need:https://research.google/pubs/pub46201/ Transformer:A Novel Neural Network Architecture for Language Understanding:https://ai.googleblog.com/2017/08/transformernovelneuralnetwork.html
2024-09-15
有什么模型是可以预测人的行为和发展的
以下是一些可以用于预测人的行为和发展的模型: 1. 思维模型: 战略与决策模型,如 SWOT 分析、MECE 原则等,专注于帮助个人或组织做出更好的决策和解决问题。 目标设定与执行的模型,如 SMART 原则、PDCA 循环等,提供了设置和实现目标的框架,确保行动的指向性和高效性。 系统思维模型,如反馈循环、杠杆点等,用于理解和处理复杂系统及其动态,促进整体观和互联性思考。 心理学模型,如认知偏误、习惯形成等,揭示人在认知和行为上的模式和偏差,帮助理解和预测人类行为。 学习与创新模型,如费曼学习法、思维导图等,旨在促进知识获取、深化理解和创造性思考。 2. Token 预测:看似简单的统计学技巧,其中蕴含巨大潜力。预测下一个语言符号(Token)的质量,反映了对语言背后隐藏的语义和知识的理解程度。一个足够强大的语言模型,可以模拟出超越现实的假想情况,通过人类数据进行推理和外推,从而有可能预测一个睿智、博学和能力非凡的人的行为举止。
2024-09-15
推荐几个好用的大语言模型
以下是一些好用的大语言模型: 1. OpenAI 的 GPT4:在多种任务上表现卓越,包括文本生成、理解、翻译以及各种专业和创意写作任务。 2. Anthropic 公司的 Claude 3:在特定领域和任务上有出色能力。 3. 谷歌的 Gemini。 4. 百度的文心一言。 5. 阿里巴巴的通义大模型。 此外,还有一些在特定方面表现突出的大语言模型,如: 1. Meta 的 Llama2 系列。 2. 评估中的 GPT3(包括 textada001、textbabbage001、textcurie001 和 textdavinci002)。 3. LaMDA(有 422M、2B、8B、68B 和 137B 参数的模型)。 4. PaLM(有 8B、62B 和 540B 参数的模型)。 5. UL2 20B。 6. Codex(OpenAI API 中的 codedavinci002)。 如果想了解国内的大模型效果,可以参考第三方基准评测报告: 。内容由 AI 大模型生成,请仔细甄别。
2024-09-14
有什么免费的AI图片生成工具
以下是一些免费的 AI 图片生成工具: 1. Canva(可画):https://www.canva.cn/ 是一个受欢迎的在线设计工具,提供大量模板和设计元素,用户通过简单拖放操作创建海报,其 AI 功能可协助选择颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ 稿定智能设计工具采用先进人工智能技术,自动分析和生成设计方案,稍作调整即可完成完美设计。 3. VistaCreate:https://create.vista.com/ 简单易用的设计平台,提供大量设计模板和元素,用户可用 AI 工具创建个性化海报,智能建议功能帮助用户快速找到合适设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ 通过简单拖放界面,用户可快速创建演示文稿、社交媒体帖子等视觉内容,还集成丰富模板库和自动图像编辑功能。 以下是一些图片生成 3D 建模工具: 1. Tripo AI:VAST 发布的在线 3D 建模平台,能利用文本或图像在几秒钟内生成高质量且可立即使用的 3D 模型,基于数十亿参数级别的 3D 大模型,实现快速 2D 到 3D 转换,并提供 AI 驱动的精准度和细节。 2. Meshy:功能全面,支持文本生成 3D、图片生成 3D 以及 AI 材质生成,用户上传图片并描述材质和风格可生成高质量 3D 模型。 3. CSM AI:支持从视频和图像创建 3D 模型,Realtime Sketch to 3D 功能支持通过手绘草图实时设计 3D 形象,再转换为 3D 模型。 4. Sudo AI:支持通过文本和图像生成 3D 模型,适用于游戏领域模型生成,用户上传图片或输入文本提示词生成 3D 模型。 5. VoxCraft:由生数科技推出的免费 3D 模型生成工具,能将图像或文本快速转换成 3D 模型,并提供图像到 3D、文本到 3D 和文本到纹理等多种功能。 以下是一些文生图工具: 1. DALL·E:OpenAI 推出的文生图工具,可根据输入文本描述生成逼真图片。 2. StableDiffusion:开源的文生图工具,能生成高质量图片,支持多种模型和算法。 3. MidJourney:因其高质量图像生成效果和用户友好界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您还可以在 WaytoAGI 网站查看更多文生图工具:https://www.waytoagi.com/category/104 请注意,内容由 AI 大模型生成,请仔细甄别。
2024-09-18
有什么根据文字生成图片的AI工具
以下是一些根据文字生成图片的 AI 工具: 1. DALL·E:由 OpenAI 推出,能根据输入的文本描述生成逼真的图片。 2. StableDiffusion:开源的文生图工具,可生成高质量图片,支持多种模型和算法。 3. MidJourney:因高质量的图像生成效果和用户友好的界面设计受到广泛欢迎,在创意设计人群中尤其流行。 您可以在 WaytoAGI 网站(https://www.waytoagi.com/category/104)查看更多文生图工具。 此外,从文本提示生成 2D 图像已经是生成性 AI 广泛应用的领域之一,像 Midjourney(https://www.midjourney.com/home/)、Stable Diffusion(https://stability.ai/blog/stablediffusionannouncement)和 DallE 2(https://openai.com/dalle2/)这样的工具可以从文本生成高质量的 2D 图像,并在游戏生命周期的多个阶段有应用。例如,在概念艺术方面,生成性 AI 工具能帮助非艺术家快速探索概念和想法,生成概念艺术作品,加速创作流程。
2024-09-18
有没有自动生成专利申请文件的平台
以下是一些可以自动生成专利申请文件的平台: 1. Specifio:利用 AI 技术自动生成专利申请文件,包括专利说明书和权利要求书,能提高专利申请的效率。 2. PatentPal:使用 AI 技术自动生成和编辑专利申请文件,可减少人工工作量。 在专利小助手中,还有以下插件可用于相关工作: 1. Kimi:可以用于自动生成专利申请文档的草稿、摘要或专利描述,提高文档撰写效率。 2. TreeMind 树图:可以用来创建专利结构的思维导图,帮助用户理解专利的组成部分和它们之间的关系。 3. ProcessOn 流程图:可以用于设计和展示专利申请和管理的详细流程,帮助用户理解每一步的操作和所需材料。 4. Word 文档:可以用来处理专利申请文件、专利描述、权利要求书等文档。 使用这些平台通常需要以下步骤: 1. 注册和登录:在对应的平台上注册账户并登录。 2. 上传专利文献:上传待审查的专利文献或输入检索关键词。 3. 选择分析功能:根据需要选择专利检索、分析、评估或生成功能。 4. 查看结果和报告:查看 AI 生成的检索结果、分析报告和评估结果。 5. 进一步处理:根据分析结果进行进一步的人工审查和处理,或者直接生成专利申请文件。
2024-09-18
我想通过AI快速生成专利
以下是关于通过 AI 快速生成专利的相关信息: 专利审查方面的 AI 使用步骤: 1. 注册和登录:在对应的平台上注册账户并登录。 2. 上传专利文献:上传待审查的专利文献或输入检索关键词。 3. 选择分析功能:根据需要选择专利检索、分析、评估或生成功能。 4. 查看结果和报告:查看 AI 生成的检索结果、分析报告和评估结果。 5. 进一步处理:根据分析结果进行进一步的人工审查和处理,或者直接生成专利申请文件。 自动化专利申请的示例平台: 1. Specifio:利用 AI 技术自动生成专利申请文件,包括专利说明书和权利要求书,提高专利申请的效率。 2. PatentPal:使用 AI 技术自动生成和编辑专利申请文件,减少人工工作量。 专利检索与分类:AI 可以帮助进行高效的专利检索和分类,通过自然语言处理(NLP)和机器学习算法,自动识别和分类专利文献。
2024-09-18
AI生成的图片是原创吗 有没有借鉴
在全国首例 AI 生成图片著作权案例中: 法官承认依靠使用者的输出设计生成的图片属于美术作品,具有独创性和智力投入,受著作权保护,能鼓励创作,为艺术创作提供支持和新思路,节省创作成本。 根据相关法律规定,我国著作权作者仅限于自然人、法人或非法人组织,人工智能软件本身不能成为作者。 Stable Diffusion 模型根据文本指令生成图片,不是调用现成图片或排列组合预设要素,生成的图片取决于使用者输入的提示词,难以出现完全相同的两张输出图片,类似于画笔,图画构造取决于使用者设计。 人工智能不具备自由意志,使用者根据自己的审美个性,通过增删提示词、修改参数得出不同图片并选定,体现使用者的智力和独创思想,如同使用相机拍摄时的调节。 软件设计者对模型设计投入智力成果,但后续生成内容与设计者关系不大。图片由创作者根据个人意愿得出,应成为作者并享有著作权。 尽管 AI 是工具,法院强调著作权仍属于人类创作者,保护人类在知识产权领域的权益,鼓励利用 AI 技术创作艺术作品。 在未显示作者身份信息的情况下使用图片构成侵权。
2024-09-18
文字生成PPT的AI工具是什么?免费的
以下是一些文字生成 PPT 的免费 AI 工具: 1. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用科大讯飞在语音识别和自然语言处理领域的技术优势,可能提供智能文本生成、语音输入、文档格式化等功能,旨在提高文档编辑效率。网址:https://zhiwen.xfyun.cn/ 2. 歌者 PPT:是一款永久免费的智能 PPT 生成工具(gezhe.com)。它完全免费,智能化程度高,能快速将各种资料转换成精美的 PPT,模板和案例库丰富,支持多语言,几乎无需学习成本就能上手使用。 目前市面上大多数 AI 生成 PPT 按照如下思路完成设计和制作: 1. AI 生成 PPT 大纲 2. 手动优化大纲 3. 导入工具生成 PPT 4. 优化整体结构 推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》
2024-09-18