直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

Way to AGI里所有COMFYUI工作流

回答

以下是关于 ComfyUI 工作流的相关内容:

  • 打开节点树的列表,可以看到文生图、图生图以及 ControlNet 等常见工作流。选择文生图,会有更细化的预设工作流选项,ControlNet 中也有工作流预设,还有根据插件整理的丰富工作流。例如可选择“文生图”中的“基础+自定 VAE”,选好后点击“替换节点树”,界面会出现已连接好的工作流节点,包括大模型、clip、vae、正反提示词、尺寸、采样器等熟悉的参数,且是中文面板。不了解操作的可参考上一篇【ComfyUI】本地部署 ComfyUI 上手指南。
  • 国内的 ComfyUI 工作流网站有:
    • eSheep 电子羊 AIGC 社区 https://www.esheep.com/app ,主页点击工作流/应用分区,即可浏览、下载或在线运行各类工作流。
    • AIGODLIKE https://www.aigodlike.com/ ,下拉选取“ComfyUI 奥术”,即可查看其他用户上传的 ComfyUI 生成图片,保存或复制参数皆可读取到图片中的工作流。
  • 在完成准备工作后运行 ComfyUI,默认版本不支持模型版本和 node 管理,需安装 ComfyUI Manager 插件。工作流下载好后,可使用 ComfyUI 菜单的 load 功能加载,点击菜单栏「Queue Prompt」开始视频生成,通过工作流上的绿色框查看运行进度,最后在 ComfyUI 目录下的 output 文件夹查看生成好的视频。若生成视频时出现显存溢出问题,请另行处理。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

【ComfyUI】Blender+Stable Diffusion!少年啊,这盛世如你所愿!(附中文汉化插件)

打开节点树的列表,可以看到我们熟悉的文生图、图生图以及controlnet等常见工作流。我们选择文生图,打开发现还有一些更细化的预设工作流选项。再看看controlnet中的工作流预设。还有一些根据插件整理的工作流,可谓是相当丰富了。我们就先随便选择一个“文生图”中的“基础+自定VAE”吧。选好之后,点击“替换节点树”。界面中就出现了已经连接好的工作流节点(如果没看到,就按一下home键),包括大模型、clip、vae、正反提示词、尺寸,采样器等所有我们在webUI中都已经熟悉的参数,而且全都是中文面板。打开模型节点,可以看到我们webUI中的模型全部都在。这个地方不知道怎么操作的朋友,可以看我的上一篇[【ComfyUI】本地部署ComfyUI上手指南,我就喜欢连连看](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487895&idx=1&sn=aa21eede16dfe4bde7e0e93e353f7357&chksm=c2514753f526ce451175f654a93f48b526fc6de3e3b1564b218db41f7e3f99df5a84bb887043&scene=21#wechat_redirect)。

第1课:初始界面与基础操作

1.eSheep电子羊AIGC社区https://www.esheep.com/app主页点击工作流/应用分区,即可浏览、下载或在线运行各类工作流。1.AIGODLIKE https://www.aigodlike.com/下拉选取“ComfyUI奥术”,即可查看其他用户上传的ComfyUI生成图片,保存或复制参数皆可读取到图片中的工作流。

Stable Video Diffusion模型核心内容与部署实战

在以上准备工作完成后,我们就可以开始运行ComfyUI了!在命令行终端:在浏览器上输入上面的url地址,出现如下界面:此时,默认的ComfyUI版本不支持模型版本和node管理,这会导致安装和卸载模型时会非常麻烦!因此,我们需要安装一个ComfyUI Manager插件!再次运行python main.py,就会出现Manager菜单了!!!接下来,我们就可以跑文生视频的工作流了!!!关于工作流,我也给大家准备好了,同样放到百度网盘链接了,关注公众号「魔方AI空间」,回复【SVD】即可获取!!工作流下载好后,我们可以使用ComfyUI菜单的load功能,进行工作流的加载!然后,点击菜单栏「Queue Prompt」就可以开始视频的生成啦!我们可以通过工作流上的绿色框看到运行的进度!!!最后,我们可以去ComfyUI目录下的output文件夹查看生成好的视频!如果我们在生成视频的过程中,出现显存溢出的问题,请往下看!!

其他人在问
waytoAGI是什么,现在你要给学校老师介绍,列出相关的数据
WaytoAGI 是由一群热爱 AI 的狂热爱好者、专家共同建设的开源 AI 知识库。它诞生于 2023 年 4 月 26 日,在没有任何推广的情况下,一年时间已有超过 70 万用户和超千万次的访问量。 其知识库内容丰富,覆盖 AI 绘画、AI 视频、AI 智能体等多个版块,不仅有最新的 AI 教程、工具和一线实战案例,还有开放共享的 AI 知识体系,倡导共学共创等形式,孵化了如 AI 春晚、离谱村等大型共创项目。 WaytoAGI 不仅是一个普通的 AI 技术社区,更是一个汇聚 AI 行业顶尖创作者和 KOL 的思想交流平台,社区制作的优质作品多次登上央视首页,广受好评。社群的口号是“让更多的人因 AI 而强大”,有很多学社和共学共建的活动。您打开“waytoagi.com”就可以找到社群。
2024-09-18
waytoAGI是什么
WaytoAGI 是一个 AI 开源社区。在短短一年间,靠着口口相传拥有高达数千万的访问量。其知识库涵盖了 AI 领域的最新进展、教程、工具和一线实战案例,引领并推广开放共享的知识体系,倡导共学共创等形式,孵化了 AI 春晚、离谱村等大型共创项目。 WaytoAGI 不仅是一个普通的技术社区,更是一个汇聚行业顶尖创作者和 KOL 的思想交流平台,社区制作的优质作品多次登上央视首页,广受好评。 WaytoAGI 是由一群热爱 AI 的专家和爱好者共同建设的开源 AI 知识库,目前知识库的内容覆盖:AI 绘画、AI 视频、AI 智能体、AI 3D 等多个版块,包含赛事和活动促进大家动手实践。 离谱村是由 WaytoAGI 孵化的千人共创项目,让大家学习和接触 AI 更容易、更感兴趣。这里的参与者不分年龄层,一起脑洞和创意,都可以通过 AI 工具快速简单地创作出各种各样的作品。 “通往 AGI 之路「WaytoAGI」是一个由开发者、学者和有志人士等等参与的学习社区和开源的 AI 知识库。在这里,每个人既是知识的消费者,也是知识的创作者。它不仅是一个知识库,更是连接学习者、实践者和创新者的社区,让大家在这里碰撞思想,相互鼓舞,一同成长。
2024-09-18
学习agi的计划
以下是一份关于学习 AGI 的计划: 日程安排: 8 月 15 日 20:00 22:00:基础原理 + 放大流,授课老师为郭佑萌,详情可参考。 8 月 16 日 20:00 22:00:要点回顾&提示词,授课老师为郭佑萌,作业为。 8 月 20 日 20:00 22:00:提示词深度解析 + controlnet,详情可参考。 8 月 21 日 20:00 22:00:Snap 老师分享,详情可参考。 对于中学生学习 AI 的建议: 1. 从编程语言入手学习:可以从 Python、JavaScript 等编程语言开始,学习编程语法、数据结构、算法等基础知识,为后续的 AI 学习打下基础。 2. 尝试使用 AI 工具和平台:可以使用 ChatGPT、Midjourney 等 AI 生成工具,体验 AI 的应用场景。也可以探索一些面向中学生的 AI 教育平台,如百度的“文心智能体平台”、Coze 智能体平台等。 3. 学习 AI 基础知识:了解 AI 的基本概念、发展历程、主要技术如机器学习、深度学习等。学习 AI 在教育、医疗、金融等领域的应用案例。 4. 参与 AI 相关的实践项目:可以参加学校或社区组织的 AI 编程竞赛、创意设计大赛等活动。尝试利用 AI 技术解决生活中的实际问题,培养动手能力。 5. 关注 AI 发展的前沿动态:关注 AI 领域的权威媒体和学者,了解 AI 技术的最新进展。思考 AI 技术对未来社会的影响,培养对 AI 的思考和判断能力。 总之,中学生可以从编程基础、工具体验、知识学习、实践项目等多个方面入手,全面系统地学习 AI 知识和技能,为未来的 AI 发展做好准备。但请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-09-15
waytoagi 的知识库问答是如何实现的?
waytoagi 的知识库问答是基于 RAG 机制实现的。具体步骤如下: 1. 创建一个包含大量社区 AI 相关文章和资料的知识库,例如创建有关 AI 启蒙和信息来源的知识库,并通过手工录入的方式上传栏目的所有文章内容,然后陆续将社区其他板块的文章和资料导入到知识库中。 2. 在设计 Bot 时,添加这个知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,尽可能好地利用知识库返回的内容进行结合回答。 RAG 机制,全称为“检索增强生成”(RetrievalAugmented Generation),是一种用于自然语言处理的技术。它结合了检索和生成两种主要的人工智能技术,以提高机器对话和信息处理的能力。简单来说,RAG 机制先从一个大型的数据集中找到与当前问题相关的信息(检索),然后使用这些检索到的信息来帮助生成更准确、更相关的回答(生成)。可以把它想象成这样一个场景:当问一个很复杂的问题时,RAG 机制先去一个巨大的图书馆里找到所有相关的书籍,然后基于这些书籍中的信息来给出详细的回答。这种方法让机器在处理信息时更加精确,因为它结合了大量的背景信息和先进的语言模型的能力,使得生成的内容不仅依赖于模型本身的知识,还融入了具体、相关的外部信息,这对于提升对话 AI 的理解力和回答质量非常有帮助。
2024-09-14
怎么查找别人在Way to AGI分享的工作流
以下是在 Way to AGI 查找别人分享的工作流的相关信息: 8 月 15 日基础原理+放大流:https://waytoagi.feishu.cn/wiki/WzohwJSVAi3ad4k9YG7c5kjtnEb 8 月 16 日要点回顾&提示词:https://waytoagi.feishu.cn/wiki/HNBiwABRfi8qygkRZLxchyHPnOh 8 月 20 日提示词深度解析+controlnet:https://waytoagi.feishu.cn/wiki/L8jGwr3zRimjKXkHhCNcbTt8n1I 8 月 21 日 Snap 老师分享:https://waytoagi.feishu.cn/wiki/LBXAwCLKbi5RBqky9uUcGuxJnYc 相关课程的回放链接: 第三课:https://waytoagi.feishu.cn/minutes/obcn6a472tbtyxv9jo5z6c45 第四课:https://waytoagi.feishu.cn/minutes/obcn8147obu7n16au2pcm2ql?from=from_copylink 深度拆解工作流:https://waytoagi.feishu.cn/minutes/obcn9py3776epl88f4k6185n?from=from_copylink
2024-09-13
必须知道的最常用的名词解释比如GPU、AGI等等、列举出来按照重点排序
以下是按照重点排序的一些常用名词解释: 1. 算力:字面意思是计算能力,可简单理解为 GPU,即电脑里的显卡,购买云服务时,服务商也是购买显卡“租”给用户使用。一张显卡除了 GPU 外,显存也是重要参数。 2. GPU:图形处理器,又称显示核心、视觉处理器、显示芯片,是在个人电脑、工作站、游戏机和一些移动设备上做图像和图形相关运算工作的微处理器。 3. CPU:中央处理器,作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。 4. 显存:也被叫做帧缓存,作用是存储显卡芯片处理过或者即将提取的渲染数据,如同计算机的内存,是用来存储要处理图形信息的部件。
2024-09-13
comfyui flux相关的教程
以下是关于 ComfyUI Flux 的教程: 安装及使用: 模型放置: t5xxl_fp16.safetensors:放在 ComfyUI/models/clip/目录下。 clip_l.safetensors:放在 ComfyUI/models/clip/目录下。 ae.safetensors:放在 ComfyUI/models/vae/目录下。 flux1dev.safetensors:放在 ComfyUI/models/unet/目录下。 下载地址: 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 工作流下载:上面提供的工作流复制即可,或者使用官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,将工作流或图片拖拽到 ComfyUI 里。 ComfyUI 共学相关: 插画提效成果显著,原本需要 200 人美术团队一年多完成的 1 万多张动画插画,最终不到 10 人用半年完成。 课程从零基础开始,从认识 config、UI 及行业概念讲起,逐步深入到环境部署、底层技术概念、提示词等内容。 介绍 config 牛角尖大王系列,包括 control net、IP Adapter、图像放大、mask 等部分,阐述了它们的作用和玩法。 具备搭建复杂工作流能力,学习相关知识后初步具备搭建复杂工作流能力,会拆解分析网上热门工作流。 解决 config UI 报错问题,报错问题可分为网络、模型、工作流搭建、环境等方面,安装新插件时可参考项目地址的 requirement 文档。 规划实战案例思路,目前想到了三个实战案例的思路。 关于 config UI 生态及相关技术的分享,郭佑萌介绍课程提纲,包括课程可能的扩充、回顾总结及重点讲解 Flux 模型,实际课程不严格按大纲走,会根据大家接受程度和安排进行共学。
2024-09-16
在COMFYUI中使用FLUX大模型时,怎么才能让多次生成的人物一致
在 ComfyUI 中使用 FLUX 大模型让多次生成的人物一致的方法如下: 控制人物在多场景、多个姿势下的一致性有很多方法,课程后期会介绍。 对于多张图输出的显示问题,一次产出多张图在预览窗口目前不能并排显示。 Lora 的刷新:将 Lora 丢到文件夹后,多点几次刷新即可,Web UI 中 Lora 库有刷新按钮。 另外,在 Midjourney 中,人物一致性已上线,其操作如下: DavidH 介绍:Hey @everyone @here we're testing a new "Character Reference" feature today This is similar to the "Style Reference" feature, except instead of matching a reference style it tries to make the character match a "Character Reference" image. 具体操作:Type cref URL after your prompt with a URL to an image of a character. You can use cw to modify reference 'strength' from 100 to 0. strength 100 . 适用范围:This feature works best when using characters made from Midjourney images. It's not designed for real people / photos . 网页端操作:How does it work on the web alpha? Drag or paste an image into the imagine bar, it now has three icons. Selecting these sets whether it is an image prompt, a style reference, or a character reference. Shift + select an option to use an image for multiple categories. 在 ComfyUI 中处理模型连接和提示词相关问题,如让两个模型同时起作用的操作: 加入一个新节点,右键点击 【新建节点】 【实用工具】 【Primitive 元节点】。 在文本节点上单击右键,选择【转换文本为输入】,此时文本节点上就多了一个文本的连接点。 将元节点与文本节点相连接,元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。 再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。
2024-09-13
学习comfyui有哪些技术或者文章可以学习和参考?
以下是一些学习 ComfyUI 的技术、文章和资源: 飞书学习群中的相关内容: 陈旭常用节点讲解和简单的节点制作 长风归庭基础教程+工作流创建 ヘヘ阿甘采样器原理与优化 王蓉🍀 🎈 Wang Easy 基础搭建和转绘 唯有葵花向日晴基础教程,工作流开发,实际应用场景 热辣 HuolarrAI 系统课私聊图生视频 咖菲猫咪基础教程/工作流搭建思路/各版本模型使用的优缺点 傅小瑶 Lucky 如何制作多人转绘视频 云尚工作流节点搭建思路 FǎFá 热门节点功能,搭建 森林小羊基本报错解决方式及基础工作流逻辑分析 苏小蕊基础教程 Sophy 基础课程 蜂老六装一百个最新常用插件后如何快速解决冲突问题 阿苏工作流框架设计 aflyrt comfyui 节点设计与开发 老宋&SD 深度解释虚拟环境部署和缺失模型的安装 Liguo 模型训练 啊乐福基础课程 塵优秀案例 风信基础课程➕平面设计应用场景 北南基础课程 视频工作流框架设计 8 月 13 日 ComfyUI 共学的相关内容:算力和资源获取方面,飞翔提供了 50 个小时的算力时间,可在飞书群填问卷获取,分享模型较少可提建议,相关文档在飞书和公众号中。AI 绘图相关技术与工具的介绍及交流公众号文章包含 AGI 相关信息:通往 AGI 之路的公众号最新文章中有相关信息,内置工作流和启动器方便,Mac 系统因无 CUDA 生态不太好用。推荐提示词辅助插件:如 SDXL 的 S1XL style,可对提示词进行风格化扩充,还有能翻译提示词的插件,如沙拉查词、沉浸式翻译等。解释 CLIP 和 CFG 的区别:CLIP 用于解析提示词,将其转化为模型可理解的向量,CFG 是提示词对画面影响的强度,即提示词引导系数。搭建带 Lora 的图生图工作流:介绍了加载模型、设置 clip 跳过层、处理图像、连接采样器和解码器等步骤,并展示效果。关于 Lora 串联和图像放大模型的讨论 Lora 串联:多个 Lora 串联时左右顺序不影响结果,可复制并点对点连接。CLIP 层调整:CLIP 层1 和2 的效果不同,加 Lora 时某些 Lora 可能更适合2。 相关网站: ComfyUI 官方文档:提供了 ComfyUI 的使用手册和安装指南,适合初学者和有经验的用户。可在找到相关信息。 优设网:提供了一篇详细的 ComfyUI 入门教程,适合初学者,详细介绍了 ComfyUI 的特点、安装方法以及如何使用 ComfyUI 生成图像等内容。教程地址是。 知乎:有用户分享了 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解 ComfyUI 的用户。可在找到相关教程。 Bilibili:提供了一系列的 ComfyUI 视频教程,涵盖了从新手入门到精通的各个阶段。可在找到视频教程。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-09-12
Flux 的lora模型训练教程,我想用用diffuser代码训练,而不是webui或comfyui
以下是关于 Flux 的 lora 模型训练的相关信息: Flux GGUF 模型:https://huggingface.co/city96/FLUX.1devgguf/tree/main GGUF 配套节点插件:https://github.com/city96/ComfyUIGGUF 在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,但 NF4 的配套节点插件搜不到。 注意使用精度优化的低配模型时,工作流和原版不同。把官方的 fp8 工作流中底模的节点换成 NF4 或者 GUFF 即可。 相关生态发展迅速,有 Lora、Controlnet、IPadpter 相关生态建设,字节最近发布的 Flux Hyper lora 可用于 8 步快速生图。下节将先讲讲 Flux 的 lora 训练。
2024-09-05
Error occurred when executing IPAdapterAdvanced: insightface model is required for FaceID models File "D:\AI\comfyui_20240421\execution.py", line 151, in recursive_execute output_data, output_ui = get_output_data(obj, input_data_all) File "D:\AI\co
以下是针对您所遇到的报错问题的一些解决建议: 1. 对于 ipadater 部分报错说 model 不存在的情况,将文中画圈部分修改调整到不报错。Pulid 部分,除了下载好对应的节点以及参考官方网站最下面的安装对应要求外,还要注意上图中的第二要点,对应安装一些内容,具体要求可查看云盘中命名为“pulid 插件模型位置.png”的文件及对应的云盘链接:PulID 全套模型,链接:https://pan.baidu.com/s/1ami4FA4w9mjuAsPK49kMAw?pwd=y6hb,提取码:y6hb。否则将会遇到报错:Error occurred when executing PulidEvaClipLoader。 2. 对于 Ollama 大模型部分,为了应对没下载大模型带来的报错,需要下载大模型。首先,下载 ollama,网站: 。 3. 如果缺少 ipadapter 的模型,可去这个网址下载:https://github.com/cubiq/ComfyUI_IPAdapter_plus 。如果遇到“Error occurred when executing IPAdapterUnifiedLoader:ClipVision model not found.......”类似的报错,可在这个网址里找到多个关于 IPAdapter 报错的解决办法:https://github.com/cubiq/ComfyUI_IPAdapter_plus/issues/313 。 另外,换脸工作流的核心组件是 Apply InstantID Advanced 节点,这个节点的作用就是将源人脸替换到目标图像中。其中,instantID 模型擅长提取图片的高层次特征,包括面部的纹理信息、几何结构、风格特征等,在图中例子是 IPAdpater,用于识别和保留目标图像 image_kps 的风格并迁移到生成图像中。instantID Face Analysis 节点用于提取人脸五官的特征向量,作用是使生成图像时,人脸的眼睛、鼻子、嘴巴等样子仍然符合源人脸 image 的特征。controlnet 模型的作用是识别目标图像 image_kps 的低层次特征,包括骨架、姿势、边缘、结构。controlnet 模型和 instantID 模型起到不同的控制作用,结合使用可以达到将源人脸的五官替换目标图像中五官的效果。
2024-09-03
comfyui管理器下载网站
以下是 ComfyUI 管理器的下载网站: 推荐安装管理器插件,下载地址:https://github.com/ltdrdata/ComfyUIManager 资源占用视图的插件下载地址:https://github.com/crystian/ComfyUICrystools 此外,关于 ComfyUI 管理器还有以下相关信息: 安装完成管理器插件后,控制面板最下面会出现“管理器”按钮,点开可看到“ComfyUI 管理器”界面,可关掉“跳过更新检查”以自动检查插件更新,点击“安装节点”可进入插件管理界面进行插件下载、更新等操作。 若在本地环境下安装 Manager,可参考 Github 下载地址(作者在页面里提供了文件包以及安装方法):https://github.com/ltdrdata/ComfyUIManager
2024-09-02
runaway的prompt编写
以下是关于 Runway 官方镜头提示词的相关内容: Prompt Structures 提示结构: 使用这种结构,提示一个女人站在热带雨林可能是这样的。 在提示的不同部分重复或强调关键思想可提高输出一致性。例如在超高速拍摄中,相机会快速飞过场景。应将提示集中在场景中应出现的内容上,比如输入晴朗的天空,而非没有云的天空。 协助镜头画面描述的提示词: 样品说明: 1. Seamless Transitions 无缝转换 1. Camera Movement 相机移动 1. Text Title Cards 文本标题卡 1. Prompt Keywords 提示关键词 关键字有助于在输出中实现特定样式。确保关键字与整个提示符保持一致,会使其在输出中更明显。例如,包括关于皮肤纹理的关键字对于相机未紧密聚焦在面部的广角拍摄没有好处,广角镜头可能受益于环境的其他细节。在保持这种凝聚力的同时,可尝试不同的关键字。
2024-09-18
runway教程
以下是关于 Runway 的教程信息: 官方使用教程:https://academy.runwayml.com/ 知识库详细教程: 简单介绍:支持文生视频、图生视频、视频生视频。文生视频支持正向提示词、风格选择、运镜控制、运动强度控制、运动笔刷(https://academy.runwayml.com/gen2/gen2motionbrushinterface),支持 16:9、9:16、1:1、4:3、3:4、21:9 尺寸,可设置种子值。图生视频、视频生视频除了尺寸不可选以外,其他跟文生视频基本相同。生成好的视频可以延长时间,默认生成 4s 的视频。 Runway 网页:https://runwayml.com/ 5 分钟,手把手入门:
2024-09-17
runway的探索模式是什么
Runway 是一个针对视频创作者需求,提供 AI 辅助工具的平台,如视频编辑、绿幕移除、图像修复和运动跟踪等。目前尚未看到针对游戏领域类似 Runway 的套件出现,但此领域正在积极开发中。此外,关于华人数学家陶哲轩在天空之城的探索模式,他详细记录了使用 Blueprint 在 Lean4 中形式化证明的过程,强调了正确使用 AI 工具的重要性。利用 Blueprint 工具,陶哲轩团队分解证明过程,通过众多贡献者并行工作成功形式化了 PFR 猜想。陶哲轩认为形式化证明的主流化或创造既人类可读又机器可解的证明,将数学演变成一种高效的编程。2000 多年来,欧几里得的文本一直是数学论证和推理的范式,到 20 世纪以后,数学家们开发了正式的系统,最近,开源证明助手系统 Lean 再次引发大量关注,陶哲轩成功地用 AI 工具完成了形式化多项式 FreimanRuzsa 猜想证明过程的工作,并再次呼吁数学研究者学会正确利用 AI 工具。
2024-09-17
runway视频转绘用法
以下是关于 runway 视频转绘的用法: 转绘教程(Ebsynth Utility): 选择前面模糊的片段,点击 DELETE 键或退格键删除。处理完视频后,点击右上角的导出按钮导出新视频,注意导出名称最好使用英文。 注意事项: 校准:有时下载的视频可能不是标准比例,需用剪影处理。若不处理,由于 SD 图片绘制分辨率按 8 的倍数增加,即使绘制时按原视频分辨率,最后视频合成仍可能报错,一定要检查。 视频缩小:老板给的 4K 视频,SD 最大只能完成 20482048 的绘制,往上无法完成且制作时间大幅上升。 分辨率模糊的视频:若客户要求强烈,可先提升分辨率(推荐使用 TopazVideoAI 插件),不行则放弃。 图片生成视频: 进入 runway 官网首页,点击 start with image,然后直接将图片拖进来。 动画幅度尽量用 3、5,有时会乱跑。 不需要等进度条转完,可以直接继续往里放图片,可同步执行。 直接点删除,然后重新上传下面的图即可(最多可放数量可自行测试)。 图生视频(常规方法): 以汽车内饰片段为例,登录 runway 账户后,在首页左侧点击“Text/Imagine to Video”(文生视频/图生视频)。 点击 2 处将汽车内饰的图片上传到 runway 中。 1 处可更改生成图片所用到的大模型版本,数字越大代表模型越强,目前只有 Gen2 每天有免费额度。 3 处用于输入提示词。 4 处可以修改生成的视频时长为 5s 或 10s,时长越长,生成的效果可能越不稳定。 5 处可以看到生成的结果。 提示词方框中输入的运镜方式“Roll Clockwise Shot slowly”,即摄像机围绕垂直轴顺时针旋转。不想动脑的话,每个片段的运镜方式根据分镜表的建议来即可。运镜提示词可参照: 。 很多时候提示词过多,生成的视频会很怪异,改变提示词,改变生成时长,多抽卡几次,毕竟 runway 会员可以无限抽卡。
2024-09-16
coze工作流中的消息节点如何在bot中使用
在 Coze 工作流中,消息节点在 Bot 中的使用如下: 1. 消息节点支持在工作流执行过程中返回响应内容,可解决回复消息内容多或工作流长导致用户无法及时收到响应的问题。它支持流式和非流式两种消息模式。 2. 一个消息节点包含以下配置: 输出变量:配置输出变量,可将其添加到下方的回答内容区域中,Bot 调用工作流时只会回复设定的“回答内容”,这些变量也可在配置卡片时使用。 回答内容:工作流运行时,Bot 将直接用这里指定的内容回复对话,可使用{{变量名}}的方式引用输出参数中的变量。 流式输出: 默认关闭,即采用非流式输出,待接收到全部消息内容后,再一次性输出全部消息内容。 开启流式输出后,上一节点一边生成回复内容,一边通过消息节点进行输出,不需要等待全部内容都加载完后再返回,类似于打字机的效果。 3. 在 Coze 中,消息组件是常用的工作流节点,用于实现工作流在执行途中与用户之间的交互。默认情况下,消息组件的流式输出功能是关闭的,当面对长文本或希望优化用户体验时,可以启用流式输出,以提升用户体验,例如在实时聊天 Agent 中,能显著提高用户的参与度和满意度。
2024-09-18
AI工作流
以下是关于 AI 工作流的相关内容: 目前使用 AI 的固定且优化的工作流包括: 1. 起床时,让 AI 如“马云”“马化腾”为自己排 TODO 优先级,并进行私董会的脑暴。 2. 工作中有傲娇的 AI 小助理加油,其 Prompt 为要阳光、会撒娇/卖萌。 3. 重点事项 bot 方面,如内容创作,拆成 bot 团队组,包括选题、标题、框架、扩写等,并分 A/B 组两个 AIbot 互相改,要点是提供反常识、梗,学习喜欢的 UP 创作方法论。 4. 优化的 bot 包括内容选题 bot、短视频脚本 bot、数据分析 bot(GPT4)、网页 Perplexity 的资料库 bot 等。 5. 优化方面: Zion、ChatO 和自动化 AIAgent 分身,基于自身知识库的 bot。 将上述知识库、Prompt 资产,全部放入飞书的知识库+多维表单中维护,等待飞书的 AI 进化。 6. 备选:筛选过的 50 多个生产力 AI,放在工具库里,待命输出。 7. 未来:把整个公司业务全部搬入飞书中,外接 MJ、ChatBot 分身,以及咨询日程预约。 生成式 AI 的人机协同分为 3 种产品设计模式: 1. Embedding(嵌入式):人类完成大多数工作。 2. Copilot(副驾驶):人类和 AI 协同工作。 3. Agent(智能代理):AI 完成大多数工作。 Agentic Workflow 驱动角色工作流变革,使用 Multiagent Collaboration 的方法,让不同角色的 Agent 按照任务要求自主规划选择工具、流程进行协作完成任务。作为产品经理,可通过 Agents 拆解任务,遵循不同工作流,获得大体符合期望的输出结果再修改。 与传统 Prompt 从输入直接到输出的映射方式相比,LangGPT 提示词框架应用了 CoT(Chain of Thought)完成从输入到思维链再到输出的映射,即<input——>reasoning chain——>output>,其思维是“Let's think step by step。”(让我们一步一步思考) 在工作流设计方面: 1. RPA 软件很早就出现,目标是使符合某些适用性标准的基于桌面的业务流程和工作流程实现自动化,现在越来越多的 RPA 软件带上了 LLM。 2. ComfyUI 将开源绘画模型 Stable Diffusion 进行工作流化操作模式,用户在流程编辑器中配置 pipeline,通过不同节点和连线完成模型操作和图片内容生成,提高流程可复用性,降低时间成本,其 DSL 配置文件支持导出导入。 3. Dify.AI 的工作流设计语言与 ComfyUI 有相似之处,都定义了一套标注化的 DSL 语言,方便使用导入导出功能进行工作流复用。
2024-09-18
请列出COZE智能体工作流搭建的知识库
搭建 COZE 智能体工作流通常分为以下步骤: 1. 规划: 制定任务的关键方法。 总结任务目标与执行形式。 将任务分解为可管理的子任务,确立逻辑顺序和依赖关系。 设计每个子任务的执行方法。 2. 实施: 在 Coze 上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,并验证每个子任务的可用性。 3. 完善: 整体试运行 Agent,识别功能和性能的卡点。 通过反复测试和迭代,优化至达到预期水平。 此外,在搭建整理入库工作流时,首先新建工作流「url2table」,然后根据弹窗要求自定义工作流信息,并进行工作流全局流程设置。但关于调试飞书多维表格插件的使用方式,由于篇幅原因不在此详述。
2024-09-17
40岁的人能利用AI找到工作吗?
40 岁的人是有可能利用 AI 找到工作的。例如,Microsoft 正在将 AI 融入其网络安全产品 Security Copilot,这可能为相关领域的从业者带来新的机遇。同时,像利用 AI 打造的人生重开模拟器这样的应用,也展示了 AI 在创造各种工作相关情境方面的潜力。 然而,能否成功利用 AI 找到工作还取决于多个因素,如个人的技能水平、学习能力、对 AI 技术的掌握程度以及所从事行业对 AI 的应用程度等。如果 40 岁的人能够积极学习和适应 AI 相关的新技术、新工具,并将其应用于自身的职业发展中,那么找到工作的机会是存在的。
2024-09-16
我能利用AI找工作吗?或者利用AI赚钱
学习了 AI 有可能赚钱,但不能保证每个人都能成功。在人工智能领域,存在许多高薪工作,像数据科学家、机器学习工程师等,掌握 AI 技术有机会在这些岗位就业并获取可观收入。而且,AI 技术在金融、医疗、制造业等众多行业均有应用,具备 AI 技能能增加就业机会和促进职业发展。然而,能否赚钱还受多种因素影响,例如个人的学习能力、实际应用能力以及对市场和商业的理解等。仅掌握基础知识可能难以在竞争激烈的市场中胜出,需要持续学习和实践。 同时,随着 AI 变得更强大,创新者探索出更多新的应用方式,其具有巨大的潜力推动经济增长和创造工作岗位,能帮助提高劳动力效率和工作场所安全性,支持人们完成现有的工作。 但要注意,行业曾警告,如果监管不协调,可能导致大量小型企业离开市场,抑制创新和竞争。对于规模较小的企业和初创企业,确保监管负担不过重至关重要,因为它们在 AI 创新生态系统中扮演着重要角色,是经济增长和创造就业的引擎。
2024-09-16
如何在coze的bot中调用工作流?
在 Coze 的 bot 中调用工作流的方式如下: 采用 32K 的 kimi 模型,只有一条工作流。该工具有 5 个按钮:A、B、C、重新开始、结束并总结。按 A/B/C 时,会直接输入对应的字母文字。按结束并总结时,输入的依旧只是文字:“结束并立即总结医学知识点”。点击“重新开始”时,会直接调用一个工作流“emergency”,且这个工作流有两个必选参数:“疾病设置”和“难度设置”。在实际体验过程中,仅在提供“疾病设置”和“难度设置”时,工作流被调用,其他时候没有触发任何工具和工作流。 在外层 bot 中封装工作流的步骤为:点击「发布」发布工作流后,创建一个 bot 进行最终的工作流封装。具体过程包括:创建 Bot;填写 Bot 介绍;切换 Bot 模式为“单 Agent(工作流模式)”,因为此 Agent 只需在每次输入英文文章时返回精读结果,所以不需要用外层 bot 对输入进行其他任务理解,可直接调用工作流;把配置好的工作流添加到 Bot 中;填写开场白,引导用户使用,并关闭开场白预置问题,因为使用流程里用不到。
2024-09-15