Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何在Mac上运行comfyUI

Answer

在 Mac 上运行 ComfyUI 的步骤如下:

  1. 电脑配置:MacBook Pro,M1 芯片,16G 内存,Sonoma 14.6.1 系统版本。
  2. 部署 ComfyUI:
    • 安装依赖:在终端中输入“pip3 install -r requirements.txt”安装 ComfyUI 的依赖文件。终端提示需要特定版本的 numpy 时,输入“Y”卸载当前版本,然后输入“pip3 install numpy==1.26.4”安装指定版本。
    • 启动 ComfyUI:在终端中输入“pwd”查看 ComfyUI 的文件路径,复制文件路径,替换启动命令中的相应部分,然后将命令“source cf/bin/activate && cd /Users/vina/Documents/ComfyUI && python main.py --auto-launch --listen --dont-upcast-attention --output-directory ~/Desktop”复制到终端。启动成功后,浏览器会自动跳转,但网页地址可能不对,直接在浏览器打开“http://localhost:8188/”即可使用。
  3. 管理器和资源占用插件:官方的 ComfyUI 安装包不带管理器和资源占用视图,需要从 GitHub 下载。管理器插件下载地址:https://github.com/ltdrdata/ComfyUI-Manager 。资源占用视图插件装不装均可,下载地址:https://github.com/crystian/ComfyUI-Crystools 。

此外,还有一种搭建自己第一个 ComfyUI 的方法(熟手推荐 - 自定义创建):

  1. 创建工作空间:进入工作空间,点击自定义创建,按照以下内容配置,点击立即创建。镜像选择 lanrui-comfyui 镜像;网盘默认挂载;数据集默认挂载 sd-base;启动方式默认选择手动启动。待实例状态由启动中变为运行中后,稍等一会,点击进入 JupyterLab,选择 terminal 终端。
  2. 启动 ComfyUI:进入终端后,先参考这里配置学术加速。运行如下启动命令后按回车键,等待 1 分钟左右。(每次启动都需要输入启动命令)如果想要长时间持续运行任务,请用 nonhup 启动:启动命令“nohup bash /home/user/start.sh > comfy.log 2>&1 &”;查看启动/出图进度命令“tail -fn 500 comfy.log”;停止命令“pkill -9 -f '27777'”。当页面显示“To see the GUI go to:http://0.0.0.0:27777”,说明已启动成功。
  3. 访问 ComfyUI 界面:返回工作空间,点击实例右侧的「打开调试地址」到浏览器,就可以使用 ComfyUI 啦。

需要注意的是,在 Mac 上使用 ComfyUI 存在一些难点:

  1. 生图慢,因为 Mac M 只有 CPU,没有 GPU。
  2. 生图的大模型在 CPU 环境中不一定适配、好用。
  3. 用 Mac 生图的人少,能一起讨论的人也少,解决方案也少,需要自己摸索。
  4. 大神们在 Windows 系统里做的一键包,在 Mac 中不能用。
  5. 大神们的工作流也要做适配 Mac 的修改,需要一点点代码阅读和修改的能力。
Content generated by AI large model, please carefully verify (powered by aily)

References

维纳 Vina: MacBook Pro M1 跑通二狗子的黑神话工作流-ComfyUI 新手从0到1系列

MacBook Pro,M1芯片,16G内存,Sonoma 14.6.1系统版本。[heading2]缘起[content]我是一名AI生图零基础、代码零基础的产品经理,从8.13号开始跟着WaytoAGI社区的ComfyUI共学课学习,刚开始用云平台的应用,对新手来说非常友好,节点、模型都是内置的,打开就能上手。跟着共学课程,我在云平台学习了ComfyUI的基础用法。8.19号,AJ在共学群里发了[二狗子的黑神话悟空工作流](https://openart.ai/workflows/monkey_favorable_41/-ai/YIP0875LOCw3t5K78lkr),特别帅,我很想把这个模型跑起来。我在云平台尝试跑这个工作流,要么是环境不匹配,要么是模型太大上传到云很慢,于是我下决心要在本地部署一套ComfyUI,在本地跑起来。[heading2]Mac用ComfyUI的难点[content]我刚开始不明白,为什么AI生图领域喂饭的大神没有用Mac的,我后来在操作的过程中发现,在Mac部署确实有很多不方便的地方:1.生图慢,因为Mac M只有CPU,没有GPU。这可能是大神们不喜欢用Mac生图的最大原因。2.生图的大模型在CPU环境中不一定适配、好用。3.用Mac生图的人少,能一起讨论的人也少,解决方案也少,需要自己摸索。4.大神们在windows系统里做的一键包,在Mac中不能用。5.大神们的工作流也要做适配Mac的修改,需要一点点代码阅读和修改的能力。

维纳 Vina: MacBook Pro M1 跑通二狗子的黑神话工作流-ComfyUI 新手从0到1系列

在终端中输入pip3 install -r requirements.txt用来安装ComfyUI的依赖文件。终端提示,需要特定版本的numpy,终端询问是否卸载当前版本numpy,输入Y卸载,然后输入pip3 install numpy==1.26.4安装此版本的numpy。[heading2]启动ComfyUI[content]在终端中输入pwd,查看ComfyUI的文件路径,复制文件路径,替换启动命令中的背景色部分,然后将命令复制到终端,即可启动ComfyUI。启动ComfyUI的命令source cf/bin/activate && cd /Users/vina/Documents/ComfyUI && python main.py --auto-launch --listen --dont-upcast-attention --output-directory ~/Desktop启动成功后,浏览器会自动跳转到一个本地网页,但这个网页地址是不对的,直接在浏览器打开http://localhost:8188/这个地址,就可以使用ComfyUI了。[heading2]管理器和资源占用插件[content]官方的ComfyUI安装包是不带管理器和资源占用视图的,需要另外再从GitHub下载。推荐安装管理器插件,[下载](https://github.com/ltdrdata/ComfyUI-Manager)地址。资源占用视图的插件装不装我觉得都可以,在终端中也可以看到进度,不过资源管理插件看到的更详细,[下载](https://github.com/crystian/ComfyUI-Crystools)地址。

ComfyUI基础教程—小谈

进入工作空间,点击自定义创建,按照以下内容配置,点击立即创建(如图所示):镜像:选择lanrui-comfyui镜像;网盘:默认挂载;数据集:默认挂载sd-base;启动方式:默认选择手动启动;待实例状态由启动中变为运行中后,稍等一会,点击进入JupyterLab,选择terminal终端;[heading5]2、启动ComfyUI[content]进入终端后,请参考[这里](https://doc-rde.lanrui-ai.com/docs/yong-hu-shou-ce/gao-ji-she-zhi/xue-shu-wang-zhan-jia-su/)先配置学术加速运行如下启动命令后按回车键,等待1分钟左右。(每次启动都需要输入启动命令)如果想要长时间持续运行任务,请用nonhup启动:启动命令nohup bash /home/user/start.sh > comfy.log 2>&1 &查看启动/出图进度命令tail -fn 500 comfy.log停止命令pkill -9 -f '27777'当页面显示(如下图所示)“To see the GUI go to:http://0.0.0.0:27777”,说明已启动成功。[heading5]3、访问ComfyUI界面[content]返回工作空间,点击实例右侧的「打开调试地址」到浏览器,就可以使用ComfyUI啦。

Others are asking
用macbook M3 Pro芯片,comfyUI 跑工作流,结果黑屏,没有输出图像,是为什么呢
很抱歉,目前没有关于使用 Macbook M3 Pro 芯片运行 ComfyUI 工作流出现黑屏且无输出图像的具体原因的相关知识。可能的原因有多种,比如软件与芯片的兼容性问题、显卡驱动异常、工作流设置错误、系统资源不足等。建议您检查软件的版本是否与您的系统兼容,更新显卡驱动,确认工作流的设置是否正确,以及关闭其他占用大量资源的程序以释放系统资源。
2025-01-03
国内mac如何注册登陆chat gpt
以下是在国内 Mac 上注册登录 ChatGPT 的步骤: 1. 注册一个苹果的美区 ID: 电脑上打开 Apple ID 的注册页面:。 填写验证码后点继续。 到谷歌邮箱接收邮箱验证码。 接着验证手机号码。 验证完后会出现页面,此时美区 ID 已注册但未激活,切换到手机操作。 打开 App Store,点击右上角人形头像。 拉到最底下,点击退出登录,先退出国内的 ID。 之后再点击右上角人形头像。 手动输入美区 ID。 接着会收到短信进行双重验证。 现在随便找个软件下载。 此时会弹出提示,因为是新注册的 ID,需要点击“检查”进行激活。 点击同意,进入下一页填写美国地址。 最关键的一步:付款方式中没有选项“无”或者“none”时,只需要输入街道地址和电话。 至此,通过中国 IP、中国手机号、免信用卡成功注册一个美区 ID,就可以用这个美区 ID 下载例如小火箭(科学上网必备)、ChatGPT 等软件。 2. 下载 ChatGPT Mac 客户端(需要有 ChatGPT 付费账号,以及网络技术基础): 下载地址:persistent.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg。 使用 Proxyman、Charles 或喜欢的网络代理来进行以下操作:以 ProxyMan 为例。 登录一次以触发 API 调用。 对 ChatGPT 的 App 启用 SSL 代理(需要配置好 ProxyMan 证书)。 再登录一次以触发 API 调用。 然后右键点击 ab.chatgpt.com/v1/initialize 选择本地映射,并将所有的 false 替换为 true。 再尝试一次,应该能顺利登录。
2024-12-23
Mac部署stable diffusion
在 Mac 上部署 Stable Diffusion 存在一定限制,功能可能不全且出错率偏高,严重影响使用体验。个人建议升级设备或者采用云服务器玩耍。 如果您仍想在 Mac 上部署,可以参考以下步骤: 1. 电脑硬件要求: 系统:无明确针对 Mac 的特定系统要求。 显卡:未明确针对 Mac 的显卡要求。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 2. 环境安装: 未提供 Mac 系统下的具体环境安装步骤。 由于 Mac 系统的特殊性,更推荐您采用云端部署的方式,相关教程可参考:https://qa3dhma45mc.feishu.cn/wiki/A6WYw1Nm0ikGplkuO9Ecwomqnnd
2024-11-06
Mac有Chat GPT客户端吗
Mac 有 Chat GPT 客户端,以下是相关信息: 下载地址: persistent.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg 或者:https://waytoagi.feishu.cn/file/I58PbrukKoXYdVxEF0EcY9SXnBf 下载不了可以用百度云链接:https://pan.baidu.com/s/1jFZ5uBClqP0T1IOKQLW5HQ?pwd=hmbe 提取码:hmbe 或者:https://persistenNt.oaistatic.com/sidekick/public/ChatGPT_Desktop_public_latest.dmg 使用条件: 需要苹果芯片的 mac。 内测用户(非内测用户使用指南: )。 macOS 12.6.8 M1 芯片不兼容,系统版本 MacOS 14 及以上。 提前下载使用 ChatGPT Mac 桌面客户端的办法(需要有 ChatGPT 付费账号,以及网络技术基础): 以 ProxyMan 为例: 登录一次以触发 API 调用。 对 ChatGPT 的 App 启用 SSL 代理(需要配置好 ProxyMan 证书)。 再登录一次以触发 API 调用。 然后右键点击 ab.chatgpt.com/v1/initialize 选择本地映射,并将所有的 false 替换为 true。 再尝试一次,你就应该能顺利登录了。 详细版图文教程:
2024-11-01
MacBook如何做一些AIGC软件布置
很抱歉,目前知识库中没有关于“MacBook 如何做一些 AIGC 软件布置”的相关内容。但一般来说,您可以通过以下步骤尝试在 MacBook 上进行 AIGC 软件的布置: 1. 确定您想要安装的 AIGC 软件,并在其官方网站上查找适用于 macOS 系统的版本。 2. 检查您的 MacBook 系统版本是否满足软件的要求,如果不满足,可能需要进行系统更新。 3. 下载软件安装包,通常可以在官方网站上找到下载链接。 4. 打开下载的安装包,按照安装向导的指示进行操作,可能需要您同意许可协议、选择安装位置等。 5. 安装完成后,在应用程序文件夹中找到并打开该软件,进行必要的设置和配置。 请注意,不同的 AIGC 软件可能会有略微不同的安装和配置步骤,具体还需根据您选择的软件来操作。
2024-09-25
stable diffusion可以用macbook 13来运行吗?配置够吗
Stable Diffusion(简称“SD”)的运行对电脑配置有一定要求。对于 Windows 系统: 显卡:必须是 NVIDIA(俗称 N 卡)。 专用 GPU 内存:4GB 勉强可以跑动 SD,出图时间较长;6GB 出一张图时间为 20 50 秒,大部分功能可用;8GB 5 20 秒出一张图,所有功能基本开放。 电脑运行内存:8GB 以上。 电脑系统:Win10 或者 Win11。 对于 Mac 系统,可以查看以下视频进行一键安装:https://www.bilibili.com/video/BV1Kh4y1W7Vg/?spm_id_from=333.788&vd_source=6f836e2ab17b1bdb4fc5ea98f38df761 但具体 MacBook 13 是否能运行及配置是否足够,还需根据上述标准进行对照检查。
2024-09-16
ComfyUI_LayerStyle
ComfyUI_LayerStyle 相关内容如下: 加载模型部分: 下好工作流中的所需三张图片“SeasonYou_Reference、BG、MASK”以及上传自己所需的照片到 Input 部分。右上角放自己的人像图片(非人像会报错提示“no face detected”)。 对于 vae 加载器部分,选择 xl 版本(因为大模型用的 xl)的 vae 即可。 对于 ipadater 部分,倘若加载器部分报错说 model 不存在,将文中画圈部分修改调整到不报错。 Pulid 部分,除了下载好对应的节点以及参考官方网站最下面的安装对应要求外,还要注意对应安装一些内容,具体要求可查看云盘中命名为“pulid 插件模型位置.png”及对应的云盘链接:PulID 全套模型 链接:https://pan.baidu.com/s/1ami4FA4w9mjuAsPK49kMAw?pwd=y6hb 提取码:y6hb ,否则将会报错。 爆肝博主 ZHO 的更新记录: 3 月 7 日:ComfyUI 支持 Stable Cascade 的 Inpainting ControlNet,ComfyUI 作者在示例页面给出了说明和工作流:https://comfyanonymous.github.io/ComfyUI_examples/stable_cascade/ ,博主自己也整理了一版,分享在:https://github.com/ZHOZHOZHO/ComfyUIWorkflowsZHO ,说明第二个 inpainting+composite 是将原图帖回到重绘之后的效果,是非必要项,按需使用。 3 月 6 日:国内作者把 ps 很多功能都迁移到了 ComfyUI 里,项目是:https://github.com/chflame163/ComfyUI_LayerStyle 。最新版 ComfyUI 支持了一系列图像形态学处理,包括 erode 腐蚀(去除小噪点/分离相邻对象)、dilate 膨胀(填补小洞/连接临近对象)、open 开(先腐蚀后膨胀)、close 闭(先膨胀后腐蚀)、gradient 梯度(膨胀与腐蚀之差)、top_hat 顶帽(原图与开之差)、bottom_hat 底帽(原图与闭之差)。使用方法为:1)更新 ComfyUI;2)右键 image/postprocessing/ImageMorphology;3)接上图像输入和输出即可。
2025-01-15
在comfyUI中可以接入哪些api,又和3D相关的吗
在 ComfyUI 中可以接入以下与 3D 相关的 API: 1. @CSM_ai:可以将文本、图像或草图转换为 3D 素材,并直接应用于游戏中,无需后期处理。体验地址:https://cube.csm.ai ,https://x.com/xiaohuggg/status/1763758877999587757?s=20 2. Move AI 推出的 Move API:可以从 2D 视频生成 3D 运动数据,支持多种 3D 文件格式导出,为 AR 应用、游戏开发等提供高质量 3D 运动数据。链接:https://move.ai/api ,https://x.com/xiaohuggg/status/1761590288576061573?s=20 3. ComfyUI 3D Pack 引入 3D 图像处理:可以快速将图片转换为 3D 模型,支持多角度查看,使用 3D 高斯扩散技术提升模型质量,支持多种格式导出,集成先进 3D 处理算法。链接:https://github.com/MrForExample/ComfyUI3DPack/tree/main ,https://x.com/xiaohuggg/status/1755824687811346514?s=20 此外,ZHO 博主有关于 ComfyUI 的更新记录: 1. 4 月 18 日,ComfyUI Stable Diffusion 3 API 已更新为 V1.5 版,图生图和 SD3 Turbo 都可以正常使用,但 SD3 图生图模式不支持选择比例,SD3 Turbo 模型不支持负面提示词。使用方法是先申请 API,然后填入 config.json 文件即可(每账户 25 免费积分),SD3 每张图 6.5 积分(比较贵)。项目地址:https://github.com/ZHOZHOZHO/ComfyUIStableDiffusion3API ,SD3 API ComfyUI 节点测试成功。 2. 4 月 17 日,Stability AI 刚刚发布了 Stable Diffusion 3 和 Stable Diffusion 3 Turbo,现在已经可通过 Stability AI 开发者平台 API 使用,SAI 计划在不久的将来通过会员资格提供模型权重。详情:https://bit.ly/3W43FjY
2025-01-14
在comfyUI中可以接入哪些节点
在 ComfyUI 中可以接入以下类型的节点: 1. 输入节点: 文本提示节点:用于输入生成图像的文本描述。 图像输入节点:用于输入基础图像进行二次生成。 噪声节点:用于输入初始噪声图像。 2. 处理节点: 采样器节点:选择图像生成所使用的采样器。 调度器节点:选择图像生成所使用的调度器。 CFG Scale 节点:调整引导式采样的强度。 步数节点:设置图像生成的迭代步数。 3. 输出节点: 图像输出节点:显示生成的最终图像。 4. 辅助节点: 批处理节点:支持批量生成多个图像。 图像变换节点:提供图像旋转、翻转等功能。 图像融合节点:可以将多个图像合并成一个。 此外,还有一些特定的节点插件,如: 1. PuLID 节点插件: model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。 2. 中文提示词输入相关节点: 安装完成后,在【新建节点】【Alek 节点】下,有【预览文本】、【绘画】、【姿态】、【clip 文本编码器】和【翻译文本】这五个节点。 【clip 文本编码器(翻译)】可代替自带的【clip 文本编码器】,直接输入中文。但引用负向 embedding 时,文件夹路径不能有中文。 【翻译文本】节点可代替【元节点】,在 sdxl 流程中,当需要将文本信息单独列出来时使用。 【预览文本】节点可连接到【翻译文本】检查翻译是否正确。 如果翻译失效,可双击“embedded_instail”进行安装,然后用记事本打开 BaiduTranslate.py,填入在百度翻译开发平台申请的 ID 和密码,即可正常翻译。
2025-01-14
可以把tripo的节点接入comfyui吗
要将 tripo 的节点接入 ComfyUI,您可以参考以下步骤: 1. 确保后面有一个空格。然后将 requirements_win.txt 文件拖到命令提示符中(如果您在 Windows 上;否则,选择另一个文件 requirements.txt)。拖动文件将在命令提示符中复制其路径。 2. 按 Enter 键,这将安装所有所需的依赖项,使其与 ComfyUI 兼容。请注意,如果为 Comfy 使用了虚拟环境,必须首先激活它。 3. 在使用自定义节点之前,有一些要注意的事项: 您的图像必须放在一个以命名的文件夹中。那个数字很重要:LoRA 脚本使用它来创建一些步骤(称为优化步骤…但别问我是什么^^’)。它应该很小,比如 5。然后,下划线是必须的。 对于 data_path,您必须写入包含数据库文件夹的文件夹路径。例如:C:\\database\\5_myimages ,您必须写 C:\\database 。 Python 在这里需要斜杠,但节点会自动将所有反斜杠转换为斜杠。文件夹名称中的空格也不是问题。 4. 参数方面: 在第一行,您可以从 checkpoint 文件夹中选择任何模型。然而,据说您必须选择一个基本模型进行 LoRA 训练。 您选择一个名字为您的 LoRA,如果默认值对您不好,就更改这些值(epochs 数应该接近 40),然后启动工作流程! 5. 一旦您点击 Queue Prompt,所有事情都会在命令提示符中发生。 6. 建议与字幕自定义节点和 WD14 标签一起使用。但请注意,在制作字幕时禁用 LoRA 训练节点。因为 Comfy 可能会在制作字幕之前启动训练。 7. 关于 Tensorboard:训练会在 log 文件夹中创建一个日志文件,该文件夹会在 Comfy 的根文件夹中创建。该日志可能是一个可以在 Tensorboard UI 中加载的文件。 ComfyUI 的核心是其节点式界面,节点类型包括输入节点(如文本提示节点、图像输入节点、噪声节点)、处理节点(如采样器节点、调度器节点、CFG Scale 节点、步数节点)、输出节点(如图像输出节点)、辅助节点(如批处理节点、图像变换节点、图像融合节点)。用户可以通过拖放和连接各种节点来创建自定义的图像生成工作流,还可以创建自定义节点来扩展功能,自定义节点安装目录为 D:\\ComfyUI\\custom_nodes 。ComfyUI 还提供了丰富的节点管理功能,包括保存/加载节点图、复制/粘贴节点、批量编辑等。
2025-01-14
ComfyUI 万物迁移工作流
ComfyUI BrushNet: 项目链接: 原项目:https://tencentarc.github.io/BrushNet/ 插件地址:https://github.com/kijai/ComfyUIBrushNetWrapper 模型下载:https://huggingface.co/Kijai/BrushNetfp16/tree/main 第一次运行会自动下载需要的模型,如果是用的 ComfyUIBrushNetWrapper 节点,模型将自动从此处下载:https://huggingface.co/Kijai/BrushNetfp16/tree/main 到 ComfyUI/models/brushnet,因环境问题,也可手动下载放在这个文件夹里。另外,BrushNet 提供了三个模型,个人测试下来,random 这个效果比较好。 工作流:配合 mj 出底图,在底图不变的基础上,添加文字或者图片内容。另外可以使用 GDinoSAm(GroundingDino+Sam),检测和分割底图上的内容,做针对性的修改。 4SeasonYou 工作流副本: 一、加载模型部分(总文件有) 官网下载两个文件。 先点击如图中的左上角部分将加载器展开且选择官网下载好的两个模型,否则将会有以下的问题。 GDino 加载器部分:在链接:处下载以下文件。 然后再次检查自己的文件有没有齐全:在 models 下创建 groundingdino 且配置以下文件命名齐全。同理,sams 也是。对于 groundingdino 和 sams 配置有没有齐全可以使用“抠头发.json”来检验。 然后,接下来很大概率在运行到此节点时会报科学上网的(httpsxxxxx)错误。倘若觉得在此工作流中排除 bug 很慢,不妨使用此网址的工作流(可以直接复制他的 json 内容自己创建一个 txt 文件后粘贴,再改后缀名为 json。)进行操作:。那么就要在尝试稳定的科学上网后重启 UI 跑工作流。
2025-01-14
comfyUI 工作流
ComfyUI 工作流主要包括以下内容: 低显存运行工作流:目的是让 FLUX 模型能在较低显存情况下运行。分阶段处理思路为,先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存使用,最后使用 SD 放大提升图片质量。工作流流程包括初始图像生成(Flux),涉及 UNETLoader 加载 flux1dev.sft 模型、DualCLIPLoader 加载 t5xxl 和 clip_l 模型、VAELoader 加载 fluxae.sft 等步骤,以及图像放大和细化(SDXL),包括加载 SDXL 模型、放大模型等步骤。 工作流网站: “老牌”workflow 网站 Openart.ai,流量较高,支持上传、下载、在线生成,免费账户有 50 个积分,加入 Discord 可再加 100 积分,开通最低每月 6 美元套餐后每月有 5000 积分,网址为 https://openart.ai/workflows/ 。 ComfyWorkflows 网站,支持在线运行工作流,从实际下载量和访问量来看略少于 openart,网址为 https://comfyworkflows.com/cloud 。 Flowt.ai,网址为 https://flowt.ai/community 。 相关介绍: RPA 很早就出现在工作流编排领域,目标是使符合某些适用性标准的基于桌面的业务流程和工作流程实现自动化。 ComfyUI 将开源绘画模型 Stable Diffusion 进行工作流化操作,提高了流程的可复用性,降低了时间成本,其 DSL 配置文件支持导出导入。 Dify.AI 的工作流设计语言与 ComfyUI 有相似之处,都定义了一套标准化的 DSL 语言,方便导入导出进行工作流复用。 Large Action Model 采用“通过演示进行模仿”的技术,从用户提供的示例中学习。但 Agentic Workflow 存在使用用户较少、在复杂流程开发上不够稳定可靠等问题,同时提出通过自然语言创建工作流的想法。
2025-01-13
有什么AI代码工具,能直接在浏览器端运行
以下是一些能在浏览器端运行的 AI 代码工具: 1. Bolt․new:这是一款终极写代码工具,AI 能帮您自动写代码、自动运行并自动部署,全部在浏览器中完成。您只需撰写简单提示,它就能自动编写代码,并支持一键编辑、运行和自动部署复杂的全栈应用。它依托于 WebContainers 技术,支持现代开发工具链,如 npm、Vite 和 Next.js。但需注意,该功能处于 alpha 测试阶段,可能会有问题,目前仅支持小到中型仓库,且不支持分叉或提交。您可以通过在 GitHub URL 前添加 2. 对于处理文档和数据: 对于数据(以及您对代码的任何奇思妙想):代码解释器。 对于大型文档或同时处理多个文档:Claude 2。 对于较小的文档和网页:Bing 侧边栏(Edge 浏览器的一部分,可以“查看”浏览器中的内容,让 Bing 处理该信息,尽管上下文窗口的大小有限)。
2025-01-13
我想用AI完成一个编程项目,帮我从零到一完成一个个人介绍网站,我现在使用vo.dev完成了一个网站,但是不可以供我使用我上传github后再vercel运行发现会出现404请问我该怎么办
很抱歉,暂时没有关于您所描述问题的相关内容。出现 404 错误通常是由于页面未找到导致的。您可以先检查一下以下几个方面: 1. 确认您在 GitHub 上的代码上传是否完整且正确,包括相关的配置文件和依赖项。 2. 检查 Vercel 的部署设置,确保配置正确,例如域名绑定、环境变量等。 3. 查看服务器的日志,以获取更详细的错误信息,从而确定问题的具体原因。 希望这些建议能对您有所帮助,如果问题仍未解决,建议您进一步查阅相关的技术文档或向技术社区寻求帮助。
2024-12-19
Coze代码测试成功,运行示例时报错
关于您提到的 Coze 代码测试成功但运行示例时报错的问题,以下是相关的信息和可能的解决办法: 图片生成方面:理想生成图片只实现了一次,其他几次生成文字加链接,链接需点进去查看且图片需渲染或加载,无互动趣味性,增加等待时间。因为默认返回的是 markdown 格式,微信不支持 markdown 格式,可在 github 上搜索 nicecoze 插件,基于 cow,把 markdown 转换为图片消息。 模型配置方面:Coze 里面模型配置用的 GPT4o,程序运行调用的是 GPT3.5 Turno。这是因为没有查询到 4o 的 token 计算方式,所以采用 3.5 的,但依然使用的是 GPT4o,只是 token 计算方式用的 3.5。 插件功能方面:Coze 加入了插件 Data Analysia(数据分析)、Browser 和 GPT4v 互动过程无法实现功能。这需要在 coze 里进行鼓捣,和 cow 的 config 无关。 外层 bot 方面:在外层 bot 进行运行时容易出现报错,暂时无法确定原因,猜测可能是外层 bot 的并发不够稳定,不如直接在工作流编辑面板中获取精度结果。如果自行实验时多次报错且无法定位问题原因,不要急着怪自己,相关 bug 已提交给 Coze 团队,希望能加紧优化。
2024-11-19
本地运行Llama3需要的电脑是什么配置的?
本地运行 Llama3 所需电脑配置的相关信息如下: 1. 安装 Docker Desktop: 点击/复制到浏览器下载:https://docs.docker.com/desktop/install/windowsinstall/ 。 下载后,双击下载项目,出现相关界面点击 ok 开始加载文件。注意下载相对较快,完成后不要点击“close and restart”,以免导致 llama3 下载中断。等待终端的模型下载完成后再点击重启。 重启后,点击“Accept”,选择第一个,点击“Finish”。 然后会提示注册账号,若打不开网页,可能需要科学上网。按照正常流程注册账号并登录 Docker 即可。 2. 下载 Llama3 模型: 打开终端。如果是 Windows 电脑,点击 win+R,输入 cmd 点击回车;如果是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入并回车,会开始自动下载,文件下载较慢,可同时进行安装 Docker 的步骤。 3. 下载 Open WebUI: 回到桌面,再打开一个新的终端窗口。如果是 Windows 电脑,点击 win+R,输入 cmd 点击回车;如果是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 将相关命令输入,等待下载。 点击或复制相关地址进入浏览器,进行注册登录。 登入后,点击顶部的 Model,选择“llama3:8b”。 需要注意的是,模型的回复速度取决于您电脑的配置。另外,您还可以参考开源项目 。同时,有教程提到可以通过购买算力解决本地电脑配置不够的问题,但需要充值 50 元。
2024-11-14
coze 是否可以通过LLM生成python代码运行查询excel表格信息?
在 Coze 中,可以通过以下步骤实现相关操作: 1. 进入 Coze,点击「个人空间 工作流 创建工作流」,打开创建工作流的弹窗。 2. 根据弹窗要求,自定义工作流信息,点击确认完成工作流的新建。 3. 新建后的编辑视图与功能中,左侧「选择节点」模块根据子任务需要,实际用到的有: 插件:提供一系列能力工具,拓展 Agent 的能力边界。如本案例中的思维导图、英文音频,无法通过 LLM 生成,需依赖插件实现。 大模型:调用 LLM,实现各项文本内容的生成。如本案例中的中文翻译、英文大纲、单词注释等依赖大模型节点。 代码:支持编写简单的 Python、JS 脚本,对数据进行处理。 4. 编辑面板中的开始节点、结束节点,分别对应分解子任务流程图中的原文输入和结果输出环节。 5. 按照流程图,在编辑面板中拖入对应的 LLM 大模型、插件、代码节点,即可完成工作流框架的搭建。 需要注意的是,因为前面需要对多维表格操作,所以要先在 http://open.feishu.cn 上建一个飞书机器人,并添加知识库或多维表格编辑权限,具体可参考飞书文档。
2024-10-16
手机怎么运行ai模型
以下是在手机上运行 AI 模型的方法: 1. AnLinux 安装:AnLinux 是一个能让安卓手机或平板电脑变身为小型 Linux 电脑的工具,有条件可自行下载 termux,软件地址为 https://github.com/EXALAB/AnLinuxApp,也可选择安装包自行安装,如 file:apprelease.apk 。 2. termux 安装:termux 是一款基于 Android 平台的开源终端模拟器,可使用手机操作相关命令以跑通大模型。有条件可自行下载,软件地址 https://termux.dev/en/ ,也可选择安装包自行安装,如 file:termuxapp_v0.118.0+githubdebug_arm64v8a.apk 。 此外,Phi3mini 是微软发布的一个小语言模型,有 38 亿参数,能在端侧流畅运行。可以使用开源工具 Ollama,从官网下载安装包后一路点下一步进行安装。之后打开终端,运行“ollama run phi3”系统就会自动下载 Phi3 并安装。还可以通过套一层 Web UI 解决终端里给出答案无法格式化 markdown 的内容,如开源社区的 Open WebUI 就可以与 Ollama 无缝集成。相关链接:Ollama.https://ollama.com Open WebUI.https://github.com/openwebui/openwebui 。 更多报道介绍: 微软发布 Phi3,性能超 Llama3,可手机端运行 https://mp.weixin.qq.com/s/kb_gfaYkXiW_cR22K2bX9g 微软发布 Phi3 Mini:3.8B 参数小到能塞进手机,性能媲美 GPT3.5 https://mp.weixin.qq.com/s/lfDqYBLTaZ5D4IUW18NJQ 微软的 SLMs 之路:对 Phi3 的看法&使用体验 https://mp.weixin.qq.com/s/wnAeBG5AYPCkpMNtlF1IQ Phi3:小模型,大未来!(附魔搭社区推理、微调实战教程) https://mp.weixin.qq.com/s/pgvt5m4JnpX3kCkVI_wK8g 大语言模型的深度比较:Mixtral 8x22B、Llama 3 与 Phi3 https://mp.weixin.qq.com/s/KiXKc_Xbs5g0XMhF96ICEA 在 Macbook 上运行 Phi3 https://mp.weixin.qq.com/s/akoUNFJe8gAlC5xLI8vlIw
2024-09-30