Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfyui漫画工作流

Answer

ComfyUI 漫画工作流包含以下内容:

  1. 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景为纯色(方便识别),选择绿幕是为了便于抠图。工作流文件链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB
  2. 动画工作流:
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI 绿幕

此工作流包含两个组:生成绿幕素材和绿幕素材抠图我为什么这么做?因为SD无法直接生成透明背景的png图片,所以要先生成一张素材图,前景是我们最重要的主体素材,背景是纯色(方便识别),既然要抠图,背景当然得是绿幕(不然怎么不叫白幕、黑幕),最后再把前景素材从背景中抠出来。道理听起来很简单我把工作流文件放上来,大家可以下载拖入ComfyUI中自动加载工作流,然后对照本文进行学习工作流链接:https://pan.quark.cn/s/01eae57419ce提取码:KxgB

啊朔:Comfyui工作流

[111AnimateDiff-From one image to another.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/GCSQbdL1oolBiUxV0lRcjJeznYe?allow_redirect=1)[111丝滑无闪烁视频转绘.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/LcYfbgXb4oZaTCxWMnacJuvbnJf?allow_redirect=1)[video_upscale_LCM.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/WGdJbouveo6b9Pxg3y8cZpXQnDg?allow_redirect=1)[音频生成视频一键mv_第一版.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/KZjObxCpSoF1WuxQ2lccu9oinVb?allow_redirect=1)[多曲线animatediff动画0506(2).json](https://bytedance.feishu.cn/space/api/box/stream/download/all/EVdUbp7kvojwH4xJEJ3cuEp0nPv?allow_redirect=1)[AnimateDIff时间穿梭工作流.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/TnwFbAx3FoU617x8iabcOSYcnXe?allow_redirect=1)[SVD-图生视频工作流.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/TWwCbnVOtoyMpyxpGBqcUECLnNc?allow_redirect=1)

啊朔:Comfyui工作流

[SVD-文生视频.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/ZNeabj4phohyizxYQJccaio4nSd?allow_redirect=1)[AnimateDiff-图到图变化.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/KmbdbhIY3oefpMx3AwRc4zNfnhg?allow_redirect=1)[视频流.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/DzRsbKkSeoYRI1x8PotcgCknnFe?allow_redirect=1)[生长qrmonster动画json.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/QaYxbaFwWowTtQxXn1CccjpAn2g?allow_redirect=1)[turn_around.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/ZcwkbSygqoGyGRxS9vzcTzWUnqf?allow_redirect=1)[fire_n_water.json](https://bytedance.feishu.cn/space/api/box/stream/download/all/ExdibFmxSootBixFxIPcmOYGnxf?allow_redirect=1)

Others are asking
comfyui工作流
ComfyUI 工作流主要包括以下内容: FLUX 低显存运行工作流:目的是让 FLUX 模型能在较低的显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用,最后使用 SD 放大提升图片质量。工作流的流程包括初始图像生成(Flux)的一系列操作,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及初始图像预览;图像放大和细化(SDXL)的一系列操作,如加载 SDXL 模型、对初始图像进行锐化处理等,还有最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/ 。流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud 。支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Flowt.ai:https://flowt.ai/community 。 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景是纯色(方便识别),选择绿幕是为了方便抠图。工作流文件可通过链接 https://pan.quark.cn/s/01eae57419ce 提取(提取码:KxgB),下载拖入 ComfyUI 中自动加载工作流进行学习。
2025-04-14
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,类似于集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。
2025-04-14
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将 stable diffusion 流程拆分成节点,实现更精准工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动,启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型,找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。默认情况下,训练结果直接保存在 ComfyUI lora 文件夹中,训练后只需刷新并选择 LoRA 就可以测试。
2025-04-13
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
comfyui如何本地安装
以下是在本地安装 ComfyUI 的详细步骤: 安装方式有两种,分别是安装到本地和安装到云端。本部分主要介绍本地安装方法。 本地安装方法: 1. 命令行安装: 这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。 ComfyUI 的源码地址在:https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中。您也可以按照 Readme 文档进行操作。 如果会 Git 请在 Terminal 运行以下代码: 如果不会用 Git,推荐使用 Github 的客户端(https://desktop.github.com/)拉代码。 下载并安装好 Github Desktop 后,打开该应用。 然后打开 ComfyUI 的 Github 页面(https://github.com/comfyanonymous/ComfyUI),点击右上角的绿色按钮,并点击菜单里的「Open with GitHub Desktop」,此时浏览器会弹出是否要打开 GitHub Desktop,点击「是」。 GitHub Desktop 会让您选择一个保存位置,按需调整,然后点击确定。看到下方特定界面,意味着完成了代码同步。 2. 安装包安装: 这种方法安装比较简单,下载就能用。 ComfyUI 的官方安装包:目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是:https://github.com/comfyanonymous/ComfyUI/releases ,只需下载最新的版本,解压就能使用。 安装完成后: 1. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 2. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 3. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 希望以上内容对您有所帮助。
2025-04-10
comfyUI是什麼?
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,您可以将其视为集成了 stable diffusion 功能的 substance designer。通过把 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和良好的可复现性。 其具有以下优势: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 但也存在一些劣势: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),不过也有一些针对 Comfyui 开发的有趣插件。 ComfyUI 是一个开源的图形用户界面,用于生成 AI 图像,主要基于 Stable Diffusion 等扩散模型。其工作原理包括: 1. Pixel Space(像素空间):图的左边表示输入图像的像素空间,在 ComfyUI 中,对应于可能通过“图像输入”模块或直接从文本提示生成的随机噪声图像。生成过程结束时,系统会将处理后的潜在表示转换回像素空间,生成最终的图像。 2. Latent Space(潜在空间):ComfyUI 中的许多操作都在潜在空间中进行,如 KSampler 节点就是在这个空间中执行采样过程。图像被映射到潜在空间后,扩散过程在这个空间中进行。在 ComfyUI 中,您可以通过节点调整对潜在空间的操作,如噪声添加、去噪步数等。 3. 扩散过程(Diffusion Process):噪声的生成和逐步还原。扩散过程表示的是从噪声生成图像的过程。在 ComfyUI 中,这通常通过调度器(Schedulers)控制,典型的调度器有 Normal、Karras 等,它们会根据不同的采样策略逐步将噪声还原为图像。您可以通过 ComfyUI 中的“采样器”节点选择不同的调度器,来控制如何在潜在空间中处理噪声,以及如何逐步去噪回归到最终图像。时间步数在生成图像时,扩散模型会进行多个去噪步。 您可以从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 。 此外,开源项目作者 ailm 在 ComfyUI 上搭建了一个可以接入飞书的 AI 女友麦洛薇(mylover),实现了稳定人设,无限上下文,永久记忆,无缝联动 SD 绘图等功能,适合完全没有代码基础的小伙伴们复现并且按自己的想法修改。
2025-04-10
真人头像改为漫画风格
要将真人头像改为漫画风格,可以参考以下方法: 1. 使用 SDXL Prompt Styler 插件: 转绘成折纸风时,最好不要加入线稿边缘(canny)的 controlnet 控制,或把 canny 的控制强度(strength)调到较小,因为手绘线条和折纸风格互斥。 若转成漫画风格并想较好保留人物外轮廓,加入 canny 控制能更好还原人物原本造型。 有时插件内置预设的提示词组合不一定能达到想要的效果,可在 prompt 中添加更多相关风格的关键词,如印象派风格可添加 impressionism、monet、oil painting 等。 该工作流结合 Vid2Vid Style Transfer with IPA&Hotshot XL 工作流,可较好实现视频不同风格的稳定转绘。 2. 选择复杂提示词: 如 Disney boy,Low saturation Pixar Super details,clay,anime waifu,looking at viewer,nighly detailedreflections transparent iridescent colors.lonctransparent iridescent RGB hair,art by Serafleurfrom artstation,white background,divine cinematic edgelighting,soft focus.bokeh,chiaroscuro 8K,bestquality.ultradetailultradetail.3d,c4d.blender,OCrenderer.cinematic lighting,ultra HD3D renderinoiw 1.5s 500v 5 。 若觉得提示词简单,可选择更复杂的。 可根据需求调整提示词,如照片风格不好可更换照片重新生成;若觉得 Disney 风格太过卡通,可把提示词中的 Disney 换成 Pixar;若为女孩,可把 boy 换成 girl。每次会生成 4 张图片,对某一张满意可点击下方的 U1~U4 生成大图,对风格满意但需调整可点击下方的 V1~V4 进行修改。 3. 使用 Coze“图像流”进行智能换脸: 该节点需要 2 个图,一个是脸图,一个是底稿图。第一个 reference 指的是参考的脸,即会换上去的脸;第二个 template 指的是背景图,即脸会被换掉的图;skin 指的是美肤。 美肤拉到 1 可能导致脸部磨皮涂抹痕迹严重。 在没有很明显的人脸或纯动漫风格时可能会报错,在文生图的提示词里加上写实风格能提高成功率。也可自己放进两张真实的图来替换脸,添加方式在开始框加上一个输入参数,类型为 image 即可。
2025-03-28
用照片生成漫画
以下是关于用照片生成漫画的相关内容: 一、使用 MJ 生成照片漫画 1. 需求分析 用自己的图片、照片生成以照片人物为主体的运动员头像漫画。 2. 操作步骤 输入:使用 ChatGPT 完成对应工作,输入奥林匹克项目生成人物描述,并结合设定好的提示词。 ChatGPT 生成描述:添加中国人、中国运动服和项目场景描述,生成 MJ 画图的提示词。 MJ 绘图测试:测试 MJ 绘图提示词的稳定性,确定是否需要垫图等。 局部重绘:使用局部重绘,结合 cref 链接照片,调整 cw 参数。 二、OpenAI GPT4o 图像生成模型 1. 核心功能 先进的多模态模型,能生成精确、真实感强的图像,具有实际用途。 2. 亮点功能 精确的文本渲染,能在图像中准确生成文字。 多样化场景生成,支持从真实感到漫画风格等多种图像生成,可根据上传图像进行灵感转化或视觉改造,具有上下文感知能力。 3. 技术改进 联合训练在线图像和文本的分布,学会图像与语言及图像之间的关系,后期训练优化在视觉流畅性和一致性方面表现出色。 4. 实际应用场景 信息传递、创意设计、教育与演示等。 5. 局限性 存在某些场景或细节的限制,如偶尔会过于紧密地裁剪较长图像,多语言呈现不佳。 6. 访问和可用性 已集成到 ChatGPT 中,Plus、Pro、Team 和 Free 用户推出,Enterprise 和 Edu 即将访问。开发人员很快可通过 API 使用,图像渲染时间较长。 三、四格漫画 可生成四种风格的四格漫画,需简体中文描述,足够幽默有趣的故事。
2025-03-27
漫画生成
以下是关于漫画生成的相关信息: Anifusion: 这是一款基于人工智能的在线工具,网址为 https://anifusion.ai/ ,其 Twitter 账号为 https://x.com/anifusion_ai 。 主要功能: 能根据用户输入的文本描述生成相应的漫画页面或动漫图像。 提供预设模板和自定义漫画布局的直观布局工具。 拥有强大的浏览器内画布编辑器,可调整角色姿势、面部细节等。 支持多种 LoRA 模型,实现不同艺术风格和效果。 用户对创作作品拥有完整商业使用权。 使用案例: 独立漫画创作。 快速原型设计。 教育内容创作。 营销材料制作。 粉丝艺术和同人志创作。 优点:非艺术家也能轻松创作漫画,基于浏览器无需安装额外软件,具备快速迭代和原型设计能力,并拥有创作的全部商业权利。 北大团队提出「自定义漫画生成」框架 DiffSensei: 故事可视化是从文本描述创建视觉叙事的任务,现有文本到图像生成模型存在对角色外观和互动控制不足的问题,尤其是在多角色场景中。 北大团队提出新任务“自定义漫画生成”及 DiffSensei 框架,该框架集成了基于扩散的图像生成器和多模态大语言模型(MLLM),采用掩码交叉注意力技术,可无缝整合字符特征实现精确布局控制,基于 MLLM 的适配器能调整角色特征与特定面板文本线索一致。 还提出 MangaZero 数据集,包含大量漫画和注释面板。 论文链接:https://arxiv.org/abs/2412.07589 ,项目地址:https://jianzongwu.github.io/projects/diffsensei/ 。 Niji V5 漫画生成: 漫画是起源于日本的流行艺术形式,有多种类型。 提供了一些漫画生成的提示示例,如“John Wick,漫画屏幕色调,屏幕色调图案,圆点图案,更大且间距更宽的点,高质量—ar 3:2—niji 5”等。 指出在 Niji Version 5 中能看到更多细节,尤其是面部表情,还可使用/describe 命令向 Midjourney 询问喜欢的动漫场景灵感,新的 MidJourney 命令—Image2Text 可生成准确描述图像的文本提示。
2025-03-18
AI怎么制作漫画视频
以下是关于使用 AI 制作漫画视频的相关内容: 制作流程: 1. 前期准备: 故事大纲和脚本编写:根据经验,可由专人负责内容构思和脚本编写。 2. 图像生成: 利用 Midjourney 生成图片,提示词可围绕皮克斯、迪士尼、3D 风格来写,重点包含关键元素如“a small white Chiense dragon,anthropomorphic,3D render,Unreal Engine,Pixar 3D style”,并注意尺寸比例和模型选择。 动画生成可使用 Runway,因其控制笔刷有优势。 3. 分工合作: 有人负责前期内容构思和脚本编写,有人负责图片、视频生成和视频剪辑。 如果是将小说做成视频,一般流程如下: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 工具与网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址: 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址: 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址: 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址: 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址: 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址: 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址: 8. 故事 AI 绘图:小说转视频的 AI 工具。网址: 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。内容由 AI 大模型生成,请仔细甄别。
2025-03-17
做漫画
以下是关于做漫画的相关内容: Niji V5 动漫提示干货操作实例: 漫画是一种起源于日本的流行艺术形式,有多种类型,如漫画绘图、底纹、网点等。 可以使用特定的提示词,如“John Wick,漫画屏幕色调,屏幕色调图案,圆点图案,更大且间距更宽的点,高质量—ar 3:2—niji 5”等,通过 Midjourney Niji v4 或 v5 来创作漫画。 可以使用/describe 命令向 Midjourney 询问最喜欢的动漫场景的灵感,还可以使用新的 MidJourney 命令—Image2Text 生成准确描述图像的文本提示。 六一儿童节活动: 活动内容是制作一副符合六一儿童节主题的四格漫画,充满童趣或者想象,也可以有教育意义或者小哲理。可以使用 AI 绘图工具 MJ、悠船、SD 做图,四格拼图可使用其他工具,如 ps、美图秀秀、醒图等。 参与规则:每位群成员限最多提交 2 个作品故事,单一格画面 1:1,4 个格拼起来 2:2。提交的作品必须是原创,不得抄袭他人作品,漫画内容要健康、积极,符合儿童节的主题。 提交时间:6 月 1 日 0 时至 6 月 2 日 12 时,提前或者逾期提交的作品将不予受理。 Sarah Andersen 漫画风格: 特色:通常使用简单的黑白线条作画,配以极富表现力的角色表情,经常探讨如焦虑、社交尴尬、性别问题以及对生活中普通但难以言说的瞬间的幽默呈现。 技巧:在主要描述语后面加上“by Sarah Andersen”或者“style reference Sarah Andersen”;在提示中加入情感色彩的描述,如“joyful,”“awkward,”或“anxious”等词;利用cref 命令保持人物的一致性。 应用:可用于社交媒体上的漫画创作、使故事更加生动有趣的插图、个性化礼物和商品设计(需注意版权问题)。
2025-03-04
AI如何生成漫画
以下是关于 AI 生成漫画的相关信息: 工具教程:AI 漫画 Anifusion Anifusion 是一款基于人工智能的在线工具,旨在帮助用户轻松创建专业质量的漫画和动漫作品。即使没有绘画技能,用户只需输入文本描述,Anifusion 的 AI 就能将其转化为完整的漫画页面或动漫图像。 主要功能: AI 文本生成漫画:用户输入描述性提示,AI 会根据文本生成相应的漫画页面或面板。 直观的布局工具:提供预设模板,用户也可自定义漫画布局,设计独特的面板结构。 强大的画布编辑器:在浏览器中直接优化和完善 AI 生成的艺术作品,调整角色姿势、面部细节等。 多种 AI 模型支持:高级用户可访问多种 LoRA 模型,实现不同的艺术风格和效果。 商业使用权:用户对在平台上创作的所有作品拥有完整的商业使用权,可自由用于商业目的。 使用案例: 独立漫画创作:有抱负的漫画艺术家无需高级绘画技能即可将他们的故事变为现实。 快速原型设计:专业艺术家可以在详细插图之前快速可视化故事概念和布局。 教育内容:教师和教育工作者可以为课程和演示创建引人入胜的视觉内容。 营销材料:企业可以制作动漫风格的促销漫画或用于活动的分镜脚本。 粉丝艺术和同人志:粉丝可以基于他们最喜欢的动漫和漫画系列创作衍生作品。 优点: 非艺术家也可轻松进行漫画创作。 基于浏览器的全方位解决方案,无需安装额外软件。 快速迭代和原型设计能力。 创作的全部商业权利。 缺点: 对特定艺术细节的控制有限。 AI 生成的艺术作品可能缺乏独特性。 需要订阅才能使用高级功能。 可能无法完全替代专业级工作的熟练人类艺术家。 定价: Anifusion 提供免费和高级订阅选项: 免费层级:提供 50 个免费信用点和一个工作空间,适合初学者体验。 高级层级:每月 20 欧元,包含 10,000 个信用点、无限工作空间、无限漫画生成、多种 LoRA 模型支持,以及新功能的早期访问权限。 使用方法: 1. 注册账户:访问 anifusion.ai 并创建一个免费账户以开始使用。 2. 选择布局:从预设计的漫画预设中选择,或使用 Anifusion 的直观布局工具创建您自己的独特布局。 3. 描述页面内容:使用简单的文本提示来描述您漫画中每个页面或面板的内容。 4. 生成 AI 艺术:让 AI 根据您的文本描述生成动漫风格的艺术作品。 5. 优化结果:使用 Anifusion 强大的画布编辑器根据需要优化和调整 AI 生成的艺术作品。 6. 添加文本和效果:添加对话气泡、字幕和视觉效果以完成您的漫画页面。 7. 导出和分享:导出您完成的漫画并与世界分享。您对您的创作拥有完全的商业权利。 烧拍:探索 AI 23|即梦 2.1 登场 提示词:皮克斯风格,三宫格漫画:一只小狗,坐在办公桌前,文字“KPI 达标了吗?”。一只小狗,拿着一个写满计划的大本子,微微皱着眉头,文字“OKR 写好了吗?”。一只小狗坐在电脑前,文字“PPT 做好了吗?”。 实操教程: 1. 打开即梦 AI:https://jimeng.jianying.com/aitool/home 2. 点击 AI 作图中的图片生成。 3. 填写绘图提示词,选择生图模型 2.1,点击立刻生成。 总而言之,Anifusion 和即梦 2.1 为漫画和动漫爱好者、创作者以及故事讲述者提供了极具潜力的创作平台,有望在未来的漫画和动漫行业中发挥重要作用。
2025-02-25
你是福州市政府工作人员,中国移动拟邀请福州市委书记参加中国移动人工智能生态大会并致辞,该大会是第八届数字峰会的组成部分,需要撰写市委书记的致辞稿,需要中国移动准备哪些素材,请告诉我提示词
以下是为您整理的相关内容: 《促进创新的人工智能监管方法》:包含了关于通用人工智能价值链、相关案例研究以及对人工智能监管框架的探讨等内容。 陶力文律师关于律师写好提示词用好 AI 的方法:包括初始化的欢迎语、遵循的规则、获取案例洞察报告和目标群体、输出纲要和写作方案、根据用户反馈调整等流程。 开幕式主持稿:涉及基地代表发言的时间、主题、物料配合和人员配合等信息。 但这些素材似乎与为中国移动准备市委书记致辞稿所需的素材关联不大。一般来说,为撰写市委书记在中国移动人工智能生态大会上的致辞稿,中国移动可能需要准备以下素材: 1. 本次大会的详细介绍,包括主题、目标、议程安排等。 2. 中国移动在人工智能领域的发展成果、战略规划和未来愿景。 3. 中国移动人工智能生态的构建情况,如合作伙伴、合作项目等。 4. 本次大会在第八届数字峰会中的地位和作用。 5. 相关行业的人工智能发展现状和趋势。 6. 福州市在人工智能领域的发展情况和与中国移动合作的展望。
2025-04-18
作为一个想要使用AI工具提升工作效率的AI小白,我已经学习了怎么编写prompt,接下来我应该学习什么
如果您已经学习了如何编写 prompt ,接下来可以学习以下内容: 1. 理解 Token 限制:形成“当前消耗了多少 Token”的自然体感,把握有效记忆长度,避免在超过限制时得到失忆的回答。同时,编写 Prompt 时要珍惜 Token ,秉承奥卡姆剃刀原理,精简表达,尤其是在连续多轮对话中。 熟练使用中英文切换,若 Prompt 太长可用英文设定并要求中文输出,节省 Token 用于更多对话。 了解自带方法论的英文短语或句子,如“Chain of thought”。 2. 学习精准控制生成式人工智能:重点学习提示词技术,编写更清晰、精确的指令,引导 AI 工具产生所需结果。 探索构建智能体(AI Agents),将工作单元切割开,赋予其特定角色和任务,协同工作提高效率。 在实际应用中遵循准则,如彻底变“懒人”、能动嘴不动手、能让 AI 做的就不自己动手、构建自己的智能体、根据结果反馈调整智能体、定期审视工作流程看哪些部分可用更多 AI 。 3. 若想进一步提升: 学习搭建专业知识库、构建系统知识体系,用于驱动工作和个人爱好创作。 注重个人能力提升,尤其是学习能力和创造能力。 您还可以结合自身生活或工作场景,想一个能简单自动化的场景,如自动给班级孩子起昵称、排版运营文案、安排减脂餐、列学习计划、设计调研问卷等。选一个好上手的提示词框架开启第一次有效编写,比如从基础的“情境:”开始。
2025-04-15
学习AI怎么在工作中使用,提高工作效率,有必要从技术原理开始学习吗
学习 AI 在工作中使用以提高工作效率,不一定需要从技术原理开始学习。以下是一些相关的案例和建议: 案例一:GPT4VAct 是一个多模态 AI 助手,能够模拟人类通过鼠标和键盘进行网页浏览。其应用场景在于以后互联网项目产品的原型设计自动化生成,能使生成效果更符合用户使用习惯,同时优化广告位的出现位置、时机和频率。它基于 AI 学习模型,通过视觉理解技术识别网页元素,能执行点击和输入字符操作等,但目前存在一些功能尚未支持,如处理视觉信息程度有限、不支持输入特殊键码等。 案例二:对于教师来说,有专门的 AI 减负指南。例如“AI 基础工作坊用 AI 刷新你的工作流”,从理解以 GPT 为代表的 AI 工作原理开始,了解其优势短板,学习写好提示词以获得高质量内容,并基于一线教师工作场景分享优秀提示词与 AI 工具,帮助解决日常工作中的常见问题,提高工作效率。 建议:您可以根据自身工作的具体需求和特点,有针对性地选择学习方向。如果您只是想快速应用 AI 提高工作效率,可以先从了解常见的 AI 工具和应用场景入手,掌握基本的操作和提示词编写技巧。但如果您希望更深入地理解和优化 AI 在工作中的应用,了解技术原理会有一定帮助。
2025-04-15
需要做一个自动化出视频的工作流
以下是一个关于自动化出视频工作流的详细介绍: 优势: 全自动化处理,解放双手。 40 秒快速出片,效率提升。 成本低廉,每条仅需 0.0x 元。 输出质量稳定专业。 DeepseekR1 保证文案质量。 还能改进,例如可以加入配套 BGM,让视频更有感染力;增加更丰富的画面内容和转场效果;使用免费节点替代付费插件,进一步降低成本;优化模板样式,支持更多展示形式;增加自动化程度,支持批量处理。 工作流程: 1. 可以在扣子商店体验,建议自己搭建。 2. 工作流调试完成后,加入到智能体中,可以选择工作流绑定卡片数据,智能体则通过卡片回复。 3. 选择发布渠道,重点如飞书多维表格,填写上架信息(为了快速审核,选择仅自己可用),确认发布等待审核,审核通过后即可在多维表格中使用。 4. 创建飞书多维表格,添加相关字段,配置选择“自动更新”,输入相关字段后,“文案视频自动化”字段捷径会自动调用工作流,生成视频。 5. 表单分享,实现“填写表单,自动创建文案短视频”的效果。 6. 全自动视频合成使用多视频融合插件,一键导出成品。但需注意节点产生的视频是异步生成,可能无法马上展现,需耐心等待几秒。 如果您还有其他疑问或需要进一步的帮助,请随时联系。
2025-04-14
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14