直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

flux模型为什么总是生成动漫风格

回答

Flux 模型生成动漫风格可能有以下原因:

  1. 开源社区的发展:FLUX 发布后,其周边生态发展迅速,有多种相关模型和训练脚本被开发,包括动漫 Lora 等,这为生成动漫风格提供了支持。
  2. 优秀的图片质量和美学调教风格:FLUX 具有优秀的图片质量和偏向真实的美学调教风格,这使得它能够适应多种风格的生成,包括动漫风格。
  3. 提示词和参数设置:在使用 Flux 模型时,输入的提示词和设置的参数可能会引导模型生成动漫风格的图像。

同时,关于模型的更多信息,您可以参考以下链接获取:

  1. 褪色胶片风格 Flux Lora 模型下载:https://www.liblib.art/modelinfo/4510bb8cd80142168dc42103d7c20f82?from=personal_page
  2. Xlabs 发布的基于 FLUX 的 Controlnet 模型和 Lora 模型的训练脚本:https://github.com/XLabs-AI/x-flux
  3. Xlabs 的多个 Lora 下载:https://huggingface.co/XLabs-AI/flux-RealismLora
  4. InstantX 训练的 Canny 模型:https://huggingface.co/InstantX/FLUX.1-dev-Controlnet-Canny-alpha
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

AIGC Weekly #88

封面提示词:abstract network out of glass made of holographic liquid crystal,dark background,blue light reflections,symmetrical composition,centered in the frame,highly detailed,hyper-realistic,cinematic lighting,in the style of Octane Rende--ar 16:9--style raw--personalize--v 6.1[💎查看更多风格和提示词](https://catjourney.life/)这周同样训练了一个FLUX Lora模型,褪色胶片风格,推荐权重0.6-0.8。非常适合生成毛茸茸的动物玩偶人像会偏向复古褪色的胶片风格涉及到玻璃制品产品展示摄影的表现很好整体景深模糊的也很好,过度自然柔和下载:https://www.liblib.art/modelinfo/4510bb8cd80142168dc42103d7c20f82?from=personal_page

AIGC Weekly #84

前段时间由于SD3的问题,开源的图片生态发展一度停滞,值得关注的新项目和模型几乎没有。FLUX上周发布后这个态势被快速改变了,由于其优秀的图片质量,高昂的训练成本并没有阻止开源社区。而且由于在其偏向真实的美学调教风格,也使生成的[发布会写实图片](https://x.com/javilop/status/1821814987737735344)在推上的热度爆发使得FLUX模型快速出圈。再加上[Runway把那张AI生成的照片变成视频](https://x.com/iamneubert/status/1821970292014768420)让更多人对现在图像和视频模型的发展进度有了更多的了解。目前Xlabs已经发布了基于FLUX的Controlnet模型和Lora模型[的训练脚本](https://github.com/XLabs-AI/x-flux)。他们还顺便发布了一个FLUX的Canny Controlnet模型,另外这里还有Instant ID作者的新组织InstantX训练的一个[Canny模型](https://huggingface.co/InstantX/FLUX.1-dev-Controlnet-Canny-alpha)也可以试试。Xlabs也跟Lora训练脚本一起发布了他们的多个Lora,其中这个火遍推特的图片就是用那个[写实Lora](https://huggingface.co/XLabs-AI/flux-RealismLora)做的。具体的Lora包括mjv6_lora、动漫Lora、写实Lora、迪士尼Lora、风景_lora、艺术LoraXlabs Lora下载:https://huggingface.co/XLabs-AI/flux-RealismLora

【SD】软件原理傻瓜级理解

如果不会科学上网,也可以去启动器的界面直接下载模型,当然这里是看不见预览图的,但从名字你可能看不出这个模型是什么风格。将下载的大模型放在根目录的这个文件夹下【……\models\Stable-diffusion】,我们就可以在左上角的模型列表中进行选择了。(看不到就点旁边的蓝色按钮刷新一下)。旁边这个VAE,相当于是给模型增加一个提高饱和度的滤镜和一些局部上的细节微调。当然有的大模型本身就自带VAE,所以就不用再加了。VAE可以直接在启动器里面下载,下载的VAE放在根目录的这个文件夹下【……\models\VAE】。接下来要理解的一个概念是Embedding,这个功能相当于是一个提示词打包的功能。比如你想画一个娜美的人物形象,但是想要固定一个人物形象往往要几十条什么上百条提示词,比如性别、头发、脸型、眼睛、身材等等一大堆精确指向的词汇。那这个时候,就有人将这些提示词整合到一起做成了一个Embedding文件,你只需要使用一个提示词,就可以直接引入这个人物形象进行创作了。下载Embedding的地方同样是在C站,通过右上角的筛选Textual Inversion就可以找到,放在根目录下的embeddings文件夹里即可。接下来,讲一讲最重要的这个LORA,有了LORA就可以将人物或者物品接近完美地复刻进图像中,这就有了极大的商用价值。比如这个“墨心”的LORA,就可以把你的图片变成水墨风格。这个盲盒LORA可以生成这种2.5D的卡通小人角色。或者是一些明星角色的LORA,直接生成真人形象。还有知名的动漫角色,由于LORA其极其强大的功能,所以在使用上,大家需要有很强的版权和法律意识,所谓能力越大、责任越大,玩得太花,小心律师函到你家。

其他人在问
flux和sdXL出图的区别
Flux 和 SDXL 出图主要有以下区别: 1. 生成人物外观:Flux 存在女生脸油光满面、下巴等相同外观问题,而 SDXL 相对在这方面有改进。 2. 模型构成:SDXL 由 base 基础模型和 refiner 优化模型两个模型构成,能更有针对性地优化出图质量;Flux 中 Dev/Schnell 是从专业版中提取出来,导致多样性丧失。 3. 处理方式:在低显存运行时,可采用先使用 Flux 模型进行初始生成,再用 SDXL 放大的分阶段处理方式,有效控制显存使用。 4. 模型参数和分辨率:SDXL 的 base 模型参数数量为 35 亿,refiner 模型参数数量为 66 亿,总容量达 13G 之多,基于 10241024 的图片进行训练,可直接生成 1000 分辨率以上的图片,拥有更清晰的图像和更丰富的细节;而 Flux 在这方面相对较弱。
2024-12-20
flux和sd3.5出图的区别
Flux 和 SD3.5 出图存在以下区别: 1. 模型性质:Flux.1 有多种版本,如开源不可商用的 FLUX.1等。而 SD3.5 未提及相关性质。 2. 训练参数:Flux.1 的训练参数高达 120 亿,远超 SD3 Medium 的 20 亿。 3. 图像质量和提示词遵循能力:Flux.1 在图像质量、提示词跟随、尺寸适应、排版和输出多样性等方面超越了一些流行模型,如 Midjourney v6.0、DALL·E 3和 SD3Ultra 等。 4. 应用场景:Flux.1 可以在 Replicate 或 fal.ai 等平台上试用,支持在 Replicate、fal.ai 和 Comfy UI 等平台上使用,并且支持用户根据自己的数据集进行微调以生成特定风格或主题的图像。而 SD3.5 未提及相关应用场景。 5. 本地运行:文中尝试了在没有 N 卡,不使用复杂工作流搭建工具的 Mac Mini M1 上运行 FLUX.1,以及在边缘设备 Raspberry PI5B 上运行的情况,未提及 SD3.5 的相关内容。 6. 模型安装部署:对于 Flux.1,不同版本的模型下载后放置的位置不同,如 FLUX.1应放在 ComfyUI/models/unet/文件夹中。而 SD3.5 未提及相关安装部署内容。 7. 显存处理:对于 Flux.1,如果爆显存,“UNET 加载器”节点中的 weight_dtype 可以控制模型中权重使用的数据类型,设置为 fp8 可降低显存使用量,但可能会稍微降低质量。而 SD3.5 未提及相关显存处理内容。 8. 提示词使用:在训练 Flux 时,应尽量使用长提示词或自然语言,避免使用短提示词,因为 T5 自带 50%的删标。而 SD3.5 未提及相关提示词使用内容。
2024-12-20
flux1-depth-dev模型存放路径
flux1depthdev 模型的存放路径如下: 1. 下载 flux1depthdev 模型放到 ComfyUI/models/diffusion_models/文件夹中。 夸克网盘:链接:https://pan.quark.cn/s/571d174ec17f 百度网盘:见前文 2. depth lora 模型:https://huggingface.co/blackforestlabs/FLUX.1Depthdevlora ,放到:comfyUI\\models\\loras 。 3. 百度网盘分享的 flux1depthdevlora.safetensors : 链接:https://pan.baidu.com/s/10BmYtY3sU1VQzwUy2gpNlw?pwd=qflr 提取码:qflr
2024-12-17
flux怎么提升生图速度需要哪些依赖
要提升 Flux 的生图速度,以下是一些相关的依赖和要点: 1. 条件引导:在去噪过程中,模型使用编码后的文本向量来引导图像生成,确保生成的图像与输入的文本描述相符。 2. 采样器:ComfyUI 提供了多种采样算法(如 Euler、DDIM、DPM++等)来控制去噪过程,不同的采样器可能会影响生成速度和结果。 3. Vae 编码:VAE 由编码器和解码器组成。编码器输入图像并输出表示其特征的概率分布,解码器将概率分布映射回图像空间。 4. 结果输出:ComfyUI 最终将生成的图像显示在界面上,用户可进行保存、编辑或用于其他目的。 5. 额外控制:ComfyUI 支持多种高级功能,如图像到图像、Lora、ControlNet、ipadapter 等。 6. 低配置方案:对于显存不够 16G 的情况,开源社区有优化方案。如 NF4 来自 controlnet 的作者,GGUF 包含多个版本。NF4 模型可从 https://huggingface.co/lllyasviel/flux1devbnbnf4/blob/main/flux1devbnbnf4.safetensors 下载,放置在 ComfyUI/models/checkpoint/中,其配套节点插件可通过 git clone https://github.com/comfyanonymous/ComfyUI_bitsandbytes_NF4.git 获取。GGUF 模型可从 https://huggingface.co/city96/FLUX.1devgguf/tree/main 下载,配套节点插件为 https://github.com/city96/ComfyUIGGUF 。在最新版本的 ComfyUI 中,GGUF 的节点插件可在 Manager 管理器中搜到下载安装,NF4 的配套节点插件则搜不到。使用精度优化的低配模型时,工作流和原版不同。相关生态发展迅速,有 Lora、Controlnet、IPadpter 等,字节最近发布的 Flux Hyper lora 可实现 8 步快速生图。
2024-12-09
FLUX stable diffusion
以下是关于 FLUX stable diffusion 的相关信息: ComfyUI 的生图原理:ComfyUI 使用预训练的扩散模型作为核心,包括 FLUX 等模型。在节点化界面中,用户可通过不同模块控制潜在空间操作、UNet 中的推理步骤及条件输入。 稳定扩散的运作:稳定扩散通过逐步去除图像中的噪点来生成艺术作品,它了解世界和书面语言以指导噪点消除过程。 Flux 工具: 制作团队:原 stable diffusion 核心团队因开源理念不合,成立“黑森林”团队,推出 Flux。 型号:首次发布三种型号,包括 Flux pro(闭源使用)、Flux dev(开源,供学习研究,不支持商用)、Flux schnell(开源,开源最彻底,支持商用)。 参数量:参数训练量达 12B,语言支持自然语言。相比之下,SD3 Large 训练参数 8B,SD3 Medium 训练参数 2B。 硬件要求:推理 dev 版本的 Flux 模型时,最低显存需要 16G,建议 24G,模型本身大小约 22G。训练时,优化后 16G 可训练 Lora 模型,DB 方式训练微调模型除显存最低 24G 外,内存需 32G 以上。
2024-11-29
flux和lora分别是什么意思
Flux 是一种在图像转换和处理方面具有特定功能的工具。它具有多种功能,如使用 FLUX.1 Canny / Depth 进行结构调节,通过边缘或深度检测来在图像转换过程中保持精确控制;使用 FLUX.1 Redux 进行图像变化和重新设计,给定输入图像可以重现具有轻微变化的图像。 Lora 是一种低阶自适应模型,可以理解为基础模型(如 Checkpoint)的小插件。在生图时可有可无,但对于控制面部、材质、物品等细节有明显价值,旁边的数值是其权重。
2024-11-25
ai动漫推文神器
以下是一些可用于将小说制作成视频的 AI 工具及相关教程: 工具: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可基于文本描述生成图像。 网址:https://github.com/StabilityAI 2. Midjourney(MJ):适用于创建小说中的场景和角色图像。 网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,能生成图像和设计模板。 网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。 网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。 网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。 网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。 网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。 网址:https://www.aihub.cn/tools/video/gushiai/ AI 漫画 Anifusion 教程: 1. 轻松创建布局:使用 Anifusion 直观的布局工具释放创造力,可从设计的漫画预设中选择或创建独特布局,灵活的系统适合各种经验水平的用户。 2. 文字转漫画:选择布局后,用简单提示描述页面内容,让 AI 讲述故事,还可使用强大的画布编辑器优化结果。 3. 高级文本支持:支持竖排文本和各种流行的漫画字体,可选择不同的文本样式和效果来创建更具影响力的面板。 范例视频: 1. 2.
2024-12-17
ai动漫推文
以下是关于 AI 动漫的相关内容: 将小说制作成 AI 视频的工具和流程: 工具:Stable Diffusion(SD)、Midjourney(MJ)、Adobe Firefly、Pika AI、Clipfly、VEED.IO、极虎漫剪、故事 AI 绘图。 流程:通常包括文本分析、角色与场景生成、视频编辑与合成等。 工具网址: Stable Diffusion:https://github.com/StabilityAI Midjourney:https://www.midjourney.com Adobe Firefly:https://www.adobe.com/products/firefly.html Pika AI:https://pika.art/waitlist Clipfly:https://www.aihub.cn/tools/video/clipfly/ VEED.IO:https://www.veed.io/zhCN/tools/aivideo 极虎漫剪:https://tiger.easyartx.com/landing 故事 AI 绘图:https://www.aihub.cn/tools/video/gushiai/ GenAI 硬件 Startup 推特热度榜(英文版): |No.|Product name|Classification|Company|Twitter Number of followers k|Price| ||||||| |1|AI pin|Pendant|Humane|108|699| |2|RabbitR1|Pendant|Rabbit Inc|79.6|199| |3|Tab|Pendant|MyTabAi|77.8|699| |4|Lovot|Toy robot|GROOVE X|32|9000| |5|Limitless AI Pendant|Pendant|Rewind|19|99| |6|Folo AICactus,Magicbox,Octopus|Toy robot|FoloToy|17|50| |7|OrCam MYEYE|Glasses|OrCam|10|4250| |8|Frame|Glasses|Brilliant Labs|9|349| |9|Open Glass|Glasses|Personal|8|20| |10|iKKO active buds|Headphones|Aike Technology|4|279| |11|Timekettle WT2|Headphones|Timekettle|3|299| |12|Miko 3|Toy robot|miko|3|199| |13|Envision Glasses|Glasses|Envision|2|699| |14|Grok、Grem、Gabbo|Toy robot|Curio Interactive|2|99| |15|LOOI|Toy robot|TangibleFuture|1.8|129| 工具教程:AI 漫画 Anifusion 轻松创建布局:使用直观的布局工具,可从预设中选择或创建独特布局,灵活系统适合不同经验水平的用户。 文字转漫画:选择布局后用提示描述页面内容,让 AI 讲述故事,并用画布编辑器优化结果。 高级文本支持:支持竖排文本和各种流行漫画字体,可选择不同样式和效果。 相关视频:
2024-12-17
ai视频动漫
以下是关于 AI 视频动漫的相关信息: 一、现阶段应用场景 AI 视频产品目前面向的主要受众群体包括: 1. 专业创作者(艺术家、影视人等):AI 生成能够为作品赋予独特风格和想象力,为创作者提供灵感,配合高超的剪辑技巧和叙事能力,便可以制作出超乎想象的效果。低成本动捕更是能够大幅降低后期制作的门槛和成本,自动识别背景生成绿幕、视频主体跟随运动等能够辅助视频编辑,为后期制作增加更多空间。目前该应用主要集中在音乐 MV、短篇电影、动漫等方向。一些 AI 视频平台也积极寻求创意合作,为创作者提供免费支持。例如,@valleeduhamel 使用现有的素材、Gen1 和大量合成创作了新电影《After Light》的过程分享,Ammaar Reshi 的团队使用 Stable WarpFusion+Davinci Resolve 制作完整的动漫剧情,制作过程分享。 2. 自媒体、非专业创作者:这部分人群通常有着非常具体且明确的视频剪辑痛点。比如科技、财经、资讯类重脚本内容的视频在制作时需花费大量时间寻找视频素材、还需注意视频版权问题。一些产品(Invideo AI、Pictory)已经在发力脚本生成分镜、视频,帮助创作者降低视频素材制作门槛。Gamma AI 已经实现了文章高效转 PPT 的能力,若能结合 Synthesia、HeyGen AI、DID 等产品的 Avatar、语音生成能力也可快速转化为视频内容。不同平台适合不同内容形式,创作者想要将同一个素材在不同平台分发就意味着制作成本的升高。而 OpusClip 提供的长视频转短视频致力于解决这一痛点。 3. 企业客户:对于没有足够视频制作资金的小企业、非盈利机构来说,AI 视频生成可以为其大幅缩减成本。 二、热门产品介绍 现阶段 AI 视频产品在真实系视频生成上的效果有了飞速进步,但在偏平面的漫画风格上还缺乏训练数据,画面中的可运动元素也比较难被判断,因此使用 img2vid 比较难产出合适的动画,动画幅度较大时很难保证前后一致性。尝试做了一个黑白漫画画风动画,使用了 Luma AI 作为主力,Runway、Pixverse、SVD 等工具作为辅助产出。事实证明 Luma 在清晰度和运动幅度上都是目前可用的 AI 视频工具中最好的。 三、AI 摆摊项目中的应用 在 AI 摆摊项目中,视频处理方面包括视频动漫化等。例如,换脸(60 积分)、视频动漫化、AI 生成的视频脚本(20 积分)、AI 高清处理(10 积分)。
2024-12-16
AI制作动漫
以下是关于 AI 制作动漫的相关信息: Anifusion: 网址:https://anifusion.ai/ ,twitter 账号:https://x.com/anifusion_ai 这是一款基于人工智能的在线工具,旨在帮助用户轻松创建专业质量的漫画和动漫作品。即使没有绘画技能,用户只需输入文本描述,Anifusion 的 AI 就能将其转化为完整的漫画页面或动漫图像。 主要功能: AI 文本生成漫画:用户输入描述性提示,AI 会根据文本生成相应的漫画页面或面板。 直观的布局工具:提供预设模板,用户也可自定义漫画布局,设计独特的面板结构。 强大的画布编辑器:在浏览器中直接优化和完善 AI 生成的艺术作品,调整角色姿势、面部细节等。 多种 AI 模型支持:高级用户可访问多种 LoRA 模型,实现不同的艺术风格和效果。 商业使用权:用户对在平台上创作的所有作品拥有完整的商业使用权,可自由用于商业目的。 使用案例: 独立漫画创作:有抱负的漫画艺术家无需高级绘画技能即可将他们的故事变为现实。 快速原型设计:专业艺术家可以在详细插图之前快速可视化故事概念和布局。 教育内容:教师和教育工作者可以为课程和演示创建引人入胜的视觉内容。 营销材料:企业可以制作动漫风格的促销漫画或用于活动的分镜脚本。 粉丝艺术和同人志:粉丝可以基于他们最喜欢的动漫和漫画系列创作衍生作品。 优点: 非艺术家也可轻松进行漫画创作。 基于浏览器的全方位解决方案,无需安装额外软件。 快速迭代和原型设计能力。 创作的全部商业权利。 AI 视频生成现阶段应用场景: 专业创作者(艺术家、影视人等):AI 生成能够为作品赋予独特风格和想象力,为创作者提供灵感,配合高超的剪辑技巧和叙事能力,便可以制作出超乎想象的效果。低成本动捕更是能够大幅降低后期制作的门槛和成本,自动识别背景生成绿幕、视频主体跟随运动等能够辅助视频编辑,为后期制作增加更多空间。目前该应用主要集中在音乐 MV、短篇电影、动漫等方向。一些 AI 视频平台也积极寻求创意合作,为创作者提供免费支持。 自媒体、非专业创作者:这部分人群通常有着非常具体且明确的视频剪辑痛点。比如科技、财经、资讯类重脚本内容的视频在制作时需花费大量时间寻找视频素材、还需注意视频版权问题。一些产品(Invideo AI、Pictory)已经在发力脚本生成分镜、视频,帮助创作者降低视频素材制作门槛。Gamma AI 已经实现了文章高效转 PPT 的能力,若能结合 Synthesia、HeyGen AI、DID 等产品的 Avatar、语音生成能力也可快速转化为视频内容。不同平台适合不同内容形式,创作者想要将同一个素材在不同平台分发就意味着制作成本的升高。而 OpusClip 提供的长视频转短视频致力于解决这一痛点。 企业客户:对于没有足够视频制作资金的小企业、非盈利机构来说,AI 视频生成可以为其大幅缩减成本。 将小说做成视频的工具与网址: Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址:https://github.com/StabilityAI Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址:https://www.midjourney.com Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址:https://www.adobe.com/products/firefly.html Pika AI:文本生成视频的 AI 工具,适合动画制作。网址:https://pika.art/waitlist Clipfly:一站式 AI 视频生成和剪辑平台。网址:https://www.aihub.cn/tools/video/clipfly/ VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址:https://www.veed.io/zhCN/tools/aivideo 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址:https://tiger.easyartx.com/landing 故事 AI 绘图:小说转视频的 AI 工具。网址:https://www.aihub.cn/tools/video/gushiai/
2024-12-15
如何通过AGI,生成有一定操控能力的风格化、动漫风生成式短视频,如何做,几个步骤
以下是生成有一定操控能力的风格化、动漫风生成式短视频的步骤: 1. 项目规划:确定短视频的主题和目标观众,制定详细的制作计划。 2. 剧本创作:编写故事脚本,设计角色和场景以及创意。可参考相关剧本创作资料,如:https://waytoagi.feishu.cn/wiki/G11fwW8bmiVLe6kYLgYc2iGin6e ;捏剧本 Bot(捏剧本离谱村专用 https://www.coze.cn/store/bot/7367669913697239052?panel=1&bid=6cs144r404016 。 3. 分镜头脚本:根据脚本制作分镜头脚本,确定每个镜头的画面和动作。 4. 资源准备:准备动画制作所需的素材,包括背景、角色和音效。 5. 画面图片制作:利用 AI 出图工具,比如通过 ChatGPT、MJ、SD 等工具快速生成高质量的图片。 6. 视频制作:利用 AI 工具制作动画,通过 RUNWAY、Luma、Dreamina 等平台快速生成高质量的动画。 7. 后期剪辑:添加音效、配音和字幕,进行最终的剪辑和合成。 8. 发布和推广:将完成的动画短片发布到各大平台,并进行推广和宣传。 此外,在实际制作中,还可以参考一些成功案例,如山西文旅宣传片的制作,运用 Defense 及 SD 制作黄河长城等 AI 艺术字;为陕西文旅做的 40 秒黑神话悟空风格 AI 短片,用 SD 结合 Control Lite 处理钟楼等。郑州 AI 文旅片工作流总体分为分镜脚本、单帧图片制作、图片细节修复与生成视频、视频风格化处理、剪辑合成五个步骤。
2024-12-09
如何通过AGI,生成有一定操控能力的风格化、动漫风生成式短视频
目前关于通过 AGI 生成有一定操控能力的风格化、动漫风生成式短视频,以下是一些相关信息: 2024 年内,有一定操控能力的生成式短视频中,风格化、动漫风最先成熟,真人稍晚。 同时,在 2024 年还会有其他相关进展,如 AI 音频能力长足进展,带感情的 AI 配音基本成熟;“全真 AI 颜值网红”出现,可以稳定输出视频,可以直播带货;游戏 AI NPC 有里程碑式进展,出现新的游戏生产方式;AI 男/女朋友聊天基本成熟,记忆上有明显突破,可以较好模拟人的感情,产品加入视频音频,粘性提升并开始出圈;实时生成的内容开始在社交媒体内容、广告中出现;AI Agent 有明确进展,办公场景“AI 助手”开始有良好使用体验;AI 的商业模式开始有明确用例,如数据合成、工程平台、模型安全等;可穿戴全天候 AI 硬件层出不穷,虽然大多数不会成功;中国 AI 达到或超过 GPT4 水平,美国出现 GPT5,世界上开始现“主权 AI”;华为昇腾生态开始形成,国内推理芯片开始国产替代(训练替代要稍晚);AI 造成的 DeepFake、诈骗、网络攻击等开始进入公众视野,并引发担忧;AI 立法、伦理讨论仍然大规模落后于技术进展。 2025 2027 年,AI 3D 技术、物理规则成熟,正常人无法区别 AI 生成还是实景拍摄;全真 AI 虚拟人成熟,包含感情的 AI NPC 成熟,开放世界游戏成熟,游戏中几乎无法区别真人和 NPC;AR/VR 技术大规模商用;接近 AGI 的技术出现;人与 AI 配合的工作方式成为常态,很多日常决策开始由 AI 来执行;AI 生产的数据量超过全人类生产数据量,“真实”成为稀缺资源;具身智能、核聚变、芯片、超导、机器人等技术有明显进展突破;“人的模型”出现,出现“集中化 AGI”与“个人 AGI”的历史分叉;AI 引发的社会问题开始加重,结构性失业开始出现;AGI 对于地缘政治的影响开始显露。
2024-12-09
推荐一个AI工具,帮助我每天自动执行以下步骤:从本地上传文件给大模型,该文件内含有新闻网页链接,大模型读取链接并汇总内容
以下为您推荐的 AI 工具可能有助于您实现每天自动执行从本地上传文件给大模型,并让大模型读取文件内新闻网页链接并汇总内容的需求: 1. AI 拍立得(Pailido): 特点:即拍即得,简化流程,操作直观高效。 体验方式:微信小程序搜索“Pailido”。 交互逻辑:用户选择拍摄场景类型并拍照,AI 自动识别和分析照片内容信息,依据预设场景规则迅速生成符合情境的反馈。 实现场景: 图片转成文本:用户上传图片后,大模型根据选择的场景生成相关文字描述或解说文本,可用于生成美食点评、朋友圈发布文案、闲鱼上架示例模版等。 图片转绘图片:用户上传图片后,大模型按照指定风格快速生成图像的转绘版本,适应不同风格和场景需求,如图片粘土风、图片积木风、图片像素风等。 2. 内容仿写 AI 工具: 秘塔写作猫:https://xiezuocat.com/ ,是 AI 写作伴侣,能推敲用语、斟酌文法、改写文风,实时同步翻译,支持全文改写、一键修改、实时纠错并给出修改建议,智能分析文章属性并打分。 笔灵 AI 写作:https://ibiling.cn/ ,是智能写作助手,支持多种文体写作,如心得体会、公文写作、演讲稿、小说、论文等,支持一键改写/续写/扩写,智能锤炼打磨文字。 腾讯 Effidit 写作:https://effidit.qq.com/ ,由腾讯 AI Lab 开发的智能创作助手,能提升写作者的写作效率和创作体验。 更多 AI 写作类工具可以查看:https://www.waytoagi.com/sites/category/2 。请注意,内容由 AI 大模型生成,请仔细甄别。
2024-12-21
如何利用AGI创建3D打印的模型
利用 AGI 创建 3D 打印模型的方法如下: 1. 将孩子的画转换为 3D 模型: 使用 AutoDL 部署 Wonder3D:https://qa3dhma45mc.feishu.cn/wiki/Pzwvwibcpiki2YkXepaco8Tinzg (较难) 使用 AutoDL 部署 TripoSR:https://qa3dhma45mc.feishu.cn/wiki/Ax1IwzWG6iDNMEkkaW3cAFzInWe (小白一学就会) 具体实物(如鸟/玩偶/汽车)的 3D 转换效果最佳,wonder3D 能智能去除背景(若效果不佳,需手动扣除背景) 对于一些非现实类玩偶类作品,wonder3D 识别效果不佳时,可先使用 StableDiffusion 将平面图转换为伪 3D 效果图再生成模型。以 usagi 为例,先通过 SD 生成 3D 的 usagi,再将 usagi 输入 wonder3D。 2. 生成特定模型,如创建一个乐高 logo 的 STL 文件: 设计乐高 logo:使用矢量图形编辑软件(如 Adobe Illustrator 或 Inkscape)创建或获取矢量格式的乐高 logo,确保符合标准。 导入 3D 建模软件:将矢量 logo 导入到 3D 建模软件(如 Blender、Fusion 360 或 Tinkercad)中。 创建 3D 模型:在 3D 建模软件中根据矢量图形创建 3D 模型,调整尺寸和厚度以适合打印。 导出 STL 文件:将完成的 3D 模型导出为 STL 文件格式。 以下是在 Blender 中使用 Python 脚本创建简单 3D 文本作为乐高 logo 并导出为 STL 文件的步骤: 打开 Blender,切换到“脚本编辑器”界面。 输入脚本,点击“运行脚本”按钮,Blender 将创建 3D 文本对象并导出为 STL 文件。 检查生成的 STL 文件,可根据需要调整脚本中的参数(如字体、位置、挤压深度等)以获得满意的乐高 logo 3D 模型。 此外,还有一些其他动态: 阿里妈妈发布了:https://huggingface.co/alimamacreative/FLUX.1TurboAlpha ,演示图片质量损失小,比 FLUX schell 本身好很多。 拓竹旗下 3D 打印社区 Make World 发布 AI:https://bambulab.com/zh/signin ,3D 生成模型找到落地和变现路径。 上海国投公司搞了一个:https://www.ithome.com/0/801/764.htm ,基金规模 100 亿元,首期 30 亿元,并与稀宇科技(MiniMax)、阶跃星辰签署战略合作协议。 智谱的:https://kimi.moonshot.cn/ 都推出基于深度思考 COT 的 AI 搜索。 字节跳动发布:https://mp.weixin.qq.com/s/GwhoQ2JCMQwtLN6rsrJQw ,支持随时唤起豆包交流和辅助。 :https://x.com/krea_ai/status/1844369566237184198 ,集成了海螺、Luma、Runway 和可灵四家最好的视频生成模型。 :https://klingai.kuaishou.com/ ,现在可以直接输入文本指定对应声音朗读,然后再对口型。
2024-12-20
如何通过提示词提高模型数据对比和筛选能力
以下是一些通过提示词提高模型数据对比和筛选能力的方法: 1. 选择自定义提示词或预定义话题,在网站上使用如 Llama3.1 8B Instruct 模型时,输入对话内容等待内容生成,若右边分析未刷新可在相关按钮间切换。由于归因聚类使用大模型,需稍作等待,最终结果可能因模型使用的温度等因素而不同。 2. 在写提示词时不能依赖直觉和偷懒,要实话实说,补充详细信息以避免模型在边缘情况上犯错,这样也能提高数据质量。 3. 在分类问题中,提示中的每个输入应分类到预定义类别之一。在提示末尾使用分隔符如“\n\n\n\n”,选择映射到单个 token 的类,推理时指定 max_tokens=1,确保提示加完成不超过 2048 个 token,每班至少有 100 个例子,可指定 logprobs=5 获得类日志概率,用于微调的数据集应在结构和任务类型上与模型使用的数据集相似。例如在确保网站广告文字正确的案例中,可微调分类器,使用合适的分隔符和模型。
2024-12-20
通过提示词可以提高模型的数学计算能力吗
通过提示词可以在一定程度上提高模型的数学计算能力。例如 PoT 技术,它是思维链技术的衍生,适用于数值推理任务,会引导模型生成一系列代码,再通过代码解释器工具进行运算,这种方式能显著提升模型在数学问题求解上的表现。PoT 作为 CoT 的衍生技术,遵循零样本和少样本的学习范式,零样本 PoT 与 CoT 方法相似,不需要大量样本即可进行有效推理,少样本 PoT 也通过较少样本优化模型表现。但需要注意的是,大模型在解决数学问题时可能存在不够可靠的情况。
2024-12-20
哪一个开源大语言模型对中文支持比较好?
以下是一些对中文支持较好的开源大语言模型: 1. OpenChineseLLaMA: 地址: 简介:基于 LLaMA7B 经过中文数据集增量预训练产生的中文大语言模型基座,对比原版 LLaMA,该模型在中文理解能力和生成能力方面均获得较大提升,在众多下游任务中均取得了突出的成绩。 2. BELLE: 地址: 简介:开源了基于 BLOOMZ 和 LLaMA 优化后的一系列模型,同时包括训练数据、相关模型、训练代码、应用场景等,也会持续评估不同训练数据、训练算法等对模型表现的影响。 3. Panda: 地址: 简介:开源了基于 LLaMA7B,13B,33B,65B 进行中文领域上的持续预训练的语言模型,使用了接近 15M 条数据进行二次预训练。 4. Llama2Chinese13bChat: 地址: 5. Gemma7bit: 地址: 此外,AndesGPT 在语言理解与抽取、角色扮演能力上排名国内前一,在代码、生成与创作、上下文对话能力上排名国内前三,各项能力较为均衡,聚焦在移动设备端的应用。Baichuan213BChat 是百川智能自主训练的开源大语言模型,是中文开源模型的主导力量。
2024-12-20
说明jetson orin nano可以使用什么模型?Grok-1模型可以吗?
目前没有关于 Jetson Orin Nano 是否可以使用 Grok1 模型的明确信息。但一般来说,Jetson Orin Nano 可以支持多种常见的深度学习模型,如基于 TensorFlow、PyTorch 框架开发的模型等。具体能够使用哪些模型,还需要考虑模型的计算需求、内存占用以及 Jetson Orin Nano 的硬件配置和性能限制等因素。
2024-12-20
可灵和即梦哪个生成视频的能力更强
目前难以直接明确可灵和即梦哪个生成视频的能力更强。 Google DeepMind 和 OpenAI 展示了强大的文本到视频扩散模型预览,但访问受限且技术细节披露不多。Meta 更进一步,将音频加入其 Movie Gen 模型。 在 2024 年,国内涌现出一系列 AI 生成视频工具,如可灵、即梦、智谱清影等,生成结果甚至远超国外。 即梦是剪映旗下的,生成 3 秒视频,动作幅度有很大升级,有最新的 S 模型和 P 模型。可灵支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。 在图生视频方面,市面上主要的工具包括可灵、即梦、Luma,核心方法是穷举和不断调整 prompt 来设计人物动作、辅助镜头运镜等。
2024-12-21
文字生成视频有哪些好的应用
以下是一些文字生成视频的好的应用: 1. Pika:是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新插件,在图片基础上直接生成视频,它是由 Stability AI 开源的 video model。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频的功能,但需要注意的是,Runway 是收费的。 4. Kaiber:视频转视频 AI,能够将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可以生成长达 1 分钟以上的视频。 6. Genmo:相较于 Pika 和 Runway,生成视频的清晰度大幅提高,人像的稳定性和美观度强很多,支持镜头控制且控制粒度更细,但还没开放图片生成视频,只能用文字提示词。 7. VIGGLE:能直接通过文字描述让任何静态图动起来,能做各种动作,还能直接文字生成视频,进行各种角色混合和动作替换。其核心技术基于 JST1 模型,该模型是首个具有实际物理理解能力的视频3D 基础模型,能够根据用户需求,让任何角色按照指定方式进行运动。 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 。内容由 AI 大模型生成,请仔细甄别。
2024-12-21
生成图片的选项U和V是什么意思
在 Midjourney 中,生成图片后出现的 U 和 V 按钮具有以下含义: U 按钮(Upscale):代表放大图像提升细节。数字代表对应的图像,如 U1、U2、U3、U4。点击 U 按钮可以生成选定图像的较大尺寸版本,并优化更多细节呈现。 V 按钮(Variation):代表在基础上发生变化。数字表示对应的图像,如 V1、V2、V3、V4。选择觉得效果不错的某张图,如第 2 张图,点击 V2,会再生成四个和第 2 张图相似的图像。
2024-12-21
🚀接着上期SOP+AI:打造职场高效能人士的秘密武器的分享,今天继续聊聊SOP+AI的应用,🎯今天的主题是“怎样利用AI节约10倍内容创作时间?”📚最近跟团队有开始运营小红书账号,就想着先给自己打造点顺手的工具,于是乎「小红书文案专家」就出生啦~🎉[heading1]一、先介绍下我们小Bot[content]🛺BOT名称:小红书文案专家功能价值:见过多个爆款文案长啥样,只需输入一个网页链接或视频链接,就能生成对应的小红书文案,可以辅助创作者生成可以一键复制发布的初稿,提供创意和内容,1
以下是关于“SOP+AI”的相关内容: 怎样利用 AI 节约 10 倍内容创作时间? 最近团队开始运营小红书账号,于是打造了“小红书文案专家”。 BOT 名称:小红书文案专家 功能价值:见过多个爆款文案,输入网页或视频链接就能生成对应的小红书文案,辅助创作者生成可一键复制发布的初稿,提供创意和内容,节约 10 倍文字内容创作时间。 应用链接:https://www.coze.cn/s/ij5C6LWd/ 设计思路: 痛点:个人时间有限,希望有人写初稿并生成配图。 实现思路:为自己和团队设计工作流,让 AI 按运营思路和流程工作。 一期产品功能: 1. 提取任何链接中的标题和内容。 2. 按小红书平台文案风格重新整理内容。 3. 加入 emoji 表情包,使文案更有活力。 4. 为文案配图片。 二期计划功能:持续优化升级,增加全网搜索热点功能,提炼热点新闻或事件关键信息,结合用户想要生成的内容方向输出文案和配图。 SOP+AI:打造职场高效能人士的秘密武器 案例分享:X 公司客服团队引入 SOP 和 AI 助手后,工作效率显著提升。引入 SOP 前,客服工作流程混乱,效率低下,客户满意度不高。引入 SOP 标准化操作后,效率提高。进一步引入 AI 助手,自动回复常见问题、处理简单请求,减少客服工作量,还能及时发现问题帮助优化。结果客服团队工作效率提升 30%以上,客户满意度显著提高。SOP 能提升效率、减少失误、促进协作,借助 AI 助手,SOP 制定和优化更高效智能。
2024-12-20
视频生成哪一个ai最强
目前在视频生成领域,以下几个 AI 表现较为突出: Luma AI: Dream Machine 功能包括 txt2vid 文生视频和 img2vid 图生视频,还支持 Extend 延长 4s、循环动画、首尾帧动画能力。 8 月底最新发布的 Dream Machine 1.5 增强了提示词理解能力和视频生成能力,对视频内文字的表现很强。 在 img2vid 图生视频方面,生成效果在多方面远超其他产品,如生成时长较长(5s)、24 帧/s 非常丝滑、运动幅度大且能产生相机的多角度位移、提示词中可增加无人机控制的视角变化、运动过程中一致性保持较好、分辨率高且有效改善了运动幅度大带来的模糊感。 Runway:推出了实力强劲的 Gen3 模型。 此外,以下是其他视频生成的 Top10 产品及相关数据: |排行|产品名|分类|4 月访问量(万 Visit)|相对 3 月变化| |||||| |1|InVideo|其他视频生成|736|0.118| |2|Fliki|其他视频生成|237|0.165| |3|Animaker ai|其他视频生成|207|0.076| |4|Pictory|其他视频生成|122|0.17| |5|Steve AI|其他视频生成|76|0.119| |6|decohere|其他视频生成|57.5|0.017| |7|MagicHour|其他视频生成|53.7|0.071| |8|Lumen5|其他视频生成|51|0.149| |9|democreator|其他视频生成|41.9|0.136| |10|腾讯智影|其他视频生成|35.4|0.131|
2024-12-20
免费生成思维导图的AI网址
以下是一些免费生成思维导图的 AI 网址: 1. GitMind:一款免费的跨平台 AI 思维导图软件,支持提问、回答、自动生成等多种模式,可通过 AI 自动生成思维导图。 2. ProcessOn:国内思维导图+AIGC 的工具,能够利用 AI 生成思维导图。 3. AmyMind:轻量级的在线 AI 思维导图工具,无需注册登录即可使用,支持自动生成节点。 4. Xmind Copilot:Xmind 推出的基于 GPT 的 AI 思维导图助手,可一键拓展思路,生成文章大纲。 5. TreeMind:“AI 人工智能”思维导图工具,输入需求后由 AI 自动完成思维导图生成。 6. EdrawMind:提供一系列 AI 工具,包括 AI 驱动的头脑风暴功能,有助于提升生产力。 总的来说,这些 AI 思维导图工具都能通过 AI 技术自动生成思维导图,提高制作效率,为知识工作者带来便利。 此外,以下是一些可以使用 AI 绘制示意图的工具和平台: 1. Lucidchart:强大的在线图表制作工具,集成 AI 功能,可自动化绘制流程图、思维导图、网络拓扑图等多种示意图。具有拖放界面,易于使用,支持团队协作和实时编辑,有丰富的模板库和自动布局功能。官网:https://www.lucidchart.com/ 2. Microsoft Visio:专业的图表绘制工具,适用于复杂的流程图、组织结构图和网络图。其 AI 功能可帮助自动化布局和优化图表设计。集成 Office 365,方便与其他 Office 应用程序协同工作,有丰富的图表类型和模板,支持自动化和数据驱动的图表更新。官网:https://www.microsoft.com/enus/microsoft365/visio/flowchartsoftware 3. Diagrams.net:免费且开源的在线图表绘制工具,适用于各种类型的示意图绘制。支持本地和云存储(如 Google Drive、Dropbox),有多种图形和模板,易于创建和分享图表,可与多种第三方工具集成。官网:https://www.diagrams.net/
2024-12-20