Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

国内能免费生成高清AI图片的网站有哪些

Answer

以下是一些国内能免费生成高清 AI 图片的网站:

  1. 通义万相:作为国产 AI 工具,在中文理解和处理方面表现出色。用户可以从多种艺术风格和图像风格中进行选择,生成的图像质量较高,细节丰富。重点是现在免费,每天签到获取灵感值就可以。但为了符合国内监管要求,某些类型的图像可能无法生成,在处理非中文语言或国际化内容方面可能存在不足。
  2. 可灵:由快手团队开发的 AI 应用,主要用于生成高质量的图像和视频,图像质量非常高。最初采用内测邀请制,现在已向所有用户开放使用。不过价格相对较高,重度用户年费可能达几千元,平均每月使用成本在 400 到 600 元之间。临时或轻度使用有每日免费点数和 60 多元单月的最便宜包月选项。
Content generated by AI large model, please carefully verify (powered by aily)

References

给小白的AI产品推荐

在图像AI领域,我们见证了一场引人注目的变革。不久前,国外产品还是这个舞台上的独角戏,风靡全球。国内产品似乎还在后台默默追赶,努力缩小差距。今天,我们看到的是一幅截然不同的画面。国内的图像AI产品不再甘居人后,而是以惊人的速度赶超,甚至在某些方面开始引领潮流。所以谈到图像类AI产品的时候就有国内的产品可以讲一讲了。[heading2]3.1国内[heading3]3.1.1可灵[content]首先介绍的是"可灵",这是一款由快手团队开发的AI应用。可灵主要用于生成高质量的图像和视频。它的一大特点是生成的图像质量非常高。可灵最初采用内测邀请制,但现在已经向所有用户开放使用。然而,可灵的价格相对较高。与其他AI应用相比,它的费用要贵一些。对于重度用户,最高档的年费可能达到几千元人民币,如果平均到每个月,使用成本在400到600元人民币之间。但如果临时使用或轻度使用的话,仍然有每日免费点数和60多元单月的最便宜包月选项,对轻度用户来说还是值得一试的。[heading3]3.1.2通义万相[content]通义万相作为国产AI工具,它在中文理解和处理方面表现出色,这一特点使其在国内市场具有独特优势。用户可以从多种艺术风格和图像风格中进行选择,满足不同创作需求。生成的图像质量较高,细节丰富,能够满足大多数用户的期望。操作界面设计简洁直观,用户友好度高,降低了使用门槛。作为阿里生态系统的一部分,该工具可以与阿里其他产品和服务无缝整合,为用户提供更全面的解决方案。重点是现在免费,每天签到获取灵感值就可以。然而,这个应用也存在一些局限性。为了符合国内监管要求,某些类型的图像可能无法生成,这在一定程度上限制了创作自由度。在处理非中文语言或国际化内容方面,它可能不如一些国际AI图像生成工具那样出色。由于模型训练数据可能主要基于中文环境,在处理多元文化内容时可能存在偏差。

2024人工智能报告|一文迅速了解今年的AI界都发生了什么?

**中国开源项目在今年赢得全球粉丝,并且已经成为积极开源贡献者。**其中几个模型在个别子领域中脱颖而出,成为强有力的竞争者。DeepSeek在编码任务中已成为社区的最爱,其组合了速度、轻便性和准确性而推出的deepseek-coder-v2。阿里巴巴最近发布了Qwen-2系列,社区对其视觉能力印象深刻,从具有挑战性的OCR任务到分析复杂的艺术作品,都完成的非常好。在较小的一端,清华大学的自然语言处理实验室资助了OpenBMB项目,该项目催生了MiniCPM项目。这些是可以在设备上运行的小型<2.5B参数模型。它们的2.8B视觉模型在某些指标上仅略低于GPT-4V。2024年是AI图像视频迅速发展的一年,这个赛道竞争异常激烈国外Stability AI发布的Stable Video Diffusion,是第一个能够从文本提示生成高质量、真实视频的模型之一,并且在定制化方面取得了显著的进步。并且在今年3月,他们推出了Stable Video 3D,该模型经过第三个对象数据集的微调,可以预测三维轨道。OpenAI的Sora能够生成长达一分钟的视频,同时保持三维一致性、物体持久性和高分辨率。它使用时空补丁,类似于在变压器模型中使用的令牌,但用于视觉内容,以高效地从大量视频数据集中学习。除此之外,Sora还使用了其原始大小和纵横比的视觉数据进行训练,从而消除了通常会降低质量的裁剪和缩放。Google DeepMind的Veo将文本和可选图像提示与嘈杂压缩视频输入相结合,通过编码器和潜在扩散模型处理它们,以创建独特的压缩视频表示。然后系统将此表示解码为最终的高分辨率视频。

从游戏截图升级到KV品质,AI居然可以这样用!

目前市面上有线上和线下本地部署的两种AI:线上的优势为出图速度快,不吃本地显卡的配置,且无需自己下载动辄几个G的模型,还能看其他创作者的制作的涩图,但为了节约算力成本他们只支持出最高1024X1024左右的图,制作横板、高清等图片就会受限线下部署的优势为可以自己添加插件,不卡算力,出图质量高于线上平台,但是使用期间电脑基本处于宕机状态,如果配置不高的话还会出现生成半天之后爆显存的情况,导致出图失败[heading3]所以我们这里充分发挥线上和线下平台的优势[content]线上:找参考,测试模型线下:主要的出图工具在线上绘图网站的绘图广场上发现自己想要的画风点击创作,会自动匹配创作的使用的模型lora和tag截取一小张游戏人物作为底图,目的是将线上平台有限的算力全部堆在人物身上多批次,多数量的尝试不同的画风,得出最符合游戏的一款模型+lora组合最后在C站([https://civitai.com/](https://civitai.com/))上下载对应模型到本地,加载部署后就可以开始正式生图了!

Others are asking
怎么让AI帮我写论文
利用 AI 写论文可以参考以下步骤和建议: 1. 确定论文主题:明确您的研究兴趣和目标,选择一个具有研究价值和创新性的主题。 2. 收集背景资料:使用 AI 工具如学术搜索引擎和文献管理软件来搜集相关的研究文献和资料。 3. 分析和总结信息:利用 AI 文本分析工具来分析收集到的资料,提取关键信息和主要观点。 4. 生成大纲:使用 AI 写作助手生成论文的大纲,包括引言、文献综述、方法论、结果和讨论等部分。 5. 撰写文献综述:利用 AI 工具来帮助撰写文献综述部分,确保内容的准确性和完整性。 6. 构建方法论:根据研究需求,利用 AI 建议的方法和技术来设计研究方法。 7. 数据分析:如果论文涉及数据收集和分析,可以使用 AI 数据分析工具来处理和解释数据。 8. 撰写和编辑:利用 AI 写作工具来撰写论文的各个部分,并进行语法和风格的检查。 9. 生成参考文献:使用 AI 文献管理工具来生成正确的参考文献格式。 10. 审阅和修改:利用 AI 审阅工具来检查论文的逻辑性和一致性,并根据反馈进行修改。 11. 提交前的检查:最后,使用 AI 抄袭检测工具来确保论文的原创性,并进行最后的格式调整。 需要注意的是,AI 工具可以作为辅助,但不能完全替代研究者的专业判断和创造性思维。在使用 AI 进行论文写作时,应保持批判性思维,并确保研究的质量和学术诚信。 另外,在让孩子使用 AI 辅助写作时,可以将任务改成让孩子提交一份他和 AI 共同完成作文的聊天记录。作文需要由 AI 来写,孩子要对 AI 的作文进行点评批改、让 AI 迭代出更好地文章。对话记录里孩子能否说清楚 AI 写的作文哪里好哪里不好、要怎么改(孩子可能还得给 AI 做示范),才是评价的关注点。 还有成功利用 AI 写小说的经验,比如先让 AI 帮助写故事概要和角色背景介绍,并在其基础上按自己的审美略做修改。然后让 AI 一段一段进行细节描写,以表格的形式输出细节描述,这样有打破 AI 原本的叙事习惯、按编号做局部调整容易、确保内容都是具体细节等好处。之后把生成的表格依次复制粘贴,让 AI 照着写文章。但在局部修改时可能会遇到问题,比如 AI 记性不好、关键情节被改等。
2025-03-30
类似于viggle的ai工具
Viggle 是一款创新的可控视频生成平台,具有以下特点: 基于 JST1 技术,允许用户自由创建和控制 3D 角色的动作,在游戏开发、动画制作及 VR/AR 等领域有巨大潜力。 是一款利用骨骼动画将图片转化为一致性角色动画的工具,简化了动画制作流程,能快速生成引人入胜的角色视频,助力故事讲述。 由一支 15 人团队打造,创始人是一位在多家知名公司工作过的华人 AI 研究员。 核心能力是将视频中的角色替换成其他形象。 其视频工具背后依赖自家训练的 3D 视频模型「JST1」,能够根据一张角色图片生成 360 度角色动画,进行更可控的视频生成。 目前支持 Discord 访问和网页版访问,Discord 平台已积累超 400 万用户。 网页版访问地址:https://www.viggle.ai/ 官方推特:https://x.com/ViggleAI 官方 Discord:https://discord.gg/viggle 操作方式(以网页端举例): Upload a character image of any size.上传任意尺寸的角色图像。 For better results,use a fullbody photo with a clean background.为了获得更好的效果,请使用背景干净的全身照片。 Image size图像大小(最大 10MB) 上传的照片必须符合 功能: /mix:将角色图像混合到动态视频中 上传一张字符清晰的图片 上传一段清晰运动的视频 /animate:使用文本运动提示为静态角色设置动画 上传一张字符清晰的图片 描述想让角色做的动作 /ideate:纯粹从文本创建角色视频 描述想要创造的角色 描述希望角色执行的动作 /character:通过文本提示创建角色并将其动画化 描述想要创造的角色 从四个结果中选择一个图像 描述希望角色执行的动作 /stylize:使用文本提示符重新设计角色的样式并将其动画化 上传一张字符清晰的图片 描述想改变角色的任何地方来重新塑造它 从四个结果中选择一个图像 描述想要角色做的动作 官方提供了多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt
2025-03-30
用ai建立知识库和直接使用ai有什么区别、
用 AI 建立知识库和直接使用 AI 主要有以下区别: 直接使用 AI 时,AI 生成的内容可能较为笼统模糊,就像遇到只会说“很急,今天就要”却不提供具体指导的领导。若想让 AI 成为得力助手,需对复杂任务进行拆解,提供方法论和定义输出格式。 建立知识库就如同为 AI 准备了“教科书”。知识库灵活,但偶尔会出现查不到内容而“猜题”的情况。例如,将《梦想与颠覆》卡牌等相关内容导入作为 AI 可调用的知识库,后续在创作中激活知识库,AI 会根据场景自动匹配库内素材,使输出更具针对性。 相比之下,微调类似于让 AI“自己真的学会了整本书”,答题更快更准,但训练成本高。微调适合高精度、长期任务,而知识库更适合临时查找、快速问答。
2025-03-30
标签体系可用的ai
以下是关于标签体系可用的 AI 的相关内容: 在 AI 时代的知识管理体系构建方面: 1. 提示词可帮助规划 PARA 分类模式。PARA 是一种代表项目(Projects)、领域(Areas)、资源(Resources)和档案(Archives)的流行知识管理框架,AI 能通过分析工作模式和内容类型,自动生成提示词,以简化分类过程,加快组织和检索信息。 2. 提示词能帮助设计笔记标签系统。有效的标签系统是知识管理的关键,AI 可通过分析笔记内容和使用习惯,推荐合适的标签和标签结构,提高检索效率。 3. 知识助手 Bot 可帮渐进式积累领域知识。随着在特定领域的深入,知识助手 Bot 能根据学习进度和兴趣点,定期推送相关文章、论文和资源,实现渐进式学习,持续扩展知识边界并确保知识及时更新。 在 AI 术语库方面,包含了众多与 AI 相关的术语,如 Knowledge Engineering(知识工程)、Knowledge Graph(知识图谱)、Knowledge Representation(知识表征)、MultiHead Attention(多头注意力)、MultiHead SelfAttention(多头自注意力)等。
2025-03-30
怎么用AI音乐变现
以下是关于用 AI 音乐变现的一些途径和相关信息: 1. 了解 AI 音乐的流派和 prompt 电子书,例如格林同学做的翻译。 2. 利用相关平台,如 LAIVE:这是一个利用 AI 技术一次性生成音乐、歌词、主唱等的创作平台,使用者可以选择自己喜欢的类型和情调,上传参考音源,AI 可以通过分析生成音乐。并且可以选择主唱和修改歌词,目前为开放测试阶段。输入促销代码 LAIVEcreator 可获得 50 代币(入口在个人资料),令牌有效期为输入代码后的 30 天,促销码失效日期为 4 月 17 日。链接:https://www.laive.io/ 3. Combobulator 插件:DataMind Audio 推出的基于 AI 的效果插件,利用神经网络通过样式转移的过程重新合成输入音频,从而使用你自己的声音重现其他艺术家的风格。链接:https://datamindaudio.ai/ 4. 在游戏制作和发行环节使用 AI 生成音乐:AI 生成音乐作为音乐资产是可行的,像 MusicLM 等模型已经支持生成多音轨的作品。使用 AI 生成音乐为原型、佐以专业制作人的协调,将使 AI 音乐更快进入游戏制作与发行的生产线。 目前 AI 生成音乐存在 2 种主流技术路线:基于乐理规则的符号生成模型和基于音频数据的音频生成模型。开发者正在使用 AI 生成音乐来填充游戏过程与游戏 UI 中需要使用到的各类音效、不同游戏场景中用以渲染氛围的各种音乐。
2025-03-30
有什么免费生成视频的AI
以下是一些免费生成视频的 AI 工具: 海外: Haiper(有免费额度):https://haiper.ai/ 。能生成 HD 超高清的视频,包括文生视频、图生视频、素描生视频、扩展视频。文生视频支持选择风格、秒数(2s 和 4s)、种子值。图生视频只能写提示词、秒数(2s 和 4s)、种子值。还能进行视频重绘,轻松修改颜色、纹理和元素以改变原视频的视觉内容,但局部重绘时如果是大量背景的重绘,效果一般,视频容易崩。 DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile 。可以做 2 秒图生视频和短视频拼长视频。 Morph studio(内测):https://app.morphstudio.com/ 。暂未对外开放,可在官网提交内测申请,discord 上可以免费体验。支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3s 视频。 国内: Hidreamai(有免费额度):https://hidreamai.com//AiVideo 。支持文生视频、图生视频,提示词使用中文、英文都可以。文生视频支持正向提示词、反向提示词、运镜控制、运动强度控制,支持多尺寸,可以生成 5s 和 15s 的视频。 ETNA:https://etna.7volcanoes.com/ 。可以根据用户简短的文本描述生成相应的视频内容。生成的视频长度在 8~15 秒,画质可达到 4K,最高 38402160,画面细腻逼真,帧率 60fps。 Dreamina(国内内测,有免费额度):https://jimeng.jianying.com/aitool/video/generate 。支持文生视频、图生视频,视频生视频,支持图生视频首尾帧功能,提示词使用中文、英文都可以。文生视频支持正向提示词、运镜控制、运动强度控制、帧数选择,支持多种尺寸,默认生成 3s 的视频。 可灵(免费):https://klingai.kuaishou.com/ 。支持文生视频、图生视频,支持图生视频首尾帧功能,提示词可使用中文。文生视频支持正向提示词、反向提示词、运镜控制、时长选择(5s、10s),支持多种尺寸,默认生成 5s 的视频。
2025-03-30
生成高清视频
以下是关于生成高清视频的相关信息: Meta 发布的 Meta Movie Gen 文生视频模型: 由视频生成和音频生成两个模型组成。 Movie Gen Video 是 30B 参数的 Transformer 模型,能从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens,可进行精确视频编辑和个性化视频生成,在保持角色身份一致性和运动自然性方面表现出色,通过预训练微调范式完成,沿用了 Transformer 特别是 Llama3 的许多设计,预训练阶段在海量视频文本和图像文本数据集上联合训练,微调阶段进行有监督微调,还引入流匹配作为训练目标,效果优于扩散模型。 Movie Gen Audio 是 13B 参数的 Transformer 模型,能接受视频输入及可选文本提示生成高保真音频。 Sora 相对于其他文本生成视频 AI 的优势: 能够生成高达一分钟的高清视频。 支持生成不同分辨率、纵横比的视频。 能生成显示人物复杂、动态运动的视频,运动自然流畅。 能够捕捉和再现丰富的场景细节。 在生成长视频时能保持场景和角色的一致性。 能够处理多角色交互,角色互动自然有信服力。 采用类似 GPT 的技术,自然语言理解强大。 能模拟动作对环境的影响。 可以模拟视频游戏等数字环境。 一些海外的 AI 视频生成工具: Haiper(有免费额度):https://haiper.ai/ ,能文生视频、图生视频、素描生视频、扩展视频,生成 HD 超高清视频,文生视频支持选择风格、秒数、种子值,图生视频只能写提示词、秒数、种子值,还能进行视频重绘和局部重绘。 DynamiCrafter(免费):https://huggingface.co/spaces/Doubiiu/DynamiCrafter ,https://github.com/Doubiiu/DynamiCrafter?tab=readmeovfile ,能生成 2 秒图生视频,还可以做短视频拼长视频。 Morph studio(内测):https://app.morphstudio.com/ ,暂未对外开放,可在官网提交内测申请,discord 上可以免费体验,支持文生视频、图生视频,英文提示词,支持运镜、运动强度、尺寸、秒数设置,默认生成 3 秒视频。
2025-03-25
能将像素低的图片高清化的AI工具
目前有一些可以将像素低的图片高清化的 AI 工具,例如: 1. Topaz Gigapixel AI:能够通过深度学习算法对图片进行放大和增强,提高清晰度和细节。 2. Adobe Photoshop 的增强功能:Photoshop 中的一些智能滤镜和插件也可以在一定程度上改善图片的清晰度。 需要注意的是,不同的工具在处理不同类型的图片时效果可能会有所差异,您可以根据具体需求进行选择和尝试。
2025-03-19
我现在要对一些很糊的图像进行图像修复,就是把图像变高清,有什么工具吗?
以下是一些可用于图像修复变高清的工具和方法: 1. 图像修复放大流程: 输入原始图像:添加 Load Image 节点加载图像,不建议上传大分辨率图片,以免处理时间过长。 图像高清修复:使用 Iceclear/StableSR 模型,并搭配 Stable SR Upscaler 模型,推理图片噪点以还原图像。提示词应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear),反向:3d,cartoon,anime,sketches,(worst quality),(low quality)。 图像高清放大:对第一次放大修复后的图像进行二次修复,realisticVision 底膜效果较好。使用提示词反推 node 提取画面提示词,搭配 tile ControlNet 提升细节感,再用合适的高清放大模型进行二次放大。 2. 星流一站式 AI 设计工具: 右侧生成器的高级模式:与入门模式相比增加了基础模型、图片参考等更多功能。基础模型允许使用更多微调大模型和更多图像控制功能,如高清分辨率修复等。同时,还可以调整放大算法、重绘幅度等参数,以及选择不同的采样器。 3. SD 新手入门图文教程: 文生图最简流程中的一些参数: CFG Scale(提示词相关性):控制图像与提示的匹配程度,一般开到 7 11。 生成批次和每批数量:影响生成图像的组数和数量。 尺寸:推荐使用小尺寸分辨率结合高清修复(Hires fix)。 种子:决定模型生成图片的随机性。 高清修复:通过勾选“Highres.fix”启用,先按指定尺寸生成图片,再通过放大算法扩大分辨率以实现高清大图效果。
2025-03-04
老旧照片高清修复
以下是关于老旧照片高清修复的方法: 1. 使用 Stable Diffusion 进行修复: 将照片放入后期处理中,使用 GFPGAN 算法使人脸变清晰。可参考文章。 将图片发送到图生图中,打开 stableSR 脚本,放大两倍。此放大插件是所有插件中对原图还原最精准、重绘效果最好的。可参考文章。 切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以不写以免对原图产生干扰。 为做到颜色与内容的统一,启用 cutoff 插件来进行控制,依次按顺序设置好颜色提示词。可参考文章。 2. 使用 ComfyUI 进行修复: 结合 Flux Controlnet Upscale 模型,以前的工作流比较复杂,现在只要十几个基础的节点就能实现同样的效果,甚至可能更好。 参数调节:一般先确认放大的倍数,然后根据出来的图片调整 controlNet 的强度。 ControlnetUpscaler 放大模型:Flux.1dev ControlNet 是 Jasper 研究团队为低分辨率图像开发的模型,可直接与 diffusers 库一起使用,通过特定代码加载管道,加载控制图像并进行图像处理。其训练方式采用合成复杂数据退化方案,结合图像噪声、模糊和 JPEG 压缩等多种方式对真实图像进行人工退化。 Flux Ultimator 细节增强:能增加小细节,让图像尽可能逼真,可放大色调的丰富性和深度,在 0.1 的强度设置下也能有显著增强效果,能顺利集成到工作流程中,与其他 LORA 结合使用效果好,结合时需将强度降低小于 0.5。 T5 Clip:如果发现出来的图片质量细节不够,选择 fp16 的版本。 图像的传递:controlNet 这里传递的应该是上传的原始图片,因为这个是 controlNet 而不是潜空间图像。
2025-01-19
有没有什么网站可以免费将低精度的图片转化为高清图片
以下是一些可以免费将低精度图片转化为高清图片的网站和相关信息: Stability AI 推出的基于 Discord 的媒体生成和编辑工具: :可将任何低分辨率、低质量的图像转换为 4k 杰作,价格为 25 积分。 :简单、低成本的分辨率提升,价格为 0.2 积分。 图像高清修复放大的流程分为三部分: 1. 图像输入:添加 Load Image 节点加载图像,不建议上传大分辨率图片,分辨率越大处理时间越长。 2. 图像高清修复:把原本模糊的图片修复,并进行 2 倍放大。Checkpoint 大模型使用 Iceclear/StableSR,搭配 Stable SR Upscaler 模型能最大程度修复图像,推理图片每个噪点以还原图像。提示词部分应包含想要达到的目的内容,如正向:(masterpiece),(best quality),(realistic),(very clear);反向:3d,cartoon,anime,sketches,(worst quality),(low quality)(杰作),(最高品质),(逼真的),(非常清晰);3D,卡通,动漫,素描,(最差质量),(低质量)。全程采取两次高清修复,第一次修复原始图像分辨率并且放大,若分辨率不够继续下一步。 3. 图像高清放大:针对第一次放大修复后的图像进行二次修复,realisticVision 底膜最合适,使用提示词反推 node 对图像进行画面提示词提取,搭配 tile ControlNet 提升画面细节感,然后用合适的高清放大模型进行二次放大。
2025-01-16
用AI高清化视频的网站或工具有哪些,免费的
以下是一些可以用于 AI 高清化视频的免费网站或工具: Runway:网址为 https://runwayml.com ,有网页和 app ,使用方便。工具教程: 即梦:网址为 https://dreamina.jianying.com/ ,为剪映旗下产品,生成 3 秒,动作幅度有很大升级,有最新 S 模型和 P 模型。工具教程: Kling:网址为 kling.kuaishou.com ,支持运动笔刷,1.5 模型可以直出 1080P30 帧视频。视频模型: Vidu:网址为 https://www.vidu.studio/ haiper:网址为 https://app.haiper.ai/ Pika:网址为 https://pika.art/ ,可控性强,可以对嘴型,可配音。工具教程: 智谱清影:网址为 https://chatglm.cn/video ,开源了,可以自己部署 cogvideo 。工具教程: PixVerse:网址为 https://pixverse.ai/ ,人少不怎么排队,还有换脸功能。工具教程: luma:网址为 https://lumalabs.ai/ Minimax 海螺 AI:网址为 https://hailuoai.video/ ,非常听话,语义理解能力非常强。视频模型: SVD:网址为 https://stablevideo.com/ ,对于景观更好用。工具教程:
2024-12-30
免费生图的软件
以下是一些免费生图的软件: 1. Stable Diffusion:相比较于 DALLE 等大模型,它让用户使用消费级的显卡便能够迅速实现文生图。Stable Diffusion 完全免费开源,所有代码均在 GitHub 上公开,大家可以拷贝使用。其模型第一个版本训练耗资 60 万美元,资金支持来自 Stability AI 公司,该公司成立于 2020 年,创始人兼 CEO 是 Emad Mostaque。 2. Tusiart:点击,可进入免费在线生图。 3. Liblibai:点击,可进入免费在线生图。
2025-03-30
免费AI换脸工具
以下为您介绍免费的 AI 换脸工具: 开源免费的解决方案 facefusion: 本机解决方案:需要 Python 环境及安装多个依赖软件,对编程知识有一定要求,且运行推理计算速度依赖 GPU,本地计算机若无 GPU 或显存较小,执行速度缓慢,不推荐本地化安装。 云服务解决方案:可利用云厂商如阿里云的 PAI 和 AutoDL 提供的大模型运行环境和计算能力,但会产生一定费用。以 AutoDL 为例,注册后在算力市场选择可接受价格的算力服务器,建议选取 GPU 配置更高的设备。然后通过模型镜像启动 GPU 服务器,在算法社区查找 facefusion 镜像,点击右下角创建实例按钮,启动实例,通过 JupyterLab 工具中的终端输入相关命令启动 facefusion,注意要加上“executionproviders cuda cpu”参数以使用 GPU 能力。最后打开 facefusion 软件,在软件界面上传准备好的图片、视频进行换脸处理。 星流一站式 AI 设计工具中的换脸功能:选中图像进入扩展功能界面,自动提取面部信息,上传想要替换到图像的图片,重绘风格选择与放大图像相对应的风格可提升换脸效果,其余参数默认即可。
2025-03-30
想要一个输入文本生成ppt的免费工具
以下为您介绍一些输入文本生成 PPT 的免费工具: 1. 闪击: 网址:https://ppt.isheji.com/?code=ysslhaqllp&as=invite 特点:国内网站,不需要魔法。 操作流程: 选择模版。 输入大纲和要点(由于闪击的语法和准备的大纲内容可能有一些偏差,可以参考官方使用指南:https://zhuanlan.zhihu.com/p/607583650)。 点击文本转 PPT,并在提示框中选择确定。 注意事项:导出有一些限制,PPT 需要会员才能导出。 2. 歌者 PPT: 网址:gezhe.com 功能: 话题生成:一键生成 PPT 内容。 资料转换:支持多种文件格式转 PPT。 多语言支持:生成多语言 PPT。 模板和案例:海量模板和案例库。 在线编辑和分享:生成结果可自由编辑并在线分享。 增值服务:自定义模板、字体、动效等。 简介:是一款永久免费的智能 PPT 生成工具。用户可以轻松将任何主题或资料转化为 PPT,并选择应用大量精美的模板。无论是商务演示、教育培训、学术报告还是专业领域,都能提供便捷的操作和智能化体验,让幻灯片制作变得更加轻松高效。 产品优势: 免费使用:所有功能永久免费。 智能易用:通过 AI 技术简化 PPT 制作流程,易于上手。 海量案例:大量精美模板和优秀案例可供选择和下载。 资料转 PPT 很专业:支持多种文件格式,转换过程中尊重原文内容。 AI 翻译:保持 PPT 原始排版不变,多语言在线即时翻译。 推荐理由: 完全免费,对于经常需要制作演示文稿的学生和职场人士是福音。 智能化程度高,通过 AI 技术快速将各种资料转换成精美的 PPT,高效又准确。 模板和案例库丰富,适合各种场景,几乎无需学习成本就能上手使用。 目前市面上大多数 AI 生成 PPT 按照如下思路完成设计和制作: 1. AI 生成 PPT 大纲。 2. 手动优化大纲。 3. 导入工具生成 PPT。 4. 优化整体结构。 推荐 2 篇市场分析的文章供参考: 1. 《》 2. 《》(质朴发言) 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-03-30
免费的视频换脸AI软件和网站都有哪些?
以下是一些免费的视频换脸 AI 软件和网站: 1. facefusion: 开源地址:https://github.com/facefusion/facefusion 本机解决方案:需要 Python 环境及安装多个依赖软件,对编程知识有一定要求,且运行推理计算速度依赖 GPU,本地计算机若无 GPU 或显存较小,执行速度缓慢,不推荐本地化安装。 云服务解决方案:可利用云厂商如阿里云的 PAI 和 AutoDL 提供的大模型运行环境和计算能力,如选择 AutoDL,其官网是:https://www.autodl.com/home ,注册后在算力市场选择合适的算力服务器。 2. Swapface(有免费额度): 网站:https://swapface.org//home 特点:图片换脸、视频换脸、直播实时换脸,需下载电脑客户端使用,无在线版,可通过邀请好友、点评软件获取积分,能识别图片、视频里的多张脸进行替换。 3. viggle(有免费额度): 网站:http://viggle.ai discord 免费体验:https://discord.com/invite/viggle 功能丰富,包括多种基于图片、文字、动作描述等的转换和创作方式,官方提供多种动作提示词可供参考,提示词地址:https://viggle.ai/prompt
2025-03-29
哪个大模型的API接口免费?
以下是一些提供免费 API 接口的大模型: 1. Silicon 硅基接口:有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,还赠送 14 元体验金,有效期未知。注册和使用地址为,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。它支持多种大模型,也支持文生图、图生图、文生视频。 2. 智普 GLM4 接口:在 BigModel.cn 上通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 API key。 3. 阿里的通义千问大模型:打开链接,创建个 API key。 4. 智谱 AI(ChatGLM):有免费接口。 5. 科大讯飞(SparkDesk):有免费接口。 此外,谷歌的 Gemini 大模型(gemini 1.5)和海外版 Coze 的 GPT4 模型是免费的,但需要给服务器挂梯子。
2025-03-28
视频生成 效果对比
以下是为您整理的关于视频生成的相关内容: 百度“秒哒”: 特点:无代码编程、多智能体协作、多工具调用,一句话生成应用、网站、小游戏。 优势:更适合普通用户,直接输出结果,看不到写代码过程。智能体协作矩阵支持灵活组建虚拟开发团队,工具集成强大,完成即部署。 试玩链接(临时有效): 相关链接: 电商视频生成神器 Product Anyshoot: 功能:商品图秒变视频展示,模特自动拿着、穿戴、摆放商品。 特点:支持所有电商品类,5000+模板可自定义修改。 优势:商品还原度高,视频真实流畅,对比效果优于 Pika 和阿里通义 Wanx。 在线体验: 相关链接: Meta 发布的 Meta Movie Gen 文生视频模型: 组成:由视频生成和音频生成两个模型组成。 Movie Gen Video:30B 参数 Transformer 模型,可从单个文本提示生成 16 秒、16 帧每秒的高清视频,相当于 73K 个视频 tokens。能执行精确视频编辑,如添加、删除或替换元素,或背景替换、样式更改等全局修改。在个性化视频方面,在保持角色身份一致性和运动自然性方面取得 SOTA 性能。 Movie Gen Audio:13B 参数 Transformer 模型,可接受视频输入以及可选的文本提示,生成与视频同步的高保真音频。 训练方式:通过预训练微调范式完成,在骨干网络架构上沿用了 Transformer,特别是 Llama3 的许多设计。预训练阶段在海量的视频文本和图像文本数据集上进行联合训练,学习对视觉世界的理解。微调阶段精心挑选一小部分高质量视频进行有监督微调,以进一步提升生成视频的运动流畅度和美学品质。 为提高效果,引入流匹配(Flow Matching)作为训练目标,使得视频生成的效果在精度和细节表现上优于扩散模型。扩散模型通过从数据分布逐渐加入噪声,然后在推理时通过逆过程去除噪声来生成样本,用大量的迭代步数逐步逼近目标分布。流匹配则是通过直接学习样本从噪声向目标数据分布转化的速度,模型只需通过估计如何在每个时间步中演化样本,即可生成高质量的结果。
2025-03-30
想要生成克隆某个人的声音,然后做成视频,怎么做
要生成克隆某个人的声音并做成视频,您可以按照以下步骤进行操作: 声音克隆: 1. 准备一段需要克隆的音频(可以是类似屈原的古风声音,或自行录制一段)。 2. 打开网站:https://fish.audio/zhCN/train/newmodel/ 。 3. 上传准备好的音频,按照指引完成声音克隆。 4. 进入声音库选择需要使用的声音,将第一步生成的文案输入,使用克隆好的声音生成对应的音频文件。 5. 下载生成的音频文件备用。 视频合成: 1. 在网上下载“回答我”的原视频。 2. 打开 Viggle.ai 网站,登录后进入视频合成功能:https://viggle.ai/createmix 。 3. 上传“回答我”原视频和第二步生成的人物形象图,生成新版本的“回答我”视频。 4. 预览效果,满意后下载合成好的新视频。 视频剪辑: 1. 打开剪映软件(手机或电脑版均可)。 2. 导入第二步合成好的新视频和第一步生成的音频文件。 3. 将音频与视频时间轴对齐,确保声音和画面同步,添加字幕等。 4. 如需叠加特殊背景,可以导入自己的背景图(如楚国风景)。 5. 预览整个视频,检查效果,微调后导出最终视频(建议 MP4 格式)。 此外,您还可以参考以下工具: 数字人工具:开源且适合小白用户,特点是一键安装包,无需配置环境,简单易用。功能包括生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选。系统兼容 Windows、Linux、macOS。模型支持 MuseTalk(文本到语音)、CosyVoice(语音克隆)。使用步骤:下载 8G+3G 语音模型包,启动模型即可。GitHub:https://github.com/modstartlib/aigcpanel 官网:https://aigcpanel.com 。 希望这些信息对您有所帮助。
2025-03-30
如何用ai自动生成PPT
以下是使用 AI 自动生成 PPT 的几种方法: 1. 使用 Process ON 工具: 网址:https://www.processon.com/ 输入大纲和要点: 提供两种方式,导入大纲和要点或输入主题自动生成大纲和要求。 导入大纲和要点的步骤: 手动复制最终大纲内容到本地 txt 文件,将后缀改为.md。若看不见后缀,自行搜索开启。 打开 Xmind 软件,将 md 文件导入 Xmind 文件。 在 Process ON 导入 Xmind 文件。 输入主题自动生成大纲和要求:新增思维导图,输入主题点击 AI 帮我创作。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版再点击下载。若喜欢用 Process ON 且无会员,可在某宝买一天会员。 2. 信息的 AI 可视化(1): 比如给 AI 一段数据、描述信息媒介的进化史、总结文章全文等直接可视化展示 PPT。 实现这种效果的思路和步骤: 模型选择:目前推荐 Claude 3.7 Sonnet,可通过 POE 调用 Claude。 交互流程大致有 4 个阶段:阶段 1 主观描述等。 3. 结合 GPT4、WPS AI 和 chatPPT: 流程为先让 GPT4 生成 PPT 大纲,然后把大纲导入到 WPS 当中,启用 WPS AI 一键生成 PPT,再让 chatPPT 添加动画,最后手动修改细节。
2025-03-30
视频生成提示词
以下是关于视频生成提示词的相关内容: Pikadditions: 1. 上传基础视频: 点击页面下方的【Pikaddition】按钮。 拖拽或点击上传本地视频。 若自己没有视频,可以在“templates”板块里使用官方示例视频做测试。 2. 添加主角图片:点击【Upload Image】上传角色图片文件。 3. 编写视频提示词: 如果需要参考角色在视频里有相关互动,需在输入框用英文描述期望效果(支持 Emoji 辅助),然后点击生成按钮。 Pika 会提供一段默认 prompt,如果没有特殊想法,可以直接使用。 建议在自己的提示词尾部加入官方提供的默认提示词,效果会更好。 该功能提示词公式参考: 事件驱动句式:As... 空间锁定技巧:使用场景物体作坐标轴:on the.../behind the.../from the... 动态呼应原则:角色动作与视频元素联动:swaying with.../reacting to.../matching... MiniMax 海螺 AI: 主体参考功能的生成逻辑和文生视频相似,详见文生视频 Prompt 教程。用于主体参考功能的 Prompt,只涉及单人内容,可以获得最准确的表现效果。若 Prompt 涉及多主体,可以补充对于 Prompt 特定主体的描述,海螺 AI 能够通过年龄、性别识别对应面部主体并完成生成。 五津:DeepSeek+扣子: 1. 生成单词: 输入单词主题、图片风格、单词数量。如非洲动物、真实风格、2。 选择 deepseekr1 模型,输入单词主题、单词数量,这样 deepseek 就可以为用户输出指定数量的几个单词,并以数组方式输出。 2. 提示词: 角色:你是一个专业的单词生成助手,擅长围绕各种主题挖掘相关英语单词,为用户提供精准且实用的单词、中文、美式音标内容。 技能 1:输出关联英语单词。当用户输入主题{{zhuti}}时,分析主题内涵,运用专业知识,输出{{shuliang}}个与该主题紧密关联的英语单词、中文翻译、美式音标,将该单词用于一句英文中(不超过 15 个单词),并将这句英文句子翻译成中文句子,并以数组形式呈现。 限制:仅围绕用户输入主题输出相关英语单词、中文翻译、美式音标,不涉及其他领域内容。输出必须为符合要求的数组形式,英文单词对应变量 yingwen,中文翻译对应变量 zhongwen,美式音标对应变量 yinbiao,英文句子对应变量 juzi_yingwen,中文句子翻译对应变量 juzi_zhongwen,不得有其他格式偏差。
2025-03-29