Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

免费的ai虚拟人物

Answer

以下为您介绍一些免费的 AI 虚拟人物相关内容:

  1. Vocs AI:这是一个免费的人工智能语音生成器和转换器。您可以按照以下步骤操作:
    • 上传一段清晰的无伴奏人声录音,推荐 wav 或 mp3 格式,更推荐 wav。
    • 从超过 20 名才华横溢的 AI 歌手、说唱歌手、叙述者、角色和配音艺术家中选择,将原始无伴奏声音转换成 AI 虚拟艺术家的声音。
    • 点击“转换”,Vocs AI 的语音技术将把您上传的音频转换成 AI 版本的原声。
    • 下载转换后的音频。需要注意的是,输入音频的质量将直接影响 AI 人声转换的输出质量。链接:https://www.vocs.ai/
  2. 剪映数字人“私有化”:
    • 准备谷歌账号(可在淘宝或者在账号解决平台“有号”购买)。
    • 第一步,打开谷歌浏览器,点击链接 https://github.com/facefusion/facefusion-colab 并点击 open colab 进到程序主要运行界面,在右上角点击“代码执行程序”选择“全部运行”。
    • 第二步,点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”生成。
    • 第三步,等待专属的数字人视频出炉。
  3. 关于数字人的一些算法开源代码仓库:
    • ASR 语音识别:openai 的 whisper:https://github.com/openai/whisper ;wenet:https://github.com/wenet-e2e/wenet ;speech_recognition(这是一个语音识别的接口集合,里面有不同实现的语音识别的接口):https://github.com/Uberi/speech_recognition 。
    • AI Agent:大模型部分包括 ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等等。Agent 部分可以使用 LangChain 的模块去做自定义,里面基本包含了 Agent 实现的几个组件(https://www.langchain.com/) 。
    • TTS:微软的 edge-tts:https://github.com/rany2/edge-tts,只能使用里面预设的人物声音,目前接口免费;VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本;so-vits-svc:https://github.com/svc-develop-team/so-vits-svc,专注到唱歌上面。

简单构建数字人还存在一些问题,例如如何生成指定人物的声音、TTS 生成的音频如何精确驱动数字人口型以及做出相应的动作、数字人如何使用知识库做出某个领域的专业性回答等。

Content generated by AI large model, please carefully verify (powered by aily)

References

AI 音乐 | 3.2 资讯

[[twi]@Vocs_twi.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/U9s0bpgTWotba4xaCPbcBloKnVe?allow_redirect=1)链接:https://www.vocs.ai/Vocs AI提供了一个免费的AI语音生成和转换工具。操作步骤如下:上传一段清晰的无伴奏人声录音。(wav或mp3格式,更推荐wav)从超过20名才华横溢的AI歌手、说唱歌手、叙述者、角色和配音艺术家中选择,将你的原始无伴奏声音转换成AI虚拟艺术家的声音。点击“转换”,Vocs AI的语音技术将把你上传的音频转换成AI版本的原声。下载你转换后的音频。Vocs AI强调,输入音频的质量将直接影响AI人声转换的输出质量。因此,最好在进行AI转换之前,确保你的原始人声听起来正如你所希望的那样。

方案:剪映数字人“个性化“—无限免费私模数字人

尽管剪映已经有很多公模数字人,但是从抖音上大火的数字人账号上看,私模数字人更受欢迎所以这里我将教大家用AI换脸软件来完成最后一步。📍注意:需要谷歌账号(淘宝或者在我们账号解决平台“[有号](https://www.learnprompt.pro/aiMarket)”就可以直接购买)1.第一步打开谷歌浏览器,点击链接https://github.com/facefusion/facefusion-colab并点击open colab就进到程序主要运行界面.在右上角点击“代码执行程序”选择“全部运行”就行,无需安装,无需付费。点击红框对应的URL就会打开操作界面2.第二步,点击“source”上传自己的照片和“target”上传之前的剪映数字人视频,保持默认参数,点击“START”就能生成!反复调试后给大家选出了最佳参数!1.第三步:等着自己专属的数字人视频出炉!有关数字人使用上的问题,欢迎在底部评论区留言,一起交流~同时如果对数字人课程感兴趣的话,欢迎查看通往AGI之路X AI沃茨的《克隆你自己》课程!📌课程内容:[实战课程:数字人课程](https://waytoagi.feishu.cn/wiki/JOWjwM0qfi2rYVkUIwychk9MnSh)🎉在线观看第一节:https://www.bilibili.com/video/BV1yw411E7Rt/?spm_id_from=333.999.0.0🌍:aiwarts101

AI 数字人-定义数字世界中的你

上述算法开源的代码有很多,这里列出一些仓库供大家参考:ASR语音识别openai的whisper:https://github.com/openai/whisperwenet:https://github.com/wenet-e2e/wenetspeech_recognition(这是一个语音识别的接口集合,里面有不同实现的语音识别的接口):https://github.com/Uberi/speech_recognitionAI Agent大模型部分就比较多了,包括ChatGPT、Claude、ChatGLM、文星一言、千帆大模型、通义千问等等。Agent部分可以使用LangChain的模块去做自定义,里面基本包含了Agent实现的几个组件(https://www.langchain.com/)TTS微软的edge-tts:https://github.com/rany2/edge-tts,只能使用里面预设的人物声音,目前接口免费。VITS:https://github.com/jaywalnut310/vits,还有很多的分支版本,可以去搜索一下,vits系列可以自己训练出想要的人声。so-vits-svc:https://github.com/svc-develop-team/so-vits-svc,专注到唱歌上面,前段时间很火的AI孙燕姿。除了算法,人物建模模型可以通过手动建模(音频驱动)或者AIGC的方式生成人物的动态效果(例如wav2lip模型)实现,这样就完成了一个最简单的数字人。当然这种简单的构建方式还存在很多的问题,例如:如何生成指定人物的声音?TTS生成的音频如何精确驱动数字人口型以及做出相应的动作?数字人如何使用知识库,做出某个领域的专业性回答?

Others are asking
AI视频总结内容
以下是关于 AI 视频的相关总结: 1. 在 2024 年 5 月 26 日的会议中,讨论了 AI 视频制作、群体潜意识和山洞的梦、AI 工具生成短片、AI 在配音方面的应用、北京团队的工作、新媒体运营等内容,包括制作流程、技术应用、经验分享等,还提到了微信群和飞书群的情况,以及多部影片的分享,并有相关待办事项。 2. 关于 AI 视频制作的工作流,会议分享了工作流模板,包括团队协作、项目管理和阶段审核功能,介绍了画面生成组的交付产物及使用分镜表进行视频制作,还讨论了离谱森林活动、离谱村 MV 大赛和 2050 线下大会等相关内容,并分享了好玩的课程和工具。 3. 除了聊天内容,AI 还能总结各种文章(不超过 2 万字),对于 B 站视频,若有字幕,可通过安装油猴脚本获取字幕并发送给 AI 进行总结,总结完还可继续提问或探讨细节。
2025-03-19
AI视频总结
以下是关于 AI 视频总结的相关内容: 除聊天内容外,AI 还能总结不超过 2 万字的文章。可复制文章全文发给 GPTs 进行总结,GPT4 能识别重点内容。 对于 B 站视频,可利用视频字幕进行总结。若视频有字幕,可安装油猴脚本,刷新浏览器后点击字幕的“下载”按钮,选择字幕格式,将下载的字文字内容全选复制发送给 GPTs 即可。 此外,AI 视频工作流包括概念设定(MJ)、剧本+分镜(ChatGPT)、AI 出图(MJ、SD、D3)、AI 视频(Runway、pika、PixVerse、Morph Studio)、对白+旁白(11labs、睿声)、音效+音乐(SUNO、UDIO、AUDIOGEN)、视频高清化(Topaz Video)、字幕+剪辑(CapCut、剪映)。 温维斯 Wenvis 在 2024 年接触 AI 视频,从 0 开始学习,不断创作作品,如《熊猫奥运奇幻之旅》获得首届可灵 AI“灵感无限”创作大赛专家评审一等奖。
2025-03-19
怎么解决ai写论文时参考文献是虚构的
以下是关于解决 AI 写论文时参考文献虚构问题的一些信息: Agrawal 等人在 2023 年的研究(https://arxiv.org/abs/2305.18248)专门探讨了 LLM 生成中虚构参考文献的情况,包括捏造的书籍、文章和论文标题。他们试验了两种基于一致性的方法来检查幻觉:直接查询与间接查询。这两种方法都在温度参数 T>0 的情况下多次运行检查并验证一致性。 其中,直接查询要求模型判断生成的参考是否存在,间接查询则询问生成的参考的辅助细节,例如作者是谁。实验表明,间接查询方法效果更好,模型规模越大,识别虚假参考文献的能力越强。 此外,Claude 官方提示词工程最佳实践中也提到了处理幻觉的相关内容,但未给出具体针对参考文献虚构问题的解决办法。 在 ChatGPT 给 DALL·E 3 优化提示词的元提示中,主要强调了一些提示词的规范和原则,未直接涉及解决参考文献虚构的问题。
2025-03-19
有没有替换物品的ai
以下是为您找到的与替换物品相关的 AI 内容: Inpaint Anything 提出了一种新的图像修复方法,支持“Replace Anything”功能,用户可以选择保留点击选定的对象并将剩余的背景替换为新生成的场景。 Stability AI 推出的基于 Discord 的媒体生成和编辑工具中,有通过搜索提示识别对象并替换的功能,例如把猫换成狗。
2025-03-19
详细说明如何根据自己的想法设计 ai prompt
以下是关于根据自己的想法设计 AI prompt 的详细说明: 在生成式 AI 的世界中,“提示”指的是您提供给模型的输入文本。例如,您可以向模型提出问题或给予指令,模型会根据您构建提示的方式给出响应,所以您获得的答案很大程度上取决于您提出问题的方式。 提示设计是找出和设计最佳输入文本以获得所需响应的过程,这通常需要大量的实验和迭代。 示例:比如要生成一个去约书亚树国家公园露营旅行所需的物品清单,您可以提供指令“生成我去约书亚树国家公园露营旅行所需的物品清单”。 此外,还有零样本、一次性和少样本提示: 零样本提示:模型仅根据描述任务的提示执行任务,没有关于特定任务的额外数据。 一次性提示:模型根据任务的单个示例执行任务。 少样本提示:模型根据任务的少量示例执行任务。 结构化提示包含几个不同的组件:上下文、示例问题和示例答案。每次向模型发送请求时,上下文都会应用。 在设计 AI 原画,如使用 Nijijourney 5 进行二次元角色设计的 Prompt 时: 1. 提供具体的风格指示:在 Prompt 中明确角色风格,如可爱、酷炫、赛博朋克、蒸汽朋克等,可参考优秀作品并加入类似元素。 2. 保持 Prompt 简洁明了:避免混乱,明确描述角色外貌、服装、性格等特征,不要包含过多信息。 3. 设置适当的细节和限制:根据需求设定角色的年龄范围、职业背景等。 4. 勇于尝试新颖的角色概念和风格:不拘泥于传统,提供新颖独特的角色概念和风格。
2025-03-19
AI的发展历程
AI 的发展历程可以大致分为以下几个阶段: 1. 起步阶段(20 世纪 50 年代 60 年代):这一时期的研究重点是基于符号主义的推理和问题解决。 2. 低谷阶段(20 世纪 70 年代 80 年代):由于计算能力和数据的限制,AI 的发展遭遇了挫折。 3. 复苏阶段(20 世纪 80 年代 90 年代):专家系统等技术的出现推动了 AI 的发展。 4. 快速发展阶段(21 世纪初至今):随着大数据、深度学习算法和强大计算能力的出现,AI 在图像识别、语音识别、自然语言处理等领域取得了显著成就。
2025-03-19
虚拟人工具
以下是一些制作虚拟人的工具: 1. HeyGen:这是一个 AI 驱动的平台,能创建逼真的数字人脸和角色。它运用深度学习算法生成高质量的肖像和角色模型,适用于游戏、电影和虚拟现实等领域。 2. Synthesia:这是一个 AI 视频制作平台,允许用户创建虚拟角色并实现语音和口型同步。支持多种语言,可用于教育视频、营销内容和虚拟助手等场景。 3. DID:这是一家提供 AI 拟真人视频产品服务和开发的公司,只需上传人像照片和输入要说的内容,平台的 AI 语音机器人会自动转换成语音,然后合成逼真的会开口说话的视频。 此外,还有适合小白用户的开源数字人工具,具有一键安装包,无需配置环境,简单易用的特点。能生成数字人视频,支持语音合成和声音克隆,操作界面中英文可选,系统兼容 Windows、Linux、macOS,模型支持 MuseTalk(文本到语音)、CosyVoice(语音克隆)。您可以通过以下链接获取: GitHub: 官网: 更多数字人工具请访问网站查看:https://www.waytoagi.com/category/42 。请注意,这些工具的具体功能和可用性可能会随时间和技术发展而变化。在使用时,请确保遵守相关使用条款和隐私政策,并注意对生成内容的版权和伦理责任。
2025-03-13
我想用ai进行直播建立虚拟的我
如果您想用 AI 进行直播建立虚拟的自己,以下是一些相关信息: 虚拟主播在电商直播间的现状和挑战: 直播间的特点在于真实性,包括真实的商品展示、试用以及评测,这是虚拟主播面临的挑战。如虚拟网红翎 Ling 的美妆带货翻车案例,虚拟人很难让消费者共情。 尽管 3D 交互技术可完善数字人与真实空间的交互,但实现与商品的互动较困难,且用户希望了解商品细节。 虚拟数字人的发展阶段: 拟人化:由计算机虚拟合成高度逼真的三维动画人物,初步基于 AI 实现虚拟人驱动,实时进行信息沟通和反馈。 同人化:从外观模拟进阶到情感可交互,实现与人类高质量情感互动。 超人化:虚拟人的能力超越自然人,“虚拟”实体化,机器人承载虚拟人意识回到现实世界。 虚拟直播间的场景搭建: 绿幕的虚拟直播场景方案是低成本的直播样式,手机上有相关绿幕视频抠图 App,288 元可购买永久会员解锁所有功能。 场景搭建成本因多种因素而异,包括规模、复杂度、细节程度、互动特效等。 MR 设备的普及可能带动新的技术迭代,提供更沉浸式的互动购物体验。 构建高质量 AI 数字人的方法: 建好的模型可使用 web 前端页面或 Native 的可执行程序进行部署,呈现在用户面前的是一个 GUI。 开源数字人项目选择 live2d 作为数字人躯壳,相比其他方式更可控、自然、轻量和简单,卡通二次元形象接受度更高。 品牌使用 AI 驱动虚拟主播的情况: 欧莱雅、YSL、兰蔻、李宁、北面等品牌会使用 AI 驱动的虚拟主播进行自播,但通常只在午夜时段排期。 阿里云提供的品牌智能直播间基础版有多种功能,售价为 99000 元/(年×路)。 淘宝智能直播间的虚拟形象有 3D 卡通风格和 2D 拟真人风格,预设动作库和真实语音表现,展示方式和互动流程有一定特点,但也存在一些问题,如无法与产品接触导致测评缺乏真实性。
2025-03-06
请推荐相关的学习资料: AI与新媒体设计:AI视频编辑、AI社交媒体内容创作、ai虚拟现实与增强现实设计等。
以下是为您推荐的关于 AI 与新媒体设计(如 AI 视频编辑、AI 社交媒体内容创作、AI 虚拟现实与增强现实设计等)的学习资料: 了解 AI 基本概念:建议阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时,浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 开始 AI 学习之旅:在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 选择感兴趣的模块深入学习:AI 领域广泛,比如图像、音乐、视频等,您可以根据自己的兴趣选择特定的模块进行深入学习。建议您一定要掌握提示词的技巧,它上手容易且很有用。 实践和尝试:理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 体验 AI 产品:与现有的 AI 产品进行互动是学习 AI 的另一种有效方式。尝试使用如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,对于 filMarathon 全球 AI 电影马拉松大赛参赛引导中的学习资料: 音效创作指导: 语音合成: 剧本创作:人力为主: 图片生成:AI 作图绘画: 视频生成:AI 视频生成: 音频生成:AI 音乐创作: 剪辑工具:剪映剪辑:
2025-02-27
请推荐相关的学习资料: AI与新媒体设计:探索AI如何影响视频编辑、社交媒体内容创作、虚拟现实与增强现实设计等。
以下是关于学习“AI 与新媒体设计”的相关资料推荐: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,能找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),可根据自己的兴趣选择特定的模块进行深入学习,建议掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出作品。在知识库提供了很多大家实践后的作品、文章分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,通过对话获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。
2025-02-27
请推荐相关的资源:AI与新媒体设计:探索AI如何影响视频编辑、社交媒体内容创作、虚拟现实与增强现实设计等。
很抱歉,目前没有相关的具体资源可以推荐给您。但您可以通过以下途径获取相关信息: 1. 学术数据库:如 Web of Science、Scopus 等,搜索相关的研究论文。 2. 在线教育平台:例如 Coursera、EdX 等,可能有相关的课程。 3. 专业论坛和社区:如知乎、V2EX 等,与同行交流获取资源推荐。 4. 相关的行业报告网站:如艾瑞咨询、易观智库等。
2025-02-27
- AI与新媒体设计:探索AI如何影响视频编辑、社交媒体内容创作、虚拟现实与增强现实设计等。
AI 在新媒体设计领域的影响广泛且深入,主要体现在以下方面: 在视频编辑方面: 能够自动进行剪辑和特效处理,提高制作效率和质量。 在社交媒体内容创作方面: 可以对大量信息进行自动编辑和汇总,生成有趣的图文摘要。 辅助创作吸引人的文案和图片。 在虚拟现实与增强现实设计方面: 有助于创建更逼真的虚拟场景和增强现实体验。 在图文创作赛道: 内容生成:自动编写文章并选择或生成相应图片。 图像标注:识别和理解图片内容并生成文字描述。 图文匹配:为图片找到合适文字描述或为文字找到匹配图片。 数据可视化:将复杂数据以直观简洁的图表、信息图等方式展示。 设计辅助:生成 LOGO、海报等。 自动化排版:根据文本内容与结构自动进行页面布局和美观排版。 图文识别:借助 OCR 技术抓取图文内容后理解处理。 在艺术创作方面: 辅助绘画、音乐、文学等领域的创作,探索新的结合模式。 在智能产品设计方面: 如智能家居设备、可穿戴设备等。 在游戏行业: 是最有价值的应用场景之一,其应用可追溯至上世纪 80 年代。 从最初生成简单内容和随机元素,到辅助设计、生成动态世界和复杂内容,如动态场景、智能 NPC 行为等。 具有诸多优势,如游戏开发者亲近并乐于使用 AI 技术,游戏数据降低了筛选和清洗成本,游戏成为 AI 模型能力的最佳试验场。 革新游戏创作,简化工作流,在美术与风格、音效与音乐、剧情与任务、玩法与平衡、测试与优化等方面产生积极影响。
2025-02-27
有什么免费好用的AI根据文案配音的工具
以下为一些免费好用的 AI 根据文案配音的工具及相关介绍: 1. TecCreative: 功能:多语种(包含菲律宾语、印地语、马来语等小语种)智能配音,同时支持区分男声和女声,高效解决素材出海语言障碍问题。 操作指引:输入需配音文案——选择音色——点击立即生成。注意:输入的配音文案需和选择音色语种保持一致。 2. 剪映: 功能:提供文本朗读功能,包括克隆音色和文本朗读。 操作指引: 打开剪映,点击左上角菜单——文本,点击默认文本,在右边文本框输入文字,点击上面的菜单栏——朗读。 克隆音色步骤:点击克隆音色——点击克隆。 文本朗读:直接选择文本朗读,选择合适的音色,点击开始朗读即可生成。 3. DubbingX:是一款不错的配音工具。
2025-03-19
我想找免费的图片去除背景的工具
以下为您推荐一些免费的图片去除背景工具及相关信息: 1. Stable Diffusion: 安装插件REMBG,安装地址是https://github.com/AUTOMATIC1111/stablediffusionwebuirembg.git。安装好之后重启,就有背景去除的选项框。 模型选择第一个u2net,直接点击生成。抠图效果不错,但边缘轮廓可能有黑边,可通过点击后面的Alpha matting调整参数(如Erode size:6、Foreground threshold:143、Background threshold:187)来去掉黑边。 这里还有专门做服装抠图和给动漫抠图的模型。 若想要这个插件,可添加公众号【白马与少年】,回复【SD】获取。 2. RMBG1.4: 高精度背景去除,适用于电商、广告等场景。 支持视频背景批量去除,提供蒙版输出功能。 云端处理速度快,性能卓越。 链接:https://github.com/ZHOZHOZHO/ComfyUIBRIA_AIRMBG 、https://x.com/xiaohuggg/status/1755075272410538450?s=20
2025-03-19
免费文字生成视频
以下是一些免费文字生成视频的工具和相关信息: 1. Pika:一款出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑,目前内测免费。生成服务托管在 discord 中,加入 Pika Labs 的 Discord 频道,在“generate”子区输入指令或上传本地图片即可生成视频。 2. SVD:如果熟悉 Stable Diffusion,可以安装这款最新的插件,在图片基础上直接生成视频,由 Stability AI 开源。 3. 剪映海外版 CapCut 推出了文字生成视频功能,每人每天可以免费生成五次:https://www.capcut.com/editortools/aivideogenerator 更多的文生视频的网站可以查看这里:https://www.waytoagi.com/category/38 此外,还有一些相关动态: 1. Arc Search 浏览器有双指捏合自动总结页面内容的新功能。 2. 现在可以给 GPTs 打分,同时在关于页面展示评分、类别、对话数量、会话开场白等信息。 3. Stability AI 官方的 SVD 视频生成平台公测了:https://www.stablevideo.com/login?returnUrl=%2F 4. 字节发布了一个用类似 SDXL Turbo 的模型 SDXLLightning,只需几步即可生成高质量的 1024px 图像:https://huggingface.co/ByteDance/SDXLLightning 5. Gemini Advanced 现在可以有似代码解释器的东西来运行 Python 代码。 6. 𝕏正在与 Midjourney 就潜在的合作伙伴关系进行谈判。 7. AnimateLCMSVDxt 利用了 LCM 技术蒸馏的 SVD 模型,只需要四步就能生成不错的视频:https://huggingface.co/wangfuyun/AnimateLCMSVDxt 8. 谷歌确认与 Reddit 合作,谷歌可以访问 Reddit 的数据 API(用于人工智能和搜索),Reddit 将使用谷歌的人工智能来改进其搜索功能。
2025-03-19
如何免费试用 ChatGPT 4.5
目前关于免费试用 ChatGPT 4.5 的信息如下: 数周或数月内将推出代号“Orion”的 GPT4.5,这是最后一款“非链式思维“模型。后期将融合 o 系与 GPT 系列,推出整合多项新功能的 GPT5,同时结合画布,搜索,深度研究等能力。ChatGPT 的免费用户也将可以使用到 GPT 5。订阅用户会享有更高智能的 GPT5,越高订阅等级,智能越强。 如有任何问题请联系后台,电子邮箱:alolg@163.com
2025-03-19
有哪些国外免费的大模型API可以使用
以下是一些国外免费的大模型 API 可供使用: 1. 谷歌的 Gemini 大模型(https://ai.google.dev/)(gemini 1.5),但使用可能需要给服务器挂梯子。 2. 海外版 Coze(https://www.coze.com/)的 GPT4 模型,能图片识别,使用可能需要给服务器挂梯子。 此外,还有以下相关信息: 1. 阿里的通义千问大模型接口(https://dashscope.console.aliyun.com/),创建 API key 即可使用。 2. 智谱 AI(ChatGLM)(https://open.bigmodel.cn/)、科大讯飞(SparkDesk)(https://xinghuo.xfyun.cn/sparkapi)也有免费接口,但国内的大模型大多限制一定免费额度的 Token。 对于 OpenRouter 新发布的功能 BYOK(Bring Your Own API Keys),它是个第三方 Key 集成功能,将 xAI、OpenAI、Mistral 等数十个平台的 Key 集中在一起,目前支持白“赚”的平台包括 AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI 等。 以 silicon 为例,其有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,另赠送 14 元体验金,有效期未知,是个人认为 API 接口方便实惠的选择。注册和使用地址为:,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。
2025-03-19
我想写一部都市玄幻小说,已经有了简单的大纲。请问使用哪款AI工具?又没有 AI味。快速的写出真人作者的小说意境。并且上下逻辑清晰30万的长篇小说。列出免费工具。
以下为您推荐两款可用于写都市玄幻小说的免费 AI 工具及相关方法: 1. Coze: 工作流核心节点: 用 Bing 搜索标题相关的内容。 用程序将搜索结果结构化(不熟悉程序的可忽略或直接复制文中的代码)。 用大模型草拟大纲,包括标题、主旨、世界观、主要角色、小说背景、情节概要。 再用大模型来写文章。 输出文章内容。 2. 与 AI 交互写作(如南瓜博士的经验): 确定主题:不写科幻,用非常规视角,如以猫为第一人称写爱情小说。与 AI 讨论主题,挑选 AI 提供的调味料,明确主题。 构思情节:先刻画人物,如喜欢书店店员艾拉这个人物,使其更丰满,再设计故事线。 希望这些工具和方法能对您创作小说有所帮助。
2025-03-19
星流ai人物一致性
以下是关于星流 AI 人物一致性的相关内容: 在实现角色一致性方面,有以下几种方法和示例: 1. 可以通过特定的 prompt 格式来实现,公式为:发型+年龄性别+衣物颜色+环境+其他(动作、镜头等)。例如: 特写一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,面部被烛光照亮,表情惊讶,环境昏暗明暗对比强烈。 特写一个棕色卷发,身穿棕褐色上衣的小男孩,侧对镜头,微微仰头走在一片暗绿色的森林中,面部被手中提着的油灯照亮,环境昏暗明暗对比强烈。 一个棕色卷发,身穿棕褐色上衣的小男孩侧对镜头,看着面前桌上的蜡烛,环境昏暗明暗对比强烈。 中景拍摄一个棕色卷发,身穿棕褐色上衣的小男孩,正对镜头,在一个梦幻感的暖色调房间里,全身贯注地拼装面前的积木玩具。 2. Midjourney 推出了角色一致性功能,同步支持 MJ V6 和 Niji V6。跟之前的风格一致性sref 命名基本一致,为cref。cref 背后参数cw 的值可以从 0 设到 100,cw 100 会参考原图的脸部、头发和衣服,但相应的会非常不吃 Prompt;cw 0 时,就只会参考脸部,大概约等于一个换脸。 3. PixVerse 有“角色(Character)”新功能,能实现 AI 生成视频中的角色保持一致。用户只需单击“Character”功能,上传符合要求的图像,点击创建自定义角色,训练一个新角色,然后可使用自定义角色生成视频,可在 AI 生成视频中轻松切换场景,同时保持同一角色身份。该功能目前只支持真实人脸,暂不支持动物或其他风格照片。操作说明:在主页面点击选择“Character”,点击“Create Character”,在此界面通过点击或拖动的方式上传图片,命名您创建的 Character,最后点击“Create Cha”。提示:最好使用包含真实人脸的单人图片效果最佳,脸部大小需要超过 200×200px,面部无遮挡。Character 添加完毕后,等待 20 秒左右,在看到“Success”提示后,点击“Create”进。若未等到“Success”提示便进入创作界面,会找不到创建的 Character,此时需等待 10 30 秒,待 Character 创建完成即可。 相关网址: 1. 2. 3. Midjourney 网页版:https://alpha.midjourney.com/ 4. PixVerse:https://app.pixverse.ai/ (目前可以免费使用)
2025-03-18
人物一致性
Midjourney 的角色一致性功能: 此功能是官方推出的重要功能,可使生成的人物与参考图像相匹配。 使用方法:在提示词后输入 `cref URL` 并附上人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可使用 `cw` 来修改参考强度,从 0 到 100。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入 `cref cw` 。 若有黑边问题,可将黑边部分框住,重绘输入关键词 `background` 去除黑边保证背景一致。 体验 MJ 网页版效果较好,网址:https://alpha.midjourney.com/
2025-03-18
comfy ui 九宫格生图保持人物一致性的原理
Comfy UI 九宫格生图保持人物一致性的原理主要基于 PuLID 技术,具体如下: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,它结合了两个不同的模型分支(Lightning T2I 分支和标准扩散模型),引入了两种损失(对比对齐损失和精确 ID 损失)。 Lightning T2I 分支是一个快速、高效的文本到图像生成模型。 标准扩散模型是常见的、生成高质量图像的模型。 对比对齐损失帮助模型学习将输入的文本和生成的图像内容对齐,使生成的图像更符合文本描述。 精确 ID 损失确保生成的图像中的特定身份特征(比如人物的脸部特征)与目标 ID 一致。 此外,在保持人物一致性方面,还有一些操作步骤: 生成图像(提示词加入分割描述,让一张图生成多张同空间小图)。 通过目标图像不断的重复生成,获取更多一致性的角色图像,下载分类(按照视角不同分类)。 上传图像,调用 prefer option set 命令,先写命令名称(一个视角操作一次),再放入该视角的照片(4 5 张)。 放开角色限制生成图像,在确认好的图像上进行局部重绘,框选头部,在原来的命令下加入—快捷命令名称,确认生成即可。 同时,Eva CLIP 也是相关的技术: Eva CLIP 是一种基于对比学习的视觉文本模型,将文本描述和图像内容映射到一个共享的嵌入空间。 对比学习架构:使用对比学习方法,将图像和文本嵌入到一个共享的空间,通过最大化匹配图像和文本对的相似度,同时最小化不匹配对的相似度,学习到图像和文本之间的关联。 强大的特征提取能力:编码器擅长提取图像中的细节特征,并将其转换为有意义的嵌入向量,用于下游任务。 多模态应用:能够处理图像和文本两种模态,广泛应用于多模态任务中,如生成、检索、标注等。 其应用场景包括图像生成、图像检索、图像标注等。Eva CLIP 编码器通常与深度神经网络结合使用,如卷积神经网络(CNN)用于图像特征提取,Transformer 网络用于处理文本描述。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: instant ID 脸部特征抓取得比 pulid 好,放在最后一步重绘,先 pulid,再 instantID https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e8 1d90 4373 94cf 0249d14c73c8 测试案例:
2025-03-17
comfy UI 如何保持人物一致性
要在 ComfyUI 中保持人物一致性,可以通过以下方式实现: 1. PuLID 技术: PuLID 是一种用于在文本生成图像时自定义图像中人物或物体身份(ID)的新技术,无需复杂调整。 它结合了 Lightning T2I 分支和标准扩散模型两个不同的模型分支,并引入了对比对齐损失和精确 ID 损失两种损失,以确保在保持原始模型效果的同时,高精度地自定义 ID。 Lightning T2I 分支是快速、高效的文本到图像生成模型,标准扩散模型是常见的生成高质量图像的模型。 PuLID 可以让您在生成图像时更精确地定制人物或物体的身份,将特定 ID(例如人脸)嵌入到预训练的文本到图像模型中,而不会破坏模型的原始能力。 项目地址:https://github.com/ToTheBeginning/PuLID 相关资源: 百度网盘:https://pan.baidu.com/s/1Tro9oQM85BEH7IQ8gVXKsg?pwd=cycy 工作流与模型地址:https://pan.quark.cn/s/2a4cd9bb3a6b 说明文档:https://xiaobot.net/post/6544b1e81d90437394cf0249d14c73c8 instant ID 脸部特征抓取得比 PuLID 好,可放在最后一步重绘,先 PuLID,再 instantID。 2. 节点设置: 节点插件 PuLID ComfyUI:https://github.com/cubiq/PuLID_ComfyUI model:使用预训练的基础文本到图像扩散模型,如 Stable Diffusion。 pulid:加载的 PuLID 模型权重,定义 ID 信息如何插入基础模型。 eva_clip:用于从 ID 参考图像中编码面部特征的 EvaCLIP 模型。 face_analysis:使用 InsightFace 模型识别和裁剪 ID 参考图像中的面部。 image:提供的参考图像用于插入特定 ID。 method:选择 ID 插入方法,如“fidelity”(优先保真度)、“style”(保留生成风格)和“neutral”(平衡两者)。 weight:控制 ID 插入强度,范围为 0 到 5。 start_at 和 end_at:控制在去噪步骤的哪个阶段开始和停止应用 PuLID ID 插入。 attn_mask:此选项用于提供灰度掩码图像,以控制 ID 自定义的应用位置,但并不是必需输入,而是可选输入。 Advanced Node:提供了高级节点,可以通过调整 fidelity 滑块和 projection 选项进行更精细的生成调优。比如,ortho_v2 和 fidelity:8 等价于标准节点的 fidelity 方法,而 projection ortho 和 fidelity:16 等价于 style 方法。 此外,在 8 月 13 日的 ComfyUI 共学中也提到控制人物一致性有很多方法,课程后期会介绍。
2025-03-17
Midjourney怎样生成人物侧脸照?
要在 Midjourney 中生成人物侧脸照,您可以按照以下步骤进行操作: 1. 初始图(单人画面生成结果)。 2. 找到已生成的人物纯图,提取图片链接(url)做准备工作。 3. 基于生成的构图清晰但人物失控的成图基础上,进行重绘 Vary Region。具体操作包括:框选需要被替换的人物,然后将准备好的链接,贴入框内界面 cref 后面,注意先把原始的 cref(即红色部分)删掉。 4. 连续“抽卡”后找到合适的角度,选中理想的图片,U1/U2/U3/U4 点击后就可以拿出来使用。 5. 假设需求是让配角转头营造“偷看主角”的感觉。先准备一个正脸照的链接,然后进入重绘界面圈起红色部分,更新 cref 的链接为正脸照链接。如果还是出不来,再修改原有指令词,要求将女性的侧脸照替换成正脸。坚持几轮抽卡后就可以得到需要的结果。 此外,Midjourney V6 更新了角色一致性命令“cref”。您可以添加角色参考图像,并选择一个“cw”以达到效果。Midjourney 能够从参考图像中识别的角色属性将与提示混合,从而创建出您角色的最终表现。您可以通过使用“cw N”参数(cref 权重)来大致控制转移,其中 N 的值可以从 1 到 100,默认值为 100。需要注意的是,“cw”参数不会改变角色参考图像的强度/影响力,“cw 100”的值(默认值)将捕捉整个角色,“cw 99 到cw 1”之间的值将开始捕捉较少的整个角色,仅集中于转移面部,“cw 0”的值将仅捕捉面部,大致类似于面部替换。
2025-03-17
人物一致性
Midjourney 的角色一致性功能: 此功能类似于“风格参考”,但尝试使人物与“人物参考”图像相匹配。 使用方法:在提示词后输入`cref URL`并附上一个人物图像的 URL。需注意一定要在提示词后面,否则会报错。 可以使用`cw`来修改参考“强度”,从 100 到 0。强度 100(`cw 100`)是默认值,会使用面部、头发和衣服;强度 0(`cw 0`)时,只会关注面部(适合改变服装/发型等)。 该功能同步支持 MJ V6 和 Niji V6。 对于保证角色一致性,可利用 MJ 重绘功能,在重绘提示词里输入`cref cw`。 若有黑边问题,可将黑边部分框住,重绘输入关键词“background”去除黑边,保证背景一致。 体验 MJ 网页版效果更佳,网址:https://alpha.midjourney.com/
2025-03-13