Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我能否借助开源社区力量构建高质量的 AI 数字人

Answer

您可以借助开源社区力量构建高质量的 AI 数字人。

构建数字人的躯壳有多种方式:

  1. 2D 引擎:风格偏向二次元,亲和力强,定制化成本低,代表是 Live2D Cubism。
  2. 3D 引擎:风格偏向超写实的人物建模,拟真程度高,定制化成本高,代表是 UE、Unity、虚幻引擎 MetaHuman 等,但个人学习在电脑配置和学习难度上有一定门槛。
  3. AIGC:省去建模流程直接生成数字人的展示图片,但存在算法生成的数字人很难保持 ID 一致性、帧与帧连贯性差等弊端。如果对人物模型真实度要求不高,可以使用,典型项目有 wav2lip、video-retalking 等。AIGC 还有直接生成 2D/3D 引擎模型的方向,但仍在探索中。

构建数字人的灵魂需要注意以下几个工程关键点:

  1. AI Agent:要让数字人像人一样思考就需要写一个像人一样的 Agent,工程实现所需的记忆模块、工作流模块、各种工具调用模块的构建都是挑战。
  2. 驱动躯壳的实现:灵魂部分通过定义接口由躯壳部分通过 API 调用,调用方式可以是 HTTP、webSocket 等。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对成熟但闭源。
  3. 实时性:由于算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的 API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。
  4. 多元跨模态:不仅仅是语音交互,还可以通过添加摄像头数据获取数据,再通过系列 CV 算法做图像解析等。
  5. 拟人化场景:正常和人交流时不是线性对话,会有插话、转移话题等情况,这些情景需要通过工程丝滑处理。

如果都要自建代码实现各模块,开发工作量巨大,迭代难度也很高,对于个人开发者来讲不现实。因此推荐借助开源社区的力量,现在开源社区已经有了像 dify、fastgpt 等等成熟的高质量 AI 编排框架,它们有大量的开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等等。我们可以通过这些框架快速编排出自己的 AI Agent,赋予数字人灵魂。在笔者的开源项目中,使用了 dify 的框架,利用其编排和可视化交互任意修改流程,构造不同的 AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。同时 Dify 的 API 暴露了 audio-to-text 和 text-to-audio 两个接口,基于这个两个接口就可以将数字人的语音识别和语音生成都交由 Dify 控制,从而低门槛做出来自己高度定制化的数字人。具体的部署过程参考 B 站视频:https://www.bilibili.com/video/BV1kZWvesE25 。如果有更加高度定制的模型,也可以在 Dify 中接入 XInference 等模型管理平台,然后部署自己的模型。此外,数字人 GUI 工程中仍然保留了 LLM、ASR、TTS、Agent 等多个模块,能够保持更好的扩展,比如实现更加真实性感的语音转换、或者如果有更加 Geek 的 Agent 实现也可以选择直接后端编码扩展实现。

使用 Dify 接口需要注意:

  1. 必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。
  2. 只有接入了支持 TTS 和 SPEECH2TEXT 的模型供应商,才会在功能板块中展示出来,Dify 的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于 TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。
Content generated by AI large model, please carefully verify (powered by aily)

References

AI 数字人-定义数字世界中的你

上述种种,如果都要自建代码实现各模块,开发工作量巨大,迭代难度也很高,对于个人开发者来讲不现实。因此我们推荐借助开源社区的力量,现在开源社区已经有了像dify、fastgpt等等成熟的高质量AI编排框架,它们有大量的开源工作者维护,集成各种主流的模型供应商、工具以及算法实现等等。我们可以通过这些框架快速编排出自己的AI Agent,赋予数字人灵魂。在笔者的开源项目中,使用了dify的框架,利用其编排和可视化交互任意修改流程,构造不同的AI Agent,并且实现相对复杂的功能,比如知识库的搭建、工具的使用等都无需任何的编码和重新部署工作。同时Dify的API暴露了audio-to-text和text-to-audio两个接口,基于这个两个接口就可以将数字人的语音识别和语音生成都交由Dify控制,从而低门槛做出来自己高度定制化的数字人(如下图),具体的部署过程参考B站视频:https://www.bilibili.com/video/BV1kZWvesE25。如果有更加高度定制的模型,也可以在Dify中接入XInference等模型管理平台,然后部署自己的模型。此外,数字人GUI工程中仍然保留了LLM、ASR、TTS、Agent等多个模块,能够保持更好的扩展,比如实现更加真实性感的语音转换、或者如果有更加Geek的Agent实现也可以选择直接后端编码扩展实现。上述Dify接口使用注意事项:1.使必须在应用编排功能中打开文字转语音和语音转文字功能,否则接口会返回未使能的错误。2.只有接入了支持TTS和SPEECH2TEXT的模型供应商,才会在功能板块中展示出来,Dify的模型供应商图标下标签有展示该供应商支持哪些功能,这里可以自行选择自己方便使用的。对于TTS,不同的模型供应商支持的语音人物不同,可以根据个人喜好添加。

AI 数字人-定义数字世界中的你

有了数字人躯壳,我们就需要构建数字人的灵魂,让数字人具备各种智能,比如记得你的个人信息,充当你的个人助手;在某个领域具备更专业的知识;能处理复杂的任务等等。这些能力实现有以下几个需要注意的工程关键点:1.AI Agent:我们要想数字人像人一样思考就需要写一个像人一样的Agent,工程实现所需的记忆模块,工作流模块、各种工具调用模块的构建都是挑战;2.驱动躯壳的实现:灵魂部分怎样去驱动躯壳部分,我们可以将灵魂部分的所有接口定义出来,然后躯壳部分通过API调用,调用方式可以是HTTP、webSocket等等,视躯壳部分的实现而定。但包含情绪的语音表达以及如何保证躯壳的口型、表情、动作和语音的同步及匹配,目前主流方案只能做到预设一些表情动作,再做一些逻辑判断来播放预设,语音驱动口型相对来说成熟一些,但都是闭源的,效果可以参考Nvidia的Audio2Face(https://www.nvidia.cn/omniverse/apps/audio2face/)或则Live Link Face(Iphone APP)+Face AR Sample(UE);3.实时性:由于整个数字人的算法部分组成庞大,几乎不能实现单机部署,特别是大模型部分,所以算法一般会部署到额外的集群或者调用提供出来的API,这里面就会涉及到网络耗时和模型推理耗时,如果响应太慢就会体验很差,所以低延时也是亟需解决的一个问题。4.多元跨模态:仅仅是语音交互的数字人是远远不够的,人有五感(听觉、视觉、嗅觉、触觉、味觉),听觉只是其中一种,其他的感官可以根据实际需求来做,比如视觉我们可以通过添加摄像头数据来获取数据,再通过系列CV算法做图像解析等;5.拟人化场景:我们正常和人交流的时候不是线性对话,会有插话、转移话题等情况,这些情景如何通过工程丝滑处理。

AI 数字人-定义数字世界中的你

数字人的躯壳就是建模过程,有多种构建方式:1.2D引擎风格偏向二次元,亲和力强,定制化成本低,在日本、东南亚等国家比较受欢迎,也深受年轻人喜欢,毕竟能将喜欢的动漫人物变成数字人的躯壳,是一件很棒的事情。2D引擎的代表就是Live2D Cubism(https://www.live2d.com/)。1.3D引擎风格偏向超写实的人物建模,拟真程度高,定制化成本高,目前有很多公司都在做这个方向的创业,已经可以实现用户通过手机摄像头快速创建一个自己的虚拟人身体(如下图,NextHuman(https://nexthuman.cn/))。3D引擎的代表是UE(Unreal Engine)、Unity,虚幻引擎MetaHuman等(个人学习在电脑配置和学习难度上有一定门槛。1.AIGC虽然AIGC的方式相比前两者省去了建模流程,直接生成数字人的展示图片,但弊端也明显,算法生成的数字人很难保持ID一致性,帧与帧的连贯性上会让人有虚假的感觉。如果项目对人物模型真实度要求没有那么高,可以使用这种方案(算法发展非常快,可能不久就会有连贯度很高的生成方式),典型的项目有wav2lip(https://github.com/Rudrabha/Wav2Lip)、video-retalking(https://github.com/OpenTalker/video-retalking)等。AIGC还有一个方向是直接生成2d/3d引擎的模型,而不是直接生成数字人的最终展示部分,但该方向还在探索中。得益于现有各类技术方案的成熟度,以往建模往往都是由专业的建模师完成工作,不久之后相信大家就可以通过一些生成算法快速生成自己的人物模型了。

Others are asking
生成原型的AI工具
以下是一些用于生成原型的 AI 工具: 1. 即时设计(https://js.design/):可在线使用的「专业 UI 设计工具」,为设计师提供更加本土化的功能和服务,相较于其他传统设计工具,更注重云端文件管理、团队协作,并将设计工具与更多平台整合,一站搞定全流程工作。 2. V0.dev(https://v0.dev/):Vercel Labs 推出的 AI 生成式用户界面系统。每个人都能通过文本或图像生成代码化的用户界面。它基于 Shadcn UI 和 Tailwind CSS 生成复制粘贴友好的 React 代码。 3. Wix(https://wix.com/):用户友好的 AI 工具,可让您在没有任何编码知识的情况下轻松创建和自定义自己的网站,提供广泛的模板和设计供您选择,以及移动优化和集成电子商务功能等功能。Wix 建站工具通过拖放编辑、优秀模板和 250 多种 app,能帮助不同领域的用户创建所有种类的网站。 4. Dora(https://www.dora.run/):使用 Dora AI,可以通过一个 prompt,借助 AI 3D 动画,生成强大网站。支持文字转网站,生成式 3D 互动,高级 AI 动画。 目前用于产品原型设计的 AIGC 工具包括: 1. UIzard:利用 AI 技术生成用户界面的工具,可根据设计师提供的信息快速生成 UI 设计。 2. Figma:基于云的设计工具,提供自动布局和组件库,其社区开发的一些 AI 插件可用于增强设计流程。 3. Sketch:流行的矢量图形设计工具,其插件系统中的一些插件利用 AI 技术来辅助设计工作,例如自动生成设计元素等。 从 Artifacts 到 Cursor 的连续爆火,唤起了大模型的又一春。AI Native 的口号从未停止,虽然难以定义真正的 AI Native,但借助这些 AI 工具,任何人都能在短时间内将创意变为可交互的原型。当然,这些工具还不够完美,生成的代码可能需要调整,设计可能需要优化。但随着技术的不断进步,未来可能会有更多专门针对产品原型设计的 AIGC 工具出现,也许有一天,我们可以直接用自然语言描述一个完整的应用,AI 就能为我们构建出全功能的产品。
2025-01-22
我需要一个能帮助写年终报告的AI
以下是一些关于利用 AI 帮助写年终报告的信息: 在金融服务业中,生成式 AI 能够帮助金融服务团队改进内部流程,简化财务团队的日常工作。它可以从更多数据源获取数据,并自动化突出趋势、生成预测和报告的过程。例如,在预测方面,能帮助编写公式和查询,发现模式并为预测建议输入;在报告方面,能自动创建文本、图表等内容,并根据不同示例调整报告。此外,在会计和税务、采购和应付账款方面也能提供帮助,如综合总结税法和潜在扣除项,自动生成和调整合同等。 安迪分享了一个实战案例,通过将过去写的文章发给 AI 总结写作特点,编写提示词来克隆自己的写作风格,从而让 AI 代替自己写“手写信”,大大提高了效率。 对于个人博客,在接触 AI 之前输出困难,而 AI 提供了不同的思路和视角,让写作变得可执行可操作。当 AI 能在几分钟内生成详细报告时,能节省大量时间和精力。但在与 AI 合作中也会面临一些问题,如如何掌控 AI 使其成为得力助手,如何应对超出理解范围的解决方案等。
2025-01-22
如何做一款专属某行业的AI
要开发一款专属某行业的 AI ,可以参考以下要点: 1. 学习模式:AI 应像人类一样学习,例如在医疗保健领域,创建具有潜在空间层次结构的堆叠 AI 模型,反映对每个基本元素的理解或预测能力,可能会以与人脑皮层类似的方式发展,并针对特定任务专门设计神经架构。 2. 特定领域专家 AI:创建特定领域的专家 AI 比创建全能 AI 更容易,预计会创造许多专家 AI ,它们在编码、数据和测试方面采用多样化方法,并提供多种意见。 3. 现实世界互动:让熟练的人类专家配备可穿戴设备,收集现实世界的互动供 AI 学习,同时避免复制危险的偏见。 4. 模型生态系统:以医疗保健为例,应投资创建像优秀医生和药物开发者那样学习的“专家”AI 模型生态系统。成为顶尖人才通常从多年密集信息输入和正规教育开始,再通过学徒实践,AI 学习也应如此,通过堆叠模型训练,而非仅依靠大量数据。 5. 行业调研报告: 步骤:让 AI 阅读学习优秀行业调研报告,总结方法论和操作框架;询问收集行业数据时所用的一手和二手数据及靠谱资料收集网站;要求 AI 推荐行业信息网站和微信公众号,并输出行业调研报告框架;丰富框架每一章节内容。 注意事项:使报告有深度可通过自身对行业的了解整理深度洞察和见解,或深度咨询 AI 并借助其知识学习、研究和总结。 以上是关于如何做一款专属某行业的 AI 的相关内容。
2025-01-22
想写网络小说如何找到合适的AI工具
如果您想写网络小说并找到合适的 AI 工具,以下是一些建议和相关信息: 将小说制作成视频的流程: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 相关工具及网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。 网址:https://github.com/StabilityAI 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。 网址:https://www.midjourney.com 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。 网址:https://www.adobe.com/products/firefly.html 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。 网址:https://pika.art/waitlist 5. Clipfly:一站式 AI 视频生成和剪辑平台。 网址:https://www.aihub.cn/tools/video/clipfly/ 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。 网址:https://www.veed.io/zhCN/tools/aivideo 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。 网址:https://tiger.easyartx.com/landing 8. 故事 AI 绘图:小说转视频的 AI 工具。 网址:https://www.aihub.cn/tools/video/gushiai/ 关于用 AI 写出更好文字的方法: 1. 通过 prompt 中的描述与词语映射到预训练数据中的特定类型的文本,从而得到想要的相似样本。直接点出这种东西常常出现在什么地方,是什么。比如,要写的小说可能是“充满张力的女性复仇文,可能会出现在晋江文学城或者起点中文网的古代言情分类中”。 2. 对于短剧剧本创作这类困难任务,可以让模型写一种特殊格式的网络小说,剩下的尽量显式地描述想要的东西的特征。 3. 往 prompt 里面塞例子,这是一个暴力但是管用且流行的办法。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-01-22
flux inpainting 是怎么基于diffusersion train的inpainting
Flux inpainting 基于 diffusion train 的 inpainting 通常涉及以下方面: 训练扩散模型在特定的表示上,能够在降低复杂度和保留细节之间达到最优平衡点,显著提高视觉保真度。在模型架构中引入交叉注意力层,使其成为强大且灵活的生成器,能够处理诸如文本和边界框等一般条件输入,实现基于高分辨率卷积的合成。 关于 Midjourney 的训练 prompt 方面: Midjourney 会定期发布新的模型版本以提高效率、连贯性和质量。最新模型是默认的,但也可以通过 version 或 v 参数或使用 /settings 命令选择其他模型版本。不同模型在不同类型的图像上表现出色。Midjourney V5 模型是最新且最先进的模型,于 2023 年 3 月 15 日发布。使用该模型可在 prompt 末尾添加 v 5 参数,或通过 /settings 命令选择 MJ Version 5。该模型具有很高的连贯性,擅长解释自然语言 prompt,分辨率更高,并支持诸如 tile 等高级功能。V5 基础模型具有更广泛的风格范围、对 prompt 响应更灵敏、图像质量更高(分辨率提高 2 倍)、动态范围改进、图像细节更丰富且更准确、文本干扰更少等新特点,还支持 tile 参数实现无缝平铺(实验性)、支持大于 2:1 的 ar 宽高比(实验性)、支持 iw 权衡图像 prompt 与文本 prompt 以及特定的风格和 prompt 方式。
2025-01-22
ai快速发展在教育领域的应用
AI 在教育领域的应用十分广泛,主要包括以下几个方面: 1. 个性化学习平台:通过集成算法和大数据分析,实时跟踪学生学习进度,诊断学习难点,提供个性化学习建议和资源。例如 Knewton 平台,通过对数百万学生行为模式分析,精准预测学习难点并提前给出解决方案,大幅提升学习效率。 2. 自动评估:利用自然语言处理技术(NLP)自动批改学生作文和开放性答案题。如 Pearson 的 Intelligent Essay Assessor,能够分析和理解写作内容,给出准确评分和反馈,减轻教师批改负担,提高评估效率和一致性。 3. 智能辅助教学工具:使课堂教学更丰富和互动,如 AI 教师引导学生通过对话学习、解答疑问并提供即时反馈。Google 的 AI 教育工具 AutoML 用于创建定制学习内容,提高学习动机,加深知识掌握。 4. 虚拟现实(VR)和增强现实(AR):学生可通过 VR 头盔进入虚拟实验室,安全进行实验操作并得到 AI 系统反馈。例如 Labster 的虚拟实验室平台,提供高科技实验室场景,让学生尝试复杂实验流程,无需昂贵设备或专业环境。 然而,AI 技术在教育领域的广泛应用也对传统教育体系带来冲击,教育体系内部的惯性、教师技能更新、课程内容调整、评估和认证机制改革等问题成为 AI 教育创新面临的重要挑战。
2025-01-22
国内有哪些开源ai可以调用?
国内有以下一些开源 AI 可供调用: MiniMax 推出的 Hailuo Audio HD 此外,还有一些应用于不同领域的 AI 技术和产品,如: 在游戏领域,有根据玩家需求推荐游戏道具的 AI 游戏道具推荐系统。 在天气领域,彩云天气的分时预报利用了 AI 提供精准的分时天气预报。 在医疗领域,医渡云的病历分析系统利用 AI 分析医疗病历,辅助诊断。 在会议领域,讯飞听见的会议总结功能利用 AI 自动总结会议发言内容。 在书法领域,书法临摹软件利用 AI 识别书法作品的笔画和结构,为用户提供临摹指导和评价。
2025-01-20
可开源的AI工具是什么意思,我可以看到她的代码吗
可开源的 AI 工具是指其源代码可以被公开获取和使用的人工智能工具。这意味着您有机会查看和研究其代码的实现方式。 以下为您列举一些常见的可开源的 AI 工具: 1. CodeGeeX:由智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数的预训练大模型,能快速生成代码,提升开发效率。 2. :一个带 Web 界面简单易用的声音克隆工具。可使用任何人类音色,将一段文字合成为使用该音色说话的声音,或者将一个声音使用该音色转换为另一个声音。 3. :一个开源的音频、音乐和语音生成整合工具包。 4. :一键部署私人 GPT/LLM 的聊天机器人。支持语音合成、多模态和可扩展的插件系统,可以联网、画图、爬虫等。 5. :能够利用爬虫,自动抓取与整合指定 URL 地址中的各种信息,并生成一个 output.json 的数据文件。将其喂给 ChatGPT,便可快速定制您的专属 GPT,打造个人知识库或者智能助理。 6. :给 AI 看一眼截屏,便能直接生成代码。该项目可借助 GPT4 Vision 的能力,直接给您将屏幕截图转换为 HTML/Tailwind CSS,并利用 DALLE 3 的图像生成能力,生成外观相似的图像。 7. :可在命令行终端,直接调用与展示各种大模型能力。实现了视频和照片编辑、系统配置更改、自动生成并运行 Demo 源码,AI 一对一聊天问答等功能。 需要注意的是,不同的开源 AI 工具在功能和适用场景上可能会有所不同,您可以根据自己的需求选择最适合您的工具。
2025-01-20
开源数字人
以下是关于开源数字人的相关信息: 数字人组合方案: 第一步:先剪出音频,可使用 https://elevenlabs.io/speechsynthesis 或使用 GPTsovits克隆声音,做出文案的音频。 第二步:使用 wav2lip 整合包,导入视频和音频,对口型得到视频。基础 wav2lip+高清修复整合包下载地址:https://github.com/Rudrabha/Wav2Lip 。 构建高质量的 AI 数字人: 建好的模型可以使用 web 前端页面(Live2D 就提供了 web 端的 SDK)或者 Native 的可执行程序进行部署,最后呈现在用户面前的是一个 GUI。 开源数字人项目(项目地址:https://github.com/wanh/awesomedigitalhumanlive2d)选择了 live2d 作为数字人躯壳,因为这类 SDK 的驱动方式相比现在的 AI 生成式的方式更加可控和自然,相比虚幻引擎这些驱动方式又更加轻量和简单;另外超写实的数字人风格在目前的技术能力下,处理不好一致性问题,容易带来虚假的感觉或者产生恐怖谷效应,而卡通二次元的形象给人的接受度更高。关于 live2d 的 SDK 驱动方式可以参考官方示例:https://github.com/Live2D 。
2025-01-11
中外开源模型概览与分类
以下是关于中外开源模型的概览与分类: 国内方面: 国内模型在 Agent 核心基础能力上已较为接近或部分超过 GPT3.5 水平。 如 ChatGLM3Turbo 在任务分解、多文档问答和检索 API 能力上表现出色。 国内开源模型如 Baichuan213BChat 具备较强竞争力,在某些方面超过一些闭源模型。 国外方面: OpenAI 发布了开源模型,包括 PointE、Whisper、Jukebox 和 CLIP。可访问供研究人员的模型索引详细了解其研究论文中介绍的模型以及 InstructGPT 和 GPT3.5 等模型系列之间的差异。 智谱·AI 开源模型: 多模态模型方面,推出了具有视觉和语言双模态的模型,如 CogAgent18B、CogVLM17B、Visualglm6B 等。 详情可访问:【新基准】SuperCLUEAgent:首个 AI 智能体中文测评基准发布 www.CLUEbenchmarks.com/superclue_agent.html 。
2025-01-06
中外开源模型概览与分类
以下是关于中外开源模型的概览与分类: 国内方面: 国内模型在 Agent 核心基础能力上已较为接近或部分超过 GPT3.5 水平。 如 ChatGLM3Turbo 在任务分解、多文档问答和检索 API 能力上表现出色。 国内开源模型如 Baichuan213BChat 具备较强竞争力,在某些方面超过一些闭源模型。 国外方面: OpenAI 发布了开源模型,包括 PointE、Whisper、Jukebox 和 CLIP。可访问供研究人员的模型索引详细了解其研究论文中介绍的模型以及 InstructGPT 和 GPT3.5 等模型系列之间的差异。 智谱·AI 开源模型: 多模态模型方面,推出了具有视觉和语言双模态的模型,如 CogAgent18B、CogVLM17B、Visualglm6B 等。 详情可访问:【新基准】SuperCLUEAgent:首个 AI 智能体中文测评基准发布 www.CLUEbenchmarks.com/superclue_agent.html
2025-01-06
开源模型与闭源模型调用
以下是关于开源模型与闭源模型调用的相关信息: 1. 通义千问自 2023 年 8 月起密集推出 Qwen、Qwen1.5、Qwen2 三代开源模型,Qwen 系列的 72B、110B 模型多次登顶 HuggingFace 的 Open LLM Leaderboard 开源模型榜单。Qwen2 系列已上线魔搭社区 ModelScope 和阿里云百炼平台,开发者可在魔搭社区体验、下载模型,或通过阿里云百炼平台调用模型 API。同时,Qwen272binstruct 模型已上线中国大语言模型评测竞技场 Compass Arena,所有人都可登录体验其性能或进行对比测评,测评地址为。Compass Arena 集齐了国内主流的 20 多款大模型,用户可在平台选择大模型的两两“对战”。 2. 部分声称性能卓越的中国大模型被揭露为“套壳”产品,如李开复创办的“零一万物”被国外开发者质疑为“套壳”产品,其团队承认在训练过程中沿用了开源架构,但坚称发布的模型从零开始训练并进行了大量原创优化和突破。此外,字节跳动被曝出在其秘密研发的大模型项目中调用了 OpenAI 的 API,并使用 ChatGPT 的输出数据来训练自己的模型,此行为触犯了 OpenAI 使用协议中禁止的条款。 3. 在 LLM 应用程序中,OpenAI 已成为语言模型领域领导者,开发者通常使用 OpenAI API 启动新的 LLM 应用,如 gpt4 或 gpt432k 模型。项目投入生产并规模化时,有更多选择,如切换到 gpt3.5turbo,其比 GPT4 便宜约 50 倍且速度更快;与其他专有供应商如 Anthropic 的 Claude 模型进行实验;将一些请求分流到开源模型,这通常与微调开源基础模型结合更有意义。开源模型有多种推理选项,包括 Hugging Face 和 Replicate 的简单 API 接口、主要云提供商的原始计算资源等。
2025-01-06
如何高质量的提问AI
以下是关于如何高质量提问 AI 的一些建议: 1. 针对具体任务进行环节拆分:例如在使用 AI 进行数据分析时,将数据清洗、提取、模型选择、训练和结果解释等环节分开处理,便于优化性能和发现修正问题。 2. 逐步深化和细化问题:对于复杂问题,先提出宽泛问题,再根据回答进一步细化或深化,如处理知识产权侵权案件时,先问被告是否侵权,再根据回答追问侵权类型和程度。 3. 提供参考和学习内容:包括详细操作指南、行业最佳实践、案例研究等,并编写详细流程和知识(knowhow),如自动化文档处理中编写处理不同类型文档的指南。 4. 利用专业领域术语引导:在 Prompt 中使用法律术语引导 AI 回答方向,如处理合同纠纷时提示从特定方面分析合同履行情况。 5. 验证与反馈:大模型语料有滞后性,使用 AI 回答后要交叉验证确保准确性,同时结合自身专业知识筛选判断,确保符合法律伦理等。 6. 总结核心观点和注意事项:用简洁明了语言概括,如提供法律建议时可总结出核心观点和注意事项,并使用特定连接词组织 Prompt。 7. 设定角色和任务目标:赋予 AI 明确的角色和任务目标,如专注于民商事法律领域且擅长特定方面的律师,以提升工作效率。 8. 讲清楚背景和目的:提问时梳理清楚背景信息和目的,如处理交通事故案件时说明案件事实和法规,帮助 AI 理解上下文提高准确性。 9. 学会提问:使用清晰具体语言,避免模糊表述,了解 AI 工作原理和限制,设计能提供有用答案的问题。 10. 拆解环节、切分流程:应用 AI 前细致拆解工作流程,将复杂任务分解为更小更具体环节,使 AI 执行更精确。 此外,FastGPT 是一个功能强大、易于使用的知识库问答系统,基于 LLM 技术,能理解自然语言并生成高质量答案,支持连接外部知识库获取更全面信息,有可视化工作流编排工具方便创建复杂问答场景,具备开箱即用的数据处理和模型调用功能方便快速上手,可帮助企业构建智能客服、知识库搜索、文档生成等应用。相关资源有:。但请注意内容由 AI 大模型生成,请仔细甄别。
2025-01-20
我想用AI做高质量高清图片,我应该怎么做
如果您想用 AI 做高质量高清图片,可以参考以下方法: 1. 了解默认分辨率:在 Stable Diffusion 中,AI 出图的默认分辨率为 512x512,用于商业通常不够。 2. 注意初始分辨率:初始分辨率不宜过高,例如 1600x840 的分辨率可能导致出图时间长和构图问题。 3. 运用高清修复:在文生图功能中有内置的高清修复(HiresFix)功能。将初始分辨率设置为 800x420 时,选择放大倍率为 2,可将分辨率放大至 1600x840。理论上放大倍率越高图片越清晰,但受电脑配置和显卡显存影响。放大算法如 RESRGAN 4x+Anime6B 常用于二次元绘图,写实类风格可选择 RESRGAN 4x+。 4. 固定图片种子值:先以 800x420 画一张图,获取其种子值并填入随机数种子以固定图片。 5. 底图制作:对于游戏截图升级为高质量图片,可在游戏内直接截图作为图生图的底层素材。为使底图清晰、拍摄自由,在 UE4 引擎游戏中可使用常用调整画质代码,如 r.ViewDistanceScale 10、r.ForceLOD 0、foliage.LODDistanceScale 10 等,并通过 ToggleDebugCamera 实现自由相机,使用 HighResShot 1920X1080(尺寸可调节)进行高品质截图。 通过这些技巧,您就可以得到足以商用的高清图片素材。
2024-12-25
AI提示词怎么写才能让AI的回答更高质量
以下是一些写 AI 提示词以获得更高质量回答的方法: 1. 明确具体的描述:使用更具体、细节的词语和短语,避免过于笼统。 2. 添加视觉参考:在提示词中插入相关图片参考,提高 AI 理解意图和细节要求的能力。 3. 注意语气和情感:根据需求,用合适的形容词、语气词等调整整体语气和情感色彩。 4. 优化关键词组合:尝试不同的关键词搭配和语序,找到最准确表达需求的描述方式。 5. 增加约束条件:添加限制性条件,如分辨率、比例等,避免意外输出。 6. 分步骤构建提示词:将复杂需求拆解为逐步的子提示词,引导 AI 先生成基本结构,再逐步完善。 7. 参考优秀案例:研究流行且有效的提示词范例,借鉴写作技巧和模式。 8. 反复试验、迭代优化:通过多次尝试不同写法,并根据输出效果反馈持续优化完善。 在商业化问答场景中,提示词的作用是告诉全知全能的大语言模型,它是一个什么样的角色、要专注于哪些技能,让其按照您的想法变成所需的“员工”。例如设定角色为“美嘉”,按照其人设、背景和对话风格做设定。 此外,还有一些优化提示词的技术和成果,如通过链式思维等技术自动改进提示词,提升回答质量,具有示例增强、标准化、提示重写、预填充内容等功能特点,能显著提高模型的易读性和准确性,测试显示多标签分类准确率提升 30%,摘要任务可完全遵循字数要求。若提示缺少示例,Claude 还会自动生成合成示例,简化提示构建过程。
2024-12-03
有没有可以根据我的需求,自动生成搜索高质量query的prompt
以下是为您整理的关于自动生成搜索高质量 query 的 prompt 的相关内容: 1. JackeyLiu (JK): 作为 ChatGPT 的深度用户,为节省每次构建 Prompt 的力气,打算写一个基于初始问题自动生成优质 Prompt 的 Prompt。其构建 Prompt 的方法论来自于。 2. 做调研: 生成调研报告的 prompt 构建过程艰难,经过多次尝试和迭代,包括试用 webpolit 和 web browsing 等,最终在群里大佬的建议下,通过在需要搜索网络信息的章节处打上标签让 GPT4 自主搜索信息来生成内容,并选择使用 webpolit 插件,放弃了 web browsing 模式,完成了调研报告的 prompt。且在解决问题前,用前几版 prompt 帮团队和同学完成了 3 篇调研报告。 3. 生成式 AI:下一个消费者平台: 这种根据特定需求生成策划过的选项列表的搜索方式在产品推荐方面有价值,例如为特定的宠物推荐狗粮或特定条件下推荐服装。在企业内部搜索应用中也有巨大潜力,如允许用户查询视频会议记录。
2024-08-09
做 video lip sync 的高质量项目有哪些?
以下为一些关于 video lip sync(视频唇形同步)的高质量项目介绍: 谷歌的“Generating audio for video”项目正在开展进一步研究。该项目具有以下特点: 1. 与现有视频音频解决方案相比,它能够理解原始像素,并且添加文字提示是可选的。 2. 系统无需手动调整生成的声音和视频,避免了对声音、视觉效果和时间等不同元素进行繁琐的调整。 3. 但仍存在一些限制因素需要解决,比如音频输出质量依赖于视频输入质量,视频中的假象或失真超出模型训练分布范围会导致音频质量明显下降。 4. 正在改进涉及语音的视频唇形同步。V2A 尝试从输入的文稿生成语音并与角色的唇形动作同步,但配对的视频生成模型可能不受文稿条件的限制,这会造成不匹配,导致唇形同步不自然。 需要注意的是,这一项目仍在不断完善和改进中。
2024-07-24
有哪些高质量 sft 多轮对话数据集
高质量的SFT(Supervised FineTuning)多轮对话数据集在训练对话系统时至关重要。以下是一些公认的高质量多轮对话数据集: 1. ConvAI2 Dataset ConvAI2数据集是基于PersonaChat数据集构建的,用于ConvAI2挑战赛。它包含了多轮对话,且每个对话都有明确的角色和背景信息,有助于训练更具个性化的对话系统。 链接: 2. DSTC系列数据集 DSTC(Dialogue State Tracking Challenge)系列数据集是多轮对话系统研究中的经典数据集,涵盖了多种任务和领域,如任务导向对话、对话状态跟踪等。 DSTC2: 专注于餐馆预订任务。 DSTC3: 扩展了DSTC2,增加了更多的任务和对话状态。 DSTC6: 涉及对话行为理解和对话状态跟踪。 链接: 3. MultiWOZ Dataset MultiWOZ(MultiDomain Wizard of Oz)是一个大规模、多领域任务导向对话数据集,涵盖了多个对话场景,如餐馆预订、酒店预订、出租车预订等。数据集中的对话是由实际用户和客服人员通过WizardofOz方法生成的,质量较高。 链接: 4. Ubuntu Dialogue Corpus Ubuntu Dialogue Corpus是一个大规模、多轮对话数据集,基于Ubuntu的IRC日志。数据集包含技术支持对话,适用于训练技术支持和问答系统。 链接: 5. CoQA Dataset CoQA(Conversational Question Answering)数据集用于对话式问答系统的训练。数据集中每个对话包含一个给定的文本和相关的问题回答对。 链接: 6. TopicalChat Dataset TopicalChat数据集是微软创建的,用于开发和评估开放领域对话系统。数据集包括不同主题的多轮对话,涉及科技、娱乐、体育等多个领域。 链接: 7. PersonaChat Dataset PersonaChat数据集包含多轮对话,每个对话参与者都有预定义的个人信息或“persona”,旨在开发更具个性化和情感的对话系统。 链接: 总结 这些数据集覆盖了多种对话场景和任务类型,是开发高质量对话系统的重要资源。在使用这些数据集进行训练时,可以结合具体的应用场景和需求,选择合适的数据集进行SFT。
2024-06-13
如何访问midjourney社区
要访问 Midjourney 社区,您可以按照以下步骤进行: 1. 拥有一个 Discord 账号:如果没有,可参考进行验证。 2. 订阅 Midjourney 计划:访问了解有关定价和各层可用功能的信息。 3. 加入 Midjourney 服务器: 打开 Discord 并找到左侧边栏上的服务器列表。 按服务器列表底部的“+”按钮。 在弹出窗口中,单击“Join a Server”按钮。 粘贴或输入以下 URL:。 4. 转到任何“General”或“Newbie”频道:加入 Midjourney 服务器后,您会在侧边栏中看到列出的几个频道。 此外,您的 Midjourney 订阅使您可以访问 Niji 社区。要为 Niji 模型版本创建风格调谐器或代码,请加入并以与 Midjourney Bot 交互的方式与 Niji 机器人交互。
2025-01-14
社区有关于stable diffusion 的教程吗
以下是为您找到的关于 Stable Diffusion 的教程: 知乎教程:深入浅出完整解析 Stable Diffusion(SD)核心基础知识,目录包括: Stable Diffusion 系列资源 零基础深入浅出理解 Stable Diffusion 核心基础原理,包含通俗讲解模型工作流程(包含详细图解)、从 0 到 1 读懂模型核心基础原理(包含详细图解)、零基础读懂训练全过程(包含详细图解)、其他主流生成式模型介绍 Stable Diffusion 核心网络结构解析(全网最详细),包括 SD 模型整体架构初识、VAE 模型、UNet 模型、CLIP Text Encoder 模型、SD 官方训练细节解析 从 0 到 1 搭建使用 Stable Diffusion 模型进行 AI 绘画(全网最详细讲解),包括零基础使用 ComfyUI 搭建推理流程、零基础使用 SD.Next 搭建推理流程、零基础使用 Stable Diffusion WebUI 搭建推理流程、零基础使用 diffusers 搭建推理流程、Stable Diffusion 生成示例 Stable Diffusion 经典应用场景,包括文本生成图像、图片生成图片、图像 inpainting、使用 controlnet 辅助生成图片、超分辨率重建 从 0 到 1 上手使用 Stable Diffusion 训练自己的 AI 绘画模型(全网最详细讲解),包括 Stable Diffusion 训练资源分享、模型训练初识、配置训练环境与训练文件 其他教程: 了解 Stable diffusion 是什么: 基本介绍:https://waytoagi.feishu.cn/wiki/CeOvwZPwCijV79kt9jccfkRan5e 稳定扩散(Stable Diffusion)是如何运作的:https://waytoagi.feishu.cn/wiki/TNIRw7qsViYNVgkPaazcuaVfndc 入门教程: 文字教程: 模型网站: C 站SD 模型网站:https://civitai.com/ Liblibai模型+在线 SD:https://www.liblib.ai/ huggingface:https://huggingface.co/models?pipeline_tag=texttoimage&sort=trending 吐司站:https://tusiart.com/ 推荐模型:人像摄影模型介绍:https://www.bilibili.com/video/BV1DP41167bZ
2025-01-04
AI图片社区
以下是关于 AI 图片社区的相关信息: 如何判断一张图片是否 AI 生成:要培养鉴别 AI 图片的技能需要训练大脑模型。对于不擅长的朋友,可通过一些网站来判断,如 ILLUMINARTY(https://app.illuminarty.ai/),但测试中可能存在误判,这是因为鉴定 AI 自身的逻辑算法不能像人类一样综合考虑各种表现。 100 个 AI 应用中的相关社区:500px 摄影社区是 AI 摄影比赛平台,利用图像识别、数据分析技术,举办摄影比赛,展示优秀摄影作品;雪球财经 APP 是 AI 金融投资教育平台,利用数据分析、自然语言处理技术,为用户提供个性化的金融投资教育服务。
2024-12-21
像midjournal这样的国内外AI绘画社区
以下是为您介绍的像 Midjourney 这样的国内外 AI 绘画社区相关内容: Midjourney 是 AI 绘图领域家喻户晓的产品。其优点在于模型强大,能生成高质量图像,且支持充分的个性化设置。但使用过程不太便捷,需要通过 Discord 应用加入其频道或创建自己的频道并邀请 Midjourney 机器人才能生成图片。从学习难度来看,它的学习曲线较陡峭,在用户体验和易用性方面有待改进。 在“学社说明”中提到,大家一起收集和测试 AI 绘画提示词中的核心关键词,让新手规避无效探索,为相关从业人员节省时间。招募有 Midjourney 账号且喜欢 AI 绘画的人员,扫飞书二维码进群。根据关键词做创意,收录不错的作品。 在“AI 线上绘画教程”中提到,工作中需要大量图片时,AI 生图是高效的解决办法。主流的 Midjourney 付费成本高,Stable Diffusion 硬件门槛不低,但有像这样的免费在线 SD 工具网站。本教程旨在让入门玩家在半个小时内自由上手创作绘图。
2024-11-12
如何加入 WaytoAGI 社区群
如果您想加入 WaytoAGI 社区群,可以通过以下方式: 1. 填写问卷进群,群内会分享最新 AI 信息和社区活动。 2. 搜索微信号 Andywuwu07 或扫描二维码加微信,备注 AI 共学,以便被拉进免费的 AI Agent 共学群。 3. 飞书群内置 AI 智能机器人,可以回复任何与 AI 相关的问题。 4. 新手可以使用 Kimi 智能助手入门学习和体验 AI,PC 端可通过下载。 5. 如需下载研究报告,诚邀您加入知识星球:了解。
2024-11-11
社区里的AI工具推荐文档
以下是为您推荐的社区里的 AI 工具相关内容: 小红书优质科技内容案例整理: ,体裁为视频,点赞数 1.8w,推荐理由是工具使用场景和优点介绍清晰不拖沓。 ,体裁为视频,点赞数 6000,推荐理由是视频制作专业,文稿结构清晰简洁,适合所有人跟练。 ,体裁为图文,点赞数 2.7w。 此外,还有关于拜登签署的 AI 行政命令的相关内容:Establish an advanced cybersecurity program to develop AI tools to find and fix vulnerabilities in critical software, building on the BidenHarris Administration’s ongoing AI Cyber Challenge. Together, these efforts will harness AI’s potentially gamechanging cyber capabilities to make software and networks more secure. Order the development of a National Security Memorandum that directs further actions on AI and security, to be developed by the National Security Council and White House Chief of Staff. This document will ensure that the United States military and intelligence community use AI safely, ethically, and effectively in their missions, and will direct actions to counter adversaries’ military use of AI. 元子的分享提到,普通人在体验 AI 工具时可能会遇到阻碍,比如作者的父亲尽管有相关基础和条件,但仍对 AI 存在疑问,这表明一些看似简单的 AI 工具初级尝试可能拦住了很多人。
2024-10-01