直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

音频质量检测方面SOTA模型有?

回答

Gemini 模型在音频质量检测方面达到了 SOTA 水平。该模型是天生多模态的,在文本、图像、音频和视频上进行联合训练,在广泛的音频基准测试中表现出色。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Gemini report 中文翻译

[title]Gemini report中文翻译[heading1]5.评估Gemini模型是天生多模态的,因为它们在文本、图像、音频和视频上进行联合训练。一个关键的问题是,这种联合训练是否能够在每个领域,都具有强大能力,与专门针对单个领域的模型和方法进行比较。我们发现这是可以的:Gemini在广泛的文本、图像、音频和视频基准测试中都做到了SOTA。

其他人在问
目标检测领域最新sota模型
以下是目标检测领域的一些最新模型: YOLOv8 目标检测跟踪模型:快速准确的多对象识别和定位,支持实例分割、人体姿态估计等,多平台兼容,是一站式视觉识别解决方案。详细介绍:https://docs.ultralytics.com/models/ ,GitHub:https://github.com/ultralytics/ultralytics 。 OpenAI 在 2024 年 2 月发布的 Sora 模型,是一个文本到视频的生成式 AI 模型,能够根据文本提示生成现实或想象场景的视频,在目标检测方面也有一定的应用和潜力。
2024-10-10
音频克隆
以下是关于音频克隆的相关信息: GPTSoVITS 是一个声音克隆和文本到语音转换的开源 Python RAG 框架。其主要特点包括: 1. 零样本 TTS:输入 5 秒的声音样本即可体验即时的文本到语音转换。 2. 少量样本训练:只需 1 分钟的训练数据即可微调模型,提高声音相似度和真实感,模仿出来的声音更接近原声,更自然。 3. 跨语言支持:支持与训练数据集不同语言的推理,目前支持英语、日语和中文。 4. 易于使用的界面:集成了声音伴奏分离、自动训练集分割、中文语音识别和文本标签等工具,帮助初学者更容易地创建训练数据集和 GPT/SoVITS 模型。 5. 适用于不同操作系统:项目可以在不同的操作系统上安装和运行,包括 Windows。 6. 预训练模型:项目提供了一些已经训练好的模型,可直接下载使用。 GitHub 地址: 视频教程: 使用方法: 1. 注册 colab,启动准备:点击进入按照步骤注册,新建笔记本,运行脚本启动 GPTSo VITS。整个过程比较漫长,需要耐心等待,可以整个脚本一起运行,也可以一段一段运行。运行过程包括克隆项目代码库、进入项目目录、安装 Python 依赖包、安装系统依赖、下载 NLTK 资源、启动 Web UI。运行成功后会出现 public URL。 2. 训练音频准备与上传。 此外,还有 XiaoHu.AI 日报中提到的声音克隆相关内容,它由主要模型 SenseVoice 和 CosyVoice 构成,声音克隆仅需几秒音频样本,无需额外训练数据,还能控制情绪情感、语速、音高。详细内容:https://xiaohu.ai/p/10954 项目地址:https://funaudiollm.github.io 在线演示:https://modelscope.cn/studios/iic/CosyVoice300M
2024-11-12
获取视频音频转化成字幕并翻译的插件有么?
以下是一些可以将视频音频转化成字幕并翻译的插件和工具: 1. Reccloud:免费的在线 AI 字幕生成工具,可直接上传视频进行精准识别,能对识别的字幕进行翻译,自动生成双语字幕。声称已处理 1.2 亿+视频,识别准确率接近 100%。 2. 绘影字幕:一站式专业视频自动字幕编辑器,提供简单、准确、快速的字幕制作和翻译服务,支持 95 种语言,准确率高达 98%,还可自定义字幕样式。 3. Arctime:能对视频语音自动识别并转换为字幕,甚至支持自动打轴,支持 Windows 和 Linux 等主流平台,支持 SRT 和 ASS 等字幕功能。 4. 网易见外:国内知名语音平台,支持视频智能字幕功能,转换正确率较高,支持音频转写功能。 此外,关于语音转文本(Speech to text),语音转文本 API 提供了两个端点,基于开源大型v2 Whisper 模型的转录和翻译。目前文件上传限制为 25MB,支持 mp3、mp4、mpeg、mpga、m4a、wav 和 webm 等输入文件类型。 对于提示词翻译,可使用百度翻译 API,方法如下: 1. 下载节点压缩包,并将它放在 custom_nodes 文件夹。 2. 去百度翻译 Api 登记册开发人员的帐户中得到您的 appid 和 secretKey,百度翻译平台地址:https://fanyiapi.baidu.com/manage/developer 。 3. 打开文件 config.py 在记事本或其他编辑工具中,填写您的 secretKey 并保存文件,重启 Comfy 即可。 以上工具各有特点,您可以根据自己的需求选择最适合的。内容由 AI 大模型生成,请仔细甄别。
2024-11-02
音频转文字
以下是关于音频转文字的相关信息: 推荐使用 OpenAI 的 wishper,相关链接:https://huggingface.co/openai/whisperlargev2 。 一分钟搞定 23 分钟音频的相关链接:https://huggingface.co/spaces/sanchitgandhi/whisperjax 。该项目在 JAX 上运行,后端支持 TPU v48,与 A100 GPU 上的 PyTorch 相比,速度快 70 多倍,是目前最快的 Whisper API。 语音转文本 API 提供了转录和翻译两个端点,基于开源大型v2 Whisper 模型。可用于将音频转录为任何语言,将音频翻译并转录成英语。目前文件上传限制为 25MB,支持的输入文件类型包括:mp3、mp4、mpeg、mpga、m4a、wav 和 webm。 转录 API 的输入是要转录的音频文件及所需输出格式的音频文字稿,默认响应类型为包含原始文本的 JSON,可通过添加更多带有相关选项的form 行设置其他参数。 翻译 API 以任何支持的语言作为输入音频文件,并在必要时将音频转录成英文,目前仅支持英语翻译。 支持的语言包括:南非荷兰语、阿拉伯语、亚美尼亚语、阿塞拜疆语、白俄罗斯语、波斯尼亚文、保加利亚文、加泰罗尼亚文、中文、克罗地亚文、捷克文、丹麦文、荷兰文、英国英语、爱沙尼亚文、芬兰文、法国法式英语、加利西亚语、德语、希腊语、希伯来语、印地语、匈牙利语、冰岛语、印度尼西亚语、意大利语、日语、卡纳达语、哈萨克语、韩语、拉脱维亚语、立陶宛语、马其顿语、马来语、马拉地语。
2024-10-31
请总结本知识库,并提炼出11节面向十岁儿童关于AIGC的课程,三节是提示词工程,2节文生文,2节文生图/图生图,2节文生音频,2节文生视频/图生视频,不需要涉及智能体及文生代码
以下是对本知识库的总结: 包含了不同时间段的 AIGC 周刊内容,如 Open AI 发布 ChatGPT 的 iOS 应用、Google 宣布多项 AI 新功能、AI 歌手相关教程等。 有关于提示词工程的课程及相关技巧介绍。 涉及一些特定的 AIGC 技术和方法,如 Donut 文档理解方法。 提到了谷歌的生成式 AI 学习课程。 以下是为十岁儿童设计的 11 节关于 AIGC 的课程: 1. 提示词工程基础 什么是提示词 提示词的作用 简单的提示词示例 2. 提示词工程进阶 复杂提示词的构建 如何优化提示词 提示词的实际应用 3. 提示词工程实践 设计自己的提示词任务 分享与讨论提示词成果 总结提示词的使用技巧 4. 文生文入门 了解文生文的概念 简单的文生文工具介绍 尝试生成一段文字 5. 文生文提高 优化文生文的输入 让生成的文字更有趣 比较不同文生文的效果 6. 文生图/图生图基础 认识文生图和图生图 常见的文生图工具 用简单描述生成一张图片 7. 文生图/图生图进阶 更复杂的描述生成精美图片 对生成的图片进行修改 分享自己生成的图片 8. 文生音频入门 什么是文生音频 简单的文生音频工具 生成一段简单的音频 9. 文生音频提高 让生成的音频更动听 给音频添加特效 欣赏优秀的文生音频作品 10. 文生视频/图生视频基础 文生视频和图生视频的概念 基本的文生视频工具 制作一个简单的视频 11. 文生视频/图生视频进阶 让视频更精彩 视频的后期处理 展示自己制作的视频
2024-10-31
情感丰富音频ai模型
以下为您介绍一些情感丰富音频 AI 模型: 阿里云最新开源模型 FunAudioLLM:这是通义实验室语音团队全新推出的生成式语音大模型,能提供舒适自然的语音合成能力。它可以生成不同情感的语音,如中性、悲伤、快乐等。例如,悲伤情感的语音有“等你熬过那些孤独无助的时刻,你才会发现,原来自己并没有想象中那么脆弱。原来一个人,也可以活成千军万马的模样。我可以安慰很多人,但就是不能安慰自己那颗千疮百孔的心。总有一些人会慢慢淡出你的生活。你要学会接受,而不是怀念。有些事。不管我们如何努力,回不去就是回不去了。我们漫长的岁月中有太多的过客,有太多的无奈。”;快乐情感的语音有“小丽抿着嘴,弓着腰,蹑手蹑脚地,一步一步慢慢地靠近它。靠近了,靠近了,又见她悄悄地将右手伸向蝴蝶,张开的两个手指一合,夹住了粉蝶的翅膀。小丽高兴得又蹦又跳。除夕晚上,儿子孙子都来到她身边,她满脸皱纹都舒展开了,就像盛开的菊花瓣,每根皱纹里都洋溢着笑意。” XiaoHu.AI 日报中提到的模型:它由 SenseVoice 和 CosyVoice 构成。声音克隆仅需几秒音频样本,无需额外训练数据,还能控制情绪情感、语速、音高。详细内容:https://xiaohu.ai/p/10954 项目地址:https://funaudiollm.github.io 在线演示:https://modelscope.cn/studios/iic/CosyVoice300M 此外,还有 LLM 比价工具,可对比不同种类模型型号的订阅价格和 API 价格,传送门:https://huggingface.co/spaces/philschmid/llmpricing 以及浦语灵笔 IXC2.5,能看懂视频,完整书写文章,自动生成网站,由上海人工智能实验室开发,使用 7B LLM 后端,具有与 GPT4V 相当的能力,擅长网页制作和高质量文本图像文章创作。详细内容:https://xiaohu.ai/p/10891
2024-10-28
有什么模型或者工具可以直接完成: 上传音频文件,输出文字稿,并且文字稿会做声纹识别区分说话人
以下是为您提供的相关信息: Hedra:hedra.com 放出了基础模型 Character1 的研究预览版,即日起在 http://hedra.com(桌面和移动)上提供。它可以直接文字转语音,目前有 6 个语音,也可以直接上传音频。 Sovits:关于基于 Sovits 的声音训练及推理,需要准备数据集,百度网盘链接为:https://pan.baidu.com/s/14iK32JKIPvjmf1Kfq21mzg?pwd=hjhj 提取码:hjhj 。模型的安装比较简单,拷贝就行,详情请看网盘里的说明。提取人声的最佳模型是 mdxnet,提取出来的声音一般还需要用 iZotope RX 等软件精细处理,去掉杂音、和声和混响,达到“干声”效果。iZotope RX 软件链接:https://pan.baidu.com/s/1NXh67SViKm39zT08U7zg?pwd=kmhd 提取码:kmhd 。安装时记得把 vst3 和 aax 勾上,主程序安装完成后,替换补丁是直接复制粘贴,不需要双击运行。安装完成后,打开提取的人声,左下角的控件移动到最左边,让图形更加清爽。去混响可按特定顺序操作,并通过调整数值以耳朵为准感受效果,合适则点击渲染应用到整首歌。
2024-10-23
当前最好的开源目标检测
目前较好的开源目标检测算法包括: 基于深度学习的目标检测算法,如 RCNN、Fast RCNN、Faster RCNN、YOLO、SSD 等。 基于传统计算机视觉技术的目标检测算法,如 HOG、SIFT、SURF 等。 YOLOv8 是一款出色的目标检测跟踪模型,具有快速准确的多对象识别和定位能力,支持实例分割、人体姿态估计等,多平台兼容,是一站式视觉识别解决方案。其详细介绍可参考:https://docs.ultralytics.com/models/ ,GitHub 地址为:https://github.com/ultralytics/ultralytics
2024-11-04
开源音频质量检测模型有哪些?
以下为一些开源音频质量检测模型: 此外,还有: VALLEX:一个开源的多语言文本到语音合成与语音克隆模型。它支持多种语言(英语、中文和日语)和零样本语音克隆,具有语音情感控制和口音控制等高级功能。 智谱·AI 自 2019 年成立以来推出并开源的多款模型,具体可参考。但请注意,Token 数代表了模型支持的总 Token 数量,包括了输入+输出的所有 token,且一个 token 约等于 1.8 个汉字。
2024-10-16
请阐述对比学习在图像分类和检测中的应用
在计算机视觉中,对比学习在图像分类和检测中有重要应用。 图像分类方面:图像分类是根据图像中的语义信息对不同类别的图像进行区分。对比学习通过让模型学习区分相似和不同的图像样本,从而更好地捕捉图像中的语义特征,提高分类的准确性。 目标检测方面:目标检测需要找出图像或视频中的目标物体,并检测出其位置和大小。对比学习可以帮助模型学习到更具判别性的特征表示,从而更准确地定位和识别目标物体。在多类别目标检测中,对比学习有助于区分不同类别的物体,提高检测的精度和效率。 总之,对比学习为图像分类和检测任务提供了有效的特征学习方法,有助于提升计算机视觉系统的性能。
2024-10-15
我计划检测一张图片中的玉米。我使用python怎么实现这个目的。
要使用 Python 检测一张图片中的玉米,您可以考虑使用一些图像处理和机器学习的库,比如 OpenCV 和 TensorFlow 等。 使用 OpenCV 可以进行图像的读取、预处理和特征提取。首先读取图片,然后可能需要进行一些图像增强、滤波等操作来改善图像质量,以便后续的检测。 如果使用 TensorFlow 等深度学习框架,可以构建一个卷积神经网络(CNN)模型来进行玉米的检测。您需要准备包含玉米和非玉米的大量图片数据集,并对数据进行标注,然后训练模型。 但具体的实现会比较复杂,需要您具备一定的图像处理和机器学习知识。
2024-09-18
请介绍聚类分析、异常检测算法
聚类分析是一种将数据集中相似的数据点分组在一起的方法。当数据集中的簇不是明显的球形或高斯分布时,KNN 算法也可用于聚类任务。 异常检测算法用于识别数据集中偏离常态的异常数据点。KNN 算法由于可以识别与大多数邻居不同的点,常用于异常检测。此外,大语言模型(LLM)在识别模式和趋势方面表现出色,也适用于异常检测任务,能够基于一个或多个列值来识别异常数据点。
2024-08-23
什么工具/模型/API 可以根据宠物照片生成数字宠物 可以有简单的活动。
以下是一个可以根据宠物照片生成数字宠物并具有简单活动的工具/模型/API: 出门问问 Mobvoi 的照片数字人工作流及语音合成(TTS)API。 出门问问是一家以生成式 AI 和语音交互为核心的人工智能公司,为全球多个国家提供面向创作者的 AIGC 工具、AI 政企服务,以及 AI 智能硬件。致力于打造国际领先的通用大模型,通过 AI 技术、产品及商业化三位一体发展,致力成为全球 AI CoPilot 的引领者。 在 ComfyUI 全球领导力峰会上,特意搭建了数字人 workflow(照片数字人驱动),仅需上传一张照片,输入一段文字或者上传一段音频,就可以生成短视频让“照片开口说话”。本次活动特意提供了免费 api 额度及操作指南给大家进行体验。以下是一些不同风格的照片驱动效果展示:
2024-11-16
大模型微调
大模型微调是在较小的、特定领域的数据集上继续大模型的训练过程,具有重要意义和多种方式: 意义: 提高模型在特定任务中的性能:可以输入更多示例,经过微调的模型在特定任务中表现更好,但可能会失去一些通用性。 提高模型效率:实现更低的延迟和成本,可通过专门化模型使用更小的模型,以及舍弃示例或指令来改善。 方式: 从参数规模的角度,分为全量微调 FFT(Full Fine Tuning)和 PEFT(ParameterEfficient Fine Tuning)。全量微调是对全量的模型参数进行全量的训练,而 PEFT 只对部分模型参数进行训练。从成本和效果综合考虑,PEFT 是目前业界较流行的微调方案。 对于 Llama3 的微调,需要下载数据集,如可参考文档: 。有了数据集后,将其上传到服务器,编写并执行微调代码,大概 15 分钟左右可完成微调。 此外,通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。大模型的训练、使用过程可类比上学参加工作:找学校(需要大量 GPU 进行训练)、确定教材(需要大量数据)、找老师(选择合适算法)、就业指导(即微调)、搬砖(推导)。在 LLM 中,Token 被视为模型处理和生成的文本单位,会对输入进行分词并数字化形成词汇表。 OpenAI 官方微调教程:
2024-11-16
什么是大模型
大模型通俗来讲,是输入大量语料,让计算机获得类似人类的“思考”能力,从而能够理解自然语言,并进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程可以用“上学参加工作”来类比: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 在大模型中,Token 被视为模型处理和生成的文本单位,会被数字化形成词汇表,便于计算机处理。为让计算机理解 Token 之间的联系,还需把 Token 表示成稠密矩阵向量,这个过程称为 embedding,常见算法有基于统计的 Word2Vec、GloVe,基于深度网络的 CNN、RNN/LSTM,基于神经网络的 BERT、Doc2Vec 等。以 Transform 为代表的大模型采用自注意力(Selfattention)机制来学习不同 token 之间的依赖关系,生成高质量 embedding。 大模型的“大”指用于表达 token 之间关系的参数多,主要是模型中的权重(weight)与偏置(bias),例如 GPT3 拥有 1750 亿参数。 所谓的大模型,简而言之就是拥有庞大参数数量的模型,通过处理和理解海量数据,能够胜任一系列复杂的任务。大模型强大的原因在于庞大的参数数量和大量的数据,参数帮助模型更深入地理解和生成数据,大量数据是学习的基础,使其能掌握丰富的知识和技能。
2024-11-16
混元大模型
腾讯混元大模型(HunyuanLarge)是全球最大的 MoE 开源模型,具有以下特点: 拥有 3890 亿参数,其中活跃参数为 520 亿。 具备强大的长文本处理和常识推理能力,支持 256K 上下文窗口。 通过数据增强,使用合成数据提升对未见内容的理解。 详细介绍: 模型下载: 技术报告:
2024-11-15
整合多家大预言模型的工具
以下为整合多家大语言模型的工具介绍: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用,有时能够给出超越直接使用 Chat GPT 时的体验,但和 Chat GPT 一样,Claude 也时常会给出一些错误回复,一些问题可在两个模型中都问一遍提升信息准确性。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导能够启发用户,支持 Explore Chatbot,但丰富度不如后续要介绍的 Character,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Ollama: 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同应用场景。 易于使用,适用于 macOS、Windows 和 Linux 系统,同时支持 cpu 和 gpu。 提供模型库,用户可从中下载不同模型,这些模型有不同参数和大小,以满足不同需求和硬件条件。模型库可通过 https://ollama.com/library 查找。 用户可通过简单步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。 提供 REST API,用于运行和管理模型,以及与其他应用程序的集成选项。 社区贡献丰富,包括多种集成插件和界面,如 Web 和桌面应用、Telegram 机器人、Obsidian 插件等。 下载安装地址:https://ollama.com/download/ ,安装完后,在 mac 上启动 ollama 应用程序,在 linux 上通过 ollama serve 启动,可通过 ollama list 确认,未下载模型时正常显示空,可通过 ollama 命令下载模型。 3. 未来还会不断丰富大模型的外延能力,例如知识库检索、计算工具、WolframAlpha、操作软件等。首先集成了 LangChain 框架,可更方便地基于 Llama2 开发文档检索、问答机器人和智能体应用等。针对 LangChain 框架封装的 Llama2 LLM 类见,简单的调用代码示例如下。
2024-11-15
大模型有哪些前沿论文
以下是一些关于大模型的前沿论文: 2017 年发布的《Attention Is All You Need》,开启了大模型发展的序幕。 2018 年 Google 提出的 BERT(Bidirectional Encoder Representations from Transformers),创新性地采用双向预训练并行获取上下文语义信息及掩码语言建模,参数规模在 110M 到 340M 之间。 2018 年 OpenAI 提出的 GPT(Generative Pretrained Transformer),开创了仅使用自回归语言建模作为预训练目标的方式,参数规模达 1750 亿。 2021 年 Meta 提出的 Large LAnguage Model Approach(LLAMA),是首个开源模型,为构建更大规模、更通用的语言模型提供了方法与工具,参数规模在十亿到千亿之间。 2024 年苹果公布的《MM1:Methods,Analysis & Insights from Multimodal LLM Pretraining》,这是一个具有高达 30B 参数的多模态 LLM 系列,探讨了不同架构组件和数据选择的重要性。
2024-11-15