腾讯混元大模型的开源地址为:https://github.com/Tencent/HunyuanVideo 。普通用户也可以去腾讯元宝 APP,进入 AI 应用查看该模型,可能需要申请资格,但腾讯处理速度较快。此外,模型下载地址为:https://huggingface.co/tencent/Tencent-Hunyuan-Large ,详细介绍可参考:https://xiaohu.ai/p/15254 ,技术报告:https://arxiv.org/pdf/2411.02265 。
腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。今天,人又在腾讯混元发布会的现场。上个月5号,他们宣布开源大语言模型混元Large和3D大模型Hunyuan3D-1.0。仅仅一个月时间,他们又从深圳奔赴北京,邀请了一些老朋友,又开了一次私密的闭门会。而这一次的项目,就是被N多人期待了很久的,腾讯混元视频生成模型。同样,现场宣布,直接,开源。腾讯也活成了,马斯克心中,那个OpenAI的模样。聊聊这个腾讯混元的AI视频模型,我已经先行测试了一周,跑了几百个case。先说结论:偏科战神,强的部分强到没边,弱的地方也急需优化,但是瑕不掩瑜,综合来看,闭源模型中排在T1附近,开源AI视频中,无可争议的T0。开源地址:https://github.com/Tencent/HunyuanVideo普通用户也可以去腾讯元宝APP,进入AI应用,就能看到这个AI视频了。可能普通用户需要资格申请,但是以腾讯的速度,应该非常快,看了群友的反馈,有的申请了不到一会就拿到了体验资格。我先放几个我跑的Case,再来细说。很有意思,很特别的模型。如果让我来总结混元的3个特点,那就是:超强的真实质感,很强的语义理解,可以切换镜头。一个一个来说。
🔔Xiaohu.AI日报「11月6日」✨✨✨✨✨✨✨✨1⃣️ 🎙️Fish Agent V0.1 3B语音处理模型:多语言TTS支持:英语、中文、德语、日语、法语、西班牙语、韩语、阿拉伯语等。端到端架构:支持即时语音克隆与文本到语音转换。超快响应:200毫秒内完成文本到音频转换。🔗详细介绍:[https://xiaohu.ai/p/15247](https://xiaohu.ai/p/15247)🔗演示地址:[http://fish.audio/demo/live](http://fish.audio/demo/live)2⃣️ 🧠腾讯混元大模型(Hunyuan-Large):全球最大MoE开源模型:3890亿参数,活跃参数520亿。强长文本处理和常识推理能力,支持256K上下文窗口。数据增强:使用合成数据提升对未见内容的理解。🔗详细介绍:[https://xiaohu.ai/p/15254](https://xiaohu.ai/p/15254)🔗模型下载:[https://huggingface.co/tencent/Tencent-Hunyuan-Large](https://huggingface.co/tencent/Tencent-Hunyuan-Large)🔗技术报告:[https://arxiv.org/pdf/2411.02265](https://arxiv.org/pdf/2411.02265)3⃣️ 🤔人类为何害怕AI:
🔔Xiaohu.AI日报「11月6日」✨✨✨✨✨✨✨✨1⃣️ 🎙️Fish Agent V0.1 3B语音处理模型:多语言TTS支持:英语、中文、德语、日语、法语、西班牙语、韩语、阿拉伯语等。端到端架构:支持即时语音克隆与文本到语音转换。超快响应:200毫秒内完成文本到音频转换。🔗详细介绍:[https://xiaohu.ai/p/15247](https://xiaohu.ai/p/15247)🔗演示地址:[http://fish.audio/demo/live](http://fish.audio/demo/live)2⃣️ 🧠腾讯混元大模型(Hunyuan-Large):全球最大MoE开源模型:3890亿参数,活跃参数520亿。强长文本处理和常识推理能力,支持256K上下文窗口。数据增强:使用合成数据提升对未见内容的理解。🔗详细介绍:[https://xiaohu.ai/p/15254](https://xiaohu.ai/p/15254)🔗模型下载:[https://huggingface.co/tencent/Tencent-Hunyuan-Large](https://huggingface.co/tencent/Tencent-Hunyuan-Large)🔗技术报告:[https://arxiv.org/pdf/2411.02265](https://arxiv.org/pdf/2411.02265)3⃣️ 🤔人类为何害怕AI: