Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

腾讯混元大模型网址

Answer

腾讯混元大模型的开源地址为:https://github.com/Tencent/HunyuanVideo 。普通用户也可以去腾讯元宝 APP,进入 AI 应用查看该模型,可能需要申请资格,但腾讯处理速度较快。此外,模型下载地址为:https://huggingface.co/tencent/Tencent-Hunyuan-Large ,详细介绍可参考:https://xiaohu.ai/p/15254 ,技术报告:https://arxiv.org/pdf/2411.02265 。

Content generated by AI large model, please carefully verify (powered by aily)

References

混元:腾讯视频模型

腾讯悄悄开源混元版「Sora」,这就是开源领域的No.1。今天,人又在腾讯混元发布会的现场。上个月5号,他们宣布开源大语言模型混元Large和3D大模型Hunyuan3D-1.0。仅仅一个月时间,他们又从深圳奔赴北京,邀请了一些老朋友,又开了一次私密的闭门会。而这一次的项目,就是被N多人期待了很久的,腾讯混元视频生成模型。同样,现场宣布,直接,开源。腾讯也活成了,马斯克心中,那个OpenAI的模样。聊聊这个腾讯混元的AI视频模型,我已经先行测试了一周,跑了几百个case。先说结论:偏科战神,强的部分强到没边,弱的地方也急需优化,但是瑕不掩瑜,综合来看,闭源模型中排在T1附近,开源AI视频中,无可争议的T0。开源地址:https://github.com/Tencent/HunyuanVideo普通用户也可以去腾讯元宝APP,进入AI应用,就能看到这个AI视频了。可能普通用户需要资格申请,但是以腾讯的速度,应该非常快,看了群友的反馈,有的申请了不到一会就拿到了体验资格。我先放几个我跑的Case,再来细说。很有意思,很特别的模型。如果让我来总结混元的3个特点,那就是:超强的真实质感,很强的语义理解,可以切换镜头。一个一个来说。

XiaoHu.AI日报

🔔Xiaohu.AI日报「11月6日」✨✨✨✨✨✨✨✨1⃣️ 🎙️Fish Agent V0.1 3B语音处理模型:多语言TTS支持:英语、中文、德语、日语、法语、西班牙语、韩语、阿拉伯语等。端到端架构:支持即时语音克隆与文本到语音转换。超快响应:200毫秒内完成文本到音频转换。🔗详细介绍:[https://xiaohu.ai/p/15247](https://xiaohu.ai/p/15247)🔗演示地址:[http://fish.audio/demo/live](http://fish.audio/demo/live)2⃣️ 🧠腾讯混元大模型(Hunyuan-Large):全球最大MoE开源模型:3890亿参数,活跃参数520亿。强长文本处理和常识推理能力,支持256K上下文窗口。数据增强:使用合成数据提升对未见内容的理解。🔗详细介绍:[https://xiaohu.ai/p/15254](https://xiaohu.ai/p/15254)🔗模型下载:[https://huggingface.co/tencent/Tencent-Hunyuan-Large](https://huggingface.co/tencent/Tencent-Hunyuan-Large)🔗技术报告:[https://arxiv.org/pdf/2411.02265](https://arxiv.org/pdf/2411.02265)3⃣️ 🤔人类为何害怕AI:

XiaoHu.AI日报

🔔Xiaohu.AI日报「11月6日」✨✨✨✨✨✨✨✨1⃣️ 🎙️Fish Agent V0.1 3B语音处理模型:多语言TTS支持:英语、中文、德语、日语、法语、西班牙语、韩语、阿拉伯语等。端到端架构:支持即时语音克隆与文本到语音转换。超快响应:200毫秒内完成文本到音频转换。🔗详细介绍:[https://xiaohu.ai/p/15247](https://xiaohu.ai/p/15247)🔗演示地址:[http://fish.audio/demo/live](http://fish.audio/demo/live)2⃣️ 🧠腾讯混元大模型(Hunyuan-Large):全球最大MoE开源模型:3890亿参数,活跃参数520亿。强长文本处理和常识推理能力,支持256K上下文窗口。数据增强:使用合成数据提升对未见内容的理解。🔗详细介绍:[https://xiaohu.ai/p/15254](https://xiaohu.ai/p/15254)🔗模型下载:[https://huggingface.co/tencent/Tencent-Hunyuan-Large](https://huggingface.co/tencent/Tencent-Hunyuan-Large)🔗技术报告:[https://arxiv.org/pdf/2411.02265](https://arxiv.org/pdf/2411.02265)3⃣️ 🤔人类为何害怕AI:

Others are asking
混元大模型
腾讯混元大模型(HunyuanLarge)是全球最大的 MoE 开源模型,具有以下特点: 拥有 3890 亿参数,其中活跃参数为 520 亿。 具备强大的长文本处理和常识推理能力,支持 256K 上下文窗口。 通过数据增强,使用合成数据提升对未见内容的理解。 详细介绍: 模型下载: 技术报告:
2024-11-15
腾讯智影的功能
腾讯智影具有以下功能: 1. 数字人播报功能:可实现通过文字生成数字人的播报内容。 2. 短视频自动生成:通过 ChatGPT 生成文案,将文案复制到工具内实现短视频自动生成。当系统匹配的素材不符合要求时可手动替换。与专业剪辑软件相比,操作更简便,让大众生产视频更轻松。 此外,在 AI 领域还有其他相关产品和应用,如: 1. 彩云天气 APP:利用 AI 技术提供准确的天气预报预警,保障生命财产安全。 2. 腾讯觅影:对医疗影像进行分析,辅助医生诊断。 3. 钉钉会议管理功能:利用 AI 技术管理会议流程,提高会议效率。 4. 微拍堂书法作品拍卖频道:利用 AI 技术对书法作品进行鉴定和评估,为书法爱好者提供作品销售渠道。 在制作 PPT 方面,好用的 AI 工具包括: 1. Gamma:在线 PPT 制作网站,通过输入文本和想法提示快速生成幻灯片,支持嵌入多媒体格式。 2. 美图 AI PPT:通过输入简单文本描述生成专业 PPT 设计,包含丰富模板库和设计元素。 3. Mindshow:AI 驱动的 PPT 辅助工具,提供智能设计功能,包括自动布局、图像选择和文本优化等。 4. 讯飞智文:由科大讯飞推出的 AI 辅助文档编辑工具,利用语音识别和自然语言处理技术优势,提供智能文本生成、语音输入、文档格式化等功能。
2025-01-10
有没有能分析拆解腾讯视频的AI工具?
目前有使用 Gemini 1.5 Pro 来分析和拆解腾讯视频的工具。以下是一些相关信息: 大家可以放自己的案例,本文档可编辑。 郑跃葵:拿个库布里克的电影来分析,连大师手法都学会了。 大峰 AI 绘画:太酷啦又多了一个 AI 视频创作助手。 Jones:b 站大学复习有救了。 对!:拉片太方便了。 Shock:而且可以干掉人工标注了,安徽那边数据标注众包要失业了。 清慎:1. 影视二创长剪短,一键生成小帅、小美、大壮、丧彪的故事;2. 警察叔叔查监控,一句话找出监控中的可疑现象;3. 替代 Opus 等长剪短工具。 测试者阿强:好用,准确度很高,把前几天用 AI 做的功夫熊猫之离谱村版丢进去分析,效果很好。拆解作品。 测试者张余和 Ling、洋洋也有拆解结果,Gemini 1.5 Pro 给出了全文。 您可以尝试使用 Gemini 1.5 Pro 来满足您对腾讯视频的分析拆解需求。
2024-12-11
腾讯文档的AI,和wps的ai,有什么区别?
很抱歉,知识库中没有关于腾讯文档的 AI 和 WPS 的 AI 直接对比区别的相关内容。但为您提供以下各自的特点供您参考: 腾讯文档的 AI : 拥有自动分类办公文件的功能,利用 AI 对用户上传的文件进行分类,如合同、报告、方案等,提高文件管理效率。 WPS 的 AI : 是办公自动化工具,一些功能如智能排版、语法检查等,利用 AI 技术帮助用户快速完成文档处理工作,提高办公效率。 具有文档翻译功能,可以利用 AI 技术快速翻译办公文档,如 Word、Excel、PPT 等,方便用户进行跨国业务交流。
2024-12-05
还有没有类似语聚ai,扣子,Dify.A,腾讯元器、客悦等智能体创建平台
以下是为您介绍的一些类似语聚 AI、扣子、Dify.AI、腾讯元器、客悦等的智能体创建平台: 智能体是随着 ChatGPT 与 AI 概念爆火而出现的新名词,简单理解就是 AI 机器人小助手,类似移动互联网中的 APP 应用。目前有很多公司关注智能体在 AI 应用层的产品机会,比如在 C 端有社交方向的应用,用户注册后先捏一个自己的智能体,然后让其与他人的智能体聊天,两个智能体聊到一起后再真人介入;在 B 端,有帮助商家搭建智能体的机会。 国内有不少智能体开发平台,如字节的扣子,2 月 1 日字节正式推出其国内版,主要用于开发下一代 AI 聊天机器人。此外,还有 Dify.AI 等平台。像阿里的魔搭社区也属于此类平台。 扣子(Coze)是字节跳动旗下的新一代一站式 AI Bot 开发平台,无论是否具备编程基础,都能在该平台上迅速构建基于 AI 模型的各类问答 Bot,完成后还可发布到各种社交平台和通讯软件上供用户交互聊天。创建智能体通常包括起名称、写介绍、使用 AI 创建头像等简单步骤。
2024-11-08
如在腾讯云上部署ollama
以下是在腾讯云上部署 Ollama 的详细步骤: 一、下载并安装 Ollama 1. 根据您的电脑系统,点击进入 https://ollama.com/download 下载 Ollama。 2. 下载完成后,双击打开,点击“Install”。 3. 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 二、下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型) 1. 如果您是 Windows 电脑,点击 win+R,输入 cmd,点击回车。如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 2. 复制以下命令行,粘贴进入,点击回车。 3. 回车后,会开始自动下载,等待完成。(这里下载久了,可能会发现卡着不动,不知道下载了多少了。鼠标点击一下窗口,键盘点空格,就会刷新了) 4. 下载完成后您会发现,大模型已经在本地运行了。输入文本即可进行对话。 三、下载 Open WebUI 1. 回到桌面,再打开一个新的终端窗口(可以放心多个窗口,不会互相影响)。如果您是 Windows 电脑,点击 win+R,输入 cmd,点击回车。如果您是 Mac 电脑,按下 Command(⌘)+ Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 2. 将以下命令输入,等待下载。 3. 出现相关图示,即是下载完成。 4. 点击或复制下方地址进入浏览器:http://localhost:3000/auth/ 5. 点击进行注册即可,注册输入昵称、邮箱、密码。注册完即可登录进入。 6. 登入后,看到如下页面,点击顶部的 Model,选择“llama3:8b”。 7. 完成。您已经拥有了一个属于自己的本地大语言模型。可以开始与他对话啦! 四、部署 Google Gemma 1. 首先进入 ollama.com,下载程序并安装(支持 windows,linux 和 macos)。 2. 查找 cmd 进入命令提示符,输入 ollama v 检查版本,安装完成后版本应该显示 0.1.26。 3. 输入 cls 清空屏幕,接下来直接输入 ollama run gemma 运行模型(默认是 2b),首次需要下载,需要等待一段时间,如果想用 7b,运行 ollama run gemma:7b 。 4. 完成以后就可以直接对话了,2 个模型都安装以后,可以重复上面的指令切换。
2024-09-27
文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些AI工具之间有什么不同,各自擅长哪些领域
以下是文心一言、通义千问、Kimi、腾讯混元、讯飞星火、抖音豆包、智普清言这些 AI 工具的不同之处及各自擅长的领域: Kimi 智能助手:由 Moonshot AI 出品,有着超大“内存”,可以一口气读完二十万字的小说,还会上网冲浪。 文心一言:百度出品的 AI 对话产品,定位为智能伙伴,能写文案、想点子,陪聊天、答疑解惑,与搜索有较好的结合。 通义千问:由阿里云开发的聊天机器人,能够与人交互、回答问题及协作创作,与钉钉有结合应用。 腾讯混元:相对较为低调,公司文化特点及目前尚未有明确亮点可能是其受到关注较少的原因。 讯飞星火:暂未提及具体特点和擅长领域。 抖音豆包:字节旗下产品,字节在 AI 领域有较大投入和决心,如推出多种相关产品和应用。 智普清言:暂未提及具体特点和擅长领域。 需要注意的是,这些 AI 工具的性能和擅长领域可能会随着不断的更新和优化而发生变化。
2024-08-18
Gemini网址
Google 的多模态大模型叫 Gemini。Gemini 是由 Google DeepMind 团队开发的,具有以下特点: 不仅支持文本、图片等提示,还支持视频、音频和代码提示。 能够理解和处理几乎任何输入,结合不同类型的信息,并生成几乎任何输出。 被称为 Google 迄今为止最强大、最全面的模型。 被描述为一种“原生多模态大模型”,从设计之初就支持多模态,能够处理语言、视觉、听觉等不同形式的数据。 谷歌还开源了基于创建 Gemini 模型的相同研究和技术构建的 LLM 大模型 Gemma,重点如下: 共两个尺寸的模型权重:Gemma 2B 和 Gemma 7B。每种尺寸都提供了预训练和指令调优的版本。 模型地址: 关于 Gemini 的相关内容: 官方介绍:https://blog.google/technology/ai/googlegeminiai/sundarnote 林夕同学的翻译: 自媒体翻译: 歸藏的 AI 工具箱 20231206 23:48:https://mp.weixin.qq.com/s/J4n4gEEc2Q3jNzah12lWQ 多模态视频展示:https://x.com/xiaohuggg/status/1732438592096727043?s=20 Google Gemini 分 Ultra,pro,nano 三个版本: Ultra 是最强版本,所有的演示和跑分的都是这个版本!目前没有体验的地方! Pro 版本已经部署到了 Bard 上了,可以使用了,能力和 GPT3.5 差不多,不支持中文,体验需要切换到美国地区! Nano 是能够在手机等移动设备上运行的版本,目前已经在 Google Pixel 8 Pro 上推出!
2025-01-19
可以免费生成图片的AI 网址
以下是一些可以免费生成图片的 AI 网址: 1. Grok 客户端:支持免费生成图像和聊天功能,图像生成效果优秀。下载链接: 2. 无界 AI:是一款可以在线 AI 生成图片的网站。网址: (新用户扫码注册可领取积分)
2025-01-17
现在给我外网,免费的ai视频生成网址的url具体到我该如何使用,别和一个人工智障一样
很抱歉,目前没有免费的外网 AI 视频生成网址可供提供。通常这类工具可能存在版权、使用限制以及安全性等问题。建议您关注一些国内正规且合法的相关平台和工具。
2025-01-16
不是,我说的是免费的好用的ai视频生成网址,不是不是对免费有什么误解?
以下为一些免费且好用的 AI 视频生成网址: 1. Pika:这是一款出色的文本生成视频 AI 工具,擅长动画制作,并支持视频编辑。网址:https://pika.art/ 可控性强,可以对嘴型,可配音。 2. SVD:如果您熟悉 Stable Diffusion,可以直接安装这款最新的插件,在图片基础上直接生成视频。这是由 Stability AI 开源的 video model。网址:https://stablevideo.com/ 对于景观生成效果更好。 3. 即梦:剪映旗下的产品。网址:https://dreamina.jianying.com/ 生成 3 秒,动作幅度有很大升级,最新 S 模型,P 模型。 4. Minimax 海螺 AI:非常听话,语义理解能力非常强。网址:https://hailuoai.video/ 5. 智谱清影:开源了,可以自己部署 cogvideo。网址:https://chatglm.cn/video 6. PixVerse:人少不怎么排队,还有换脸功能。网址:https://pixverse.ai/ 更多的文生视频的网站可以查看这里: 内容由 AI 大模型生成,请仔细甄别。
2025-01-16
notion AI的网址是什么
Notion AI 的网址是:https://www.notion.so/product/ai?gspk=c3RldmVuZmVybmFuZGV6NTEyNg&gsxid=9ADORr9KVJgy&pscd=affiliate.notion.so
2025-01-10
小学生科创AI自学路线及网址、详细教程
以下是为小学生提供的科创 AI 自学路线及相关资源: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,如图像、音乐、视频等,可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,通过实践巩固知识,尝试使用各种产品做出作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式,获得对 AI 在实际应用中表现的第一手体验,并激发对 AI 潜力的认识。 目前暂时没有专门针对小学生科创 AI 自学的网址和详细教程,但您可以在 B 站找丰富的 AI 软件入门课程自学,也可从包图网下载工程文件学习。
2025-01-06
3d模型自动生成的ai 啊
在 3D 模型生成方面,AI 主要完成了对 3D 模型生成流程的“一步到位”。工作流中的每一个环节几乎都需要一位或一组 3D 美术工程师来完成,而使用 3D 生成模型可以直接完成一个可调整的 3D 粗模,大大提升效率。 以下为一些 AI 生成 3D 模型的工具介绍: 1. 3dfy.ai: 概览:是一家专注于开发先进技术的公司,能将稀疏数据转化为逼真的三维世界,领导团队由计算成像领域资深专家组成。 使用场景:数字 3D 互动体验流行度提升,但受 3D 内容可用性限制,其技术能利用稀疏数据自动创建高质量 3D 模型。 目标用户:数字内容创作者和艺术家、游戏开发者和动画制作人、教育和培训行业专业人士、医疗行业、建筑和工程领域。 应用案例:暂未提及。 2. xiaohu.ai 相关 3D 信息: MakeACharacter:一键生成 3D 数字人,可自定义面部特征,基于真实人类扫描数据,使用 Unreal Engine 渲染,支持中英文提示,兼容多个行业应用。 Rodin Gen1:3D 原生生成模型,拥有 1.5B 参数,可实现 3Dto3D 生成,生成 3D 模型及物理基础渲染材质,支持 3D LoRA 技术。 Skybox AI 0.9 版本更新:可以从文本提示或草图生成 360 度 3D 世界,使用 NeRF 技术,增强图像的空间深度和真实感,提供不同分辨率的 3D 网格下载。 扫描物体生成 3D 模型:使用 APP 扫描物体,完成 3D 全貌捕获,创建 AR QR 码,展示物体于任何地点,在苹果新品官网展示中有应用。
2025-01-23
大模型学习之路
大模型的学习之路包括以下几个重要方面: 什么是大模型: 通俗来讲,大模型是通过输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。 大模型的训练和使用过程: 1. 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型能够更好理解Token之间的关系。 4. 就业指导:为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,正式干活,比如进行翻译、问答等,在大模型里称之为推导(infer)。 Token: Token被视为模型处理和生成的文本单位,可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法。在将输入进行分词时,会对其进行数字化,形成一个词汇表。 大模型的运作原理: 以“我今天吃了狮子头和蔬菜”这句话为例,在transformer中,会由attention层对这句话加入更多信息来补充,最终层与层之间,哪些信息需要补充、保留、传递,均由模型自主学习完成。这些层就好像人在阅读文章时的连贯性注意力的过程,大模型以词向量和transformer的模型学习海量知识,把知识作为向量空间中的一种关系网进行存储,并在接受输入时,通过向量空间中的一系列匹配进行输出。 大模型的构建过程: 1. 收集海量数据:如同教孩子成为博学多才的人,让其阅读大量书籍、观看纪录片、与人交谈,对于AI模型就是收集互联网上的文章、书籍、维基百科条目、社交媒体帖子等各种文本数据。 2. 预处理数据:像为孩子整理资料,AI研究人员也需要清理和组织收集到的数据,如删除垃圾信息、纠正拼写错误、将文本分割成易于处理的片段。 3. 设计模型架构:为孩子设计学习计划,研究人员需要设计AI模型的“大脑”结构,通常是一个复杂的神经网络,如使用Transformer架构。 4. 训练模型:如同孩子开始阅读和学习,AI模型开始“阅读”提供的数据,通过反复尝试预测句子中的下一个词,逐渐学会理解和生成人类语言。
2025-01-23
帮我用最简单的方法解释一下时间序列模型
时间序列模型是用于分析和处理随时间变化的数据的一类模型。 例如,在评估 GPT4V 对时间序列和视频内容的理解时,会考虑其对现实世界中随时间展开的事件的理解能力,像时间预测、排序、定位、推理和基于时间的理解等。 在视频生成方面,如 Video LDM 模型,先训练图像生成器,再微调添加时间维度以生成视频。 总的来说,时间序列模型旨在理解和预测数据在时间上的变化规律和趋势。
2025-01-23
以豆包为例,如何通过API调用豆包大模型?
要通过 API 调用豆包大模型,以下是一些相关步骤和信息: 1. 直接调用大模型(之前完成过 coze 对接的同学,直接去二、百炼应用的调用): 百炼首页:https://bailian.console.aliyun.com/ 以调用“qwenmax”模型为例,在/root/chatgptonwechat/文件夹下,打开 config.json 文件,需要更改"model",和添加"dashscope_api_key"。 获取 key 的视频教程: 获取 key 的图文教程:以下是参考配置。 注意:需要“实名认证”后,这些 key 才可以正常使用,如果对话出现“Access to mode denied.Please make sure you are eligible for using the model.”的报错,那说明您没有实名认证,点击去,或查看自己是否已认证。 2. 创建大模型问答应用: 首先可以通过创建一个百炼应用,来获取大模型的推理 API 服务,用于实现 AI 助手。 创建应用: 进入百炼控制台的,在页面右侧点击新增应用。在对话框,选择智能体应用并创建。 在应用设置页面,模型选择通义千问Plus,其他参数保持默认。您也可以选择输入一些 Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。 在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布,我们将在后面的步骤中去解决这一问题。 获取调用 API 所需的凭证: 在我的应用>应用列表中可以查看所有百炼应用 ID。保存应用 ID 到本地用于后续配置。 在顶部导航栏右侧,点击人型图标,点击 APIKEY 进入我的 APIKEY 页面。在页面右侧,点击创建我的 APIKEY,在弹出窗口中创建一个新 APIKEY。保存 APIKEY 到本地用于后续配置。 3. 配置 FastGpt、OneAPI: 首先配置 OneAPI,还记得刚刚让您白嫖的大模型 API 吗?阿里的接口,这时要派上用场了,去阿里模型的链接里创建 ApiKey,并复制下来。然后在 OneAPI 的页面,点击【渠道】添加新渠道。添加时,类型选择阿里通义千问,名称自己取个,类型选择好后模型是会默认加进去,您不用删减,还有就把刚刚阿里那复制的 ApiKey 粘贴到秘钥里去。这样就 OK 了。后续有其他的大模型也是一样的添加方式。
2025-01-23
大模型训练方式
大模型的训练方式如下: 1. 通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能进行文本生成、推理问答、对话、文档摘要等工作。可以用“上学参加工作”来类比其训练和使用过程: 找学校:训练大模型需要大量计算,GPU更合适,只有购买得起大量GPU的才有资本训练。 确定教材:大模型需要大量数据,几千亿序列(Token)的输入基本是标配。 找老师:即选择合适算法讲述“书本”内容,让大模型更好理解Token之间的关系。 就业指导:为让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。Token被视为模型处理和生成的文本单位,能代表单个字符、单词等,在将输入进行分词时,会形成词汇表。 2. 100基础训练大模型的步骤: 步骤一·创建数据集:进入厚德云模型训练数据集(https://portal.houdeyun.cn/sd/dataset),在数据集一栏中点击右上角创建数据集,输入数据集名称。zip文件可以是包含图片+标签txt,也可以只有图片没有打标文件,也可以一张一张单独上传照片,但建议提前把图片和标签打包成zip上传。Zip文件里图片名称与标签文件应当匹配,例如:图片名"1.png",对应的达标文件就叫"1.txt"。上传zip以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可以点击详情检查,可预览到数据集的图片以及对应的标签。 步骤二·Lora训练:点击Flux,基础模型会默认是FLUX 1.0D版本,选择数据集,点击右侧箭头,会跳出所有上传过的数据集。触发词可有可无,取决于数据集是否有触发词。模型效果预览提示词则随机抽取一个数据集中的标签填入即可。训练参数这里可以调节重复次数与训练轮数,厚德云会自动计算训练步数,如果不知道如何设置,可以默认20重复次数和10轮训练轮数,可以按需求选择是否加速,点击开始训练,会显示所需要消耗的算力,然后等待训练,会显示预览时间和进度条,训练完成的会显示出每一轮的预览图,鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此lora生图的界面。点击下方的下载按钮则会自动下载到本地。 步骤三·Lora生图:点击预览模型中间的生图会自动跳转到相应页面。模型上的数字代表模型强度,可在0.61.0之间调节,也可以自己添加lora文件,点击后会显示训练过的所有lora的所有轮次。VAE不需要替换,正向提示词输入写的提示词,可以选择基于这个提示词一次性生成几张图,选择生成图片的尺寸,横板、竖版、正方形。采样器和调度器新手小白可以默认,迭代步数可以在2030之间调整,CFG可以在3.57.5之间调整,随机种子1代表随机生成图。所有设置都好了以后,点击开始生态,生成的图会显示在右侧。如果有哪次生成结果觉得很不错,想要微调或者高分辨率修复,可以点开那张图,往下滑,划到随机种子,复制下来,粘贴到随机种子这里,这样下次生成的图就会和这次的结果近似。如果确认了一张很合适的种子和参数,想要搞清放大,则点开高清修复,可以选择想放大的倍数,新手小白可以就默认这个算法,迭代步数建议在2030之间,重回幅度根据需求调整,正常在0.30.7之间调整。 3. 今日作业:按照比赛要求,收集六个主题中一个主题的素材并且训练出lora模型后提交lora模型与案例图像。提交链接:https://waytoagi.feishu.cn/share/base/form/shrcnpJAtTjID7cIcNsWB79XMEd
2025-01-23
大模型下文档投喂后,大模型是如何解读文档提取出答案?
大模型在文档投喂后解读文档并提取答案的过程通常包括以下步骤: 1. 问题解析阶段:接收并预处理问题,通过嵌入模型(如 Word2Vec、GloVe、BERT)将问题文本转化为向量,以确保问题向量能有效用于后续检索。 2. 知识库检索阶段:知识库中的文档同样向量化后,比较问题向量与文档向量,选择最相关的信息片段,并抽取相关信息传递给下一步骤。 3. 信息整合阶段:接收检索到的信息,与上下文构建形成融合、全面的信息文本。整合信息准备进入生成阶段。 4. 大模型生成回答:整合后的信息被转化为向量并输入到 LLM(大语言模型),模型逐词构建回答,最终输出给用户。 在这个过程中还包括以下信息处理步骤: 1. 信息筛选与确认:系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时对信息的来源、时效性和相关性进行验证。 2. 消除冗余:识别和去除多个文档或数据源中可能存在的重复信息,以防在生成回答时出现重复或相互矛盾的信息。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建一个结构化的知识框架,使信息在语义上更加连贯。 4. 上下文构建:将筛选和结构化的信息组织成一个连贯的上下文环境,包括对信息进行排序、归类和整合,形成一个统一的叙述或解答框架。 5. 语义融合:在必要时,合并意义相近但表达不同的信息片段,以减少语义上的重复并增强信息的表达力。 6. 预备生成阶段:整合好的上下文信息被编码成适合生成器处理的格式,如将文本转化为适合输入到生成模型的向量形式。 最终,全新的上下文被一起传递给大语言模型。由于这个上下文包括了检索到的信息,大语言模型相当于同时拿到了问题和参考答案,通过 LLM 的全文理解,最后生成一个准确和连贯的答案。 相关概念: LLM:Large language model 的缩写,即大语言模型。 Prompt:中文译作提示词,是输入给大模型的文本内容,可以理解为和大模型说的话、下达的指令。 Token:大模型语言体系中的最小单元,不同厂商的大模型对中文文本的切分方法不同,通常 1Token≈12 个汉字,大模型的收费计算方法及对输入输出长度的限制通常以 token 为单位计量。 上下文:英文通常翻译为 context,指对话聊天内容前、后的内容信息,上下文长度和上下文窗口都会影响大模型回答的质量。
2025-01-23