Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型赛道盘点

Answer

以下是对大模型赛道的盘点:

  1. Compass Arena 是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的 20 多款大模型,包括阿里通义千问、百度文心一言、腾讯混元、讯飞星火、字节跳动豆包、智谱 AI、百川智能、零一万物、月之暗面等,用户可在平台选择大模型两两“对战”,实名或匿名对战皆可。在 Qwen 系列中,Qwen2 性能优越,所有尺寸的模型都使用了 GQA 以带来推理加速和显存占用降低的优势,针对小模型使用了 tie embedding 的方法让输入和输出层共享参数。所有预训练模型在 32K tokens 数据上训练,在 128K tokens 时仍有不错表现,指令微调模型还需进行长序列理解实验。
  2. 伯克利的团队管理着聊天机器人竞技场,根据 ELO 评级对不同语言模型进行排名,计算方式与国际象棋相似。顶部是专有封闭模型,如 OpenAI 的 GPT 系列和 Anthropic 的 Claude 系列,下方是开放权重的模型,如 Meta 的 Llama2 系列,底部有 Zephyr 7b Beta 等。
  3. 有观点认为大模型应用是除内容、电商、o2o、工具之外的第五条赛道,但当前其是否够资格有待商榷。许多产品同学未真正意识到大模型带来的变革,思路和视角仍停留在传统互联网商业模式上。
Content generated by AI large model, please carefully verify (powered by aily)

References

Qwen 2开源了 模型性能超越目前所有开源模型和国内闭源模型

Compass Arena是由上海人工智能实验室和魔搭社区联合推出的大模型测评平台,集齐了国内主流的20多款大模型,包括阿里通义千问、百度文心一言、腾讯混元、讯飞星火、字节跳动豆包、智谱AI、百川智能、零一万物、月之暗面等等,用户可在平台选择大模型的两两“对战”,实名或匿名对战皆可。三、Qwen2为什么能有如此优越的性能?通义千问技术博客披露,在Qwen1.5系列中,只有32B和110B的模型使用了GQA。这一次,所有尺寸的模型都使用了GQA,以便让用户体验到GQA带来的推理加速和显存占用降低的优势。针对小模型,由于embedding参数量较大,研发团队使用了tie embedding的方法让输入和输出层共享参数,增加非embedding参数的占比。上下文长度方面,所有的预训练模型均在32K tokens的数据上进行训练,研发团队发现其在128K tokens时依然能在PPL评测中取得不错的表现。然而,对指令微调模型而言,除PPL评测之外还需要进行[大海捞针](https://github.com/gkamradt/LLMTest_NeedleInAHaystack)等长序列理解实验。在使用YARN这类方法时,Qwen2-7B-Instruct和Qwen2-72B-Instruct均实现了长达128K tokens上下文长度的支持。

文章:Andrej Karpathy 亲授:大语言模型入门

好的,最后,我想向你展示当前领先的大型语言模型的排行榜。例如,这就是聊天机器人竞技场。它由伯克利的一个团队管理。他们在这里所做的是根据ELO评级对不同的语言模型进行排名。计算ELO的方式与国际象棋中的计算方式非常相似。所以不同的棋手互相对弈。根据彼此的胜率,你可以计算他们的ELO分数。你可以使用语言模型做完全相同的事情。所以你可以访问这个网站,输入一些问题,你会得到两个模型的响应,你不知道它们是由什么模型生成的,然后你选择获胜者。然后根据谁赢谁输,你就可以计算出ELO分数。所以越高越好。所以你在这里看到的是,拥挤在顶部的是专有模型。这些是封闭模型,你无法访问权重,它们通常位于网络界面后面。这是OpenAI的GPT系列,以及Anthropic的Claude系列。还有其他公司的一些其他系列。所以这些是目前表现最好的模型。然后就在其下方,你将开始看到一些开放权重的模型。因此,这些权重是可用的,人们对它们有更多了解,通常有相关论文可用。例如,Meta的Llama2系列就是这种情况。或者在底部,你可以看到Zephyr 7b Beta,它基于法国另一家初创公司的Mistral系列。

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

变革归变革,那么作为产品人,我们该怎么去把ai这个能力用起来呢?我认为转变自己的“传统”产品设计思路和视角,是最关键的一步。其实我前段时间我在一个仅面向产品经理的公众号中,读到一篇对大模型发展未来表达看法的文章。文章的开篇,就表达了认为大模型应用是在内容、电商、o2o、工具之外的第五条赛道,且当前是否够资格成为“第五条赛道”都有待商榷。在该文章的评论区下,我建议作者先去了解下大模型的基础原理以及当前的技术发展状况。当时之所以这样说,只是因为我觉得许多产品同学实际上并未真正意识到这次大模型所带来的变革,所以他们的思路和视角,依然停留在传统互联网商业模式上,仍然认为此次的变革只是在传统的基础之上做更新。但上面我们也说了,这次的ai变革是从互联网最底层的if-else逻辑开始的,而那些传统互联网的商业模式,只是基于传统的互联网技术架构和用户需求综合出来的产物。

Others are asking
AI办公赛道有什么agent
以下是关于 AI 办公赛道中一些 agent 的相关信息: 陈财猫在 AI 写作方面开发了小财鼠程序版 agent,认为 AI+内容创作是现阶段较好的赛道。 一些常见的 Agent 构建平台包括: Coze:新一代一站式 AI Bot 开发平台,集成丰富插件工具。 Microsoft 的 Copilot Studio:具备外挂数据、定义流程等功能。 文心智能体:百度推出的基于文心大模型的智能体平台。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机等。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台。 钉钉 AI 超级助理:依托钉钉优势,在高频工作场景表现出色。 此外,还有关于生成式 AI 季度数据报告 2024 年 1 3 月中 Agents 的相关图谱和数据,如 a16z 图谱、E2B Agent 系列图谱等,其中提到该赛道天花板潜力达几百亿美金,总体趋势高速增长,竞争方面存在一定特点,Top1 公司如 GitLab 等相关情况。
2025-01-14
ai宠物赛道
以下是关于 AI 宠物赛道的相关信息: AI 与宠物的结合方式有多种: 1. AI 宠物助手:基于自然语言处理和计算机视觉,能帮助主人更好照顾宠物,如自动识别宠物情绪、提供饮食建议、监测健康状况等。 2. AI 宠物互动玩具:利用 AI 技术开发的智能互动玩具,可增强宠物娱乐体验,例如会自主移动并引起宠物注意、会发声和互动的智能玩具等。 3. AI 宠物图像生成:使用生成式 AI 模型,能根据文字描述生成各种宠物形象图像,帮助宠物主人定制个性化形象。 4. AI 宠物医疗诊断:利用计算机视觉和机器学习技术,开发 AI 辅助的宠物医疗诊断系统,通过分析症状图像和病历数据提供初步诊断建议。 5. AI 宠物行为分析:基于传感器数据和计算机视觉,利用 AI 技术分析宠物行为模式,帮助主人了解宠物需求和习性。 学习路径建议: 1. 掌握基础的机器学习、计算机视觉、自然语言处理等 AI 技术。 2. 了解宠物行为学、宠物医疗等相关领域知识。 3. 关注业内先进的 AI+宠物应用案例,学习其技术实现。 4. 尝试开发简单的 AI 宠物应用原型,并不断迭代优化。 此外,还有一个摊位信息,其活动主题为“AI 宠物写真、AI 宠物旅拍”,slogan 是“不花钱让毛孩子走遍时间”,优势是本人为全网 13w 粉宠物博主@三小只它爹妈,账号有 ai 系列内容,有 ai 实践经验且自带流量,去年自驾带猫环游中国,找到了很多猫生照片的机位。摊位区域为 D,摊位类型为写真+宠物,需找主办方。 另外,火山引擎 AI 创造者大赛官方手册中提到了优秀奖的相关信息,包括 AI 座舱赛道、AI 营销赛道、AI 售后赛道的小组名称和 Bot 名称等。如有任何疑问,请随时与大赛组委会联系。
2025-01-10
runway具体属于哪种赛道,怎么描述它
Runway 属于 AI 视频领域。它是一款最先推出模型的 AI 视频产品,目前仍维持着领先地位,并在不断快速迭代。 其产品定位更偏向影视、艺术表达,具有以下特点和优势: 1. 擅长真实系、风景、空间视频生成,对二次元场景支持不佳。 2. 支持绿幕场景生成、视频绿幕抠像等,方便影视制作和后期处理。 3. 7 月更新的 Gen3 支持 Alpha Turbo(更快速)和 Alpha(更强表现力)两种模式,增强了对复杂提示词描述的理解和对图像运动元素的识别,能够实现富有想象力的过渡和场景中元素的精确关键帧。还支持设置图片作为动画首帧/尾帧,但目前不支持笔刷等高级调节能力。单次生成视频时长最长可达 10 秒,可延长到 40 秒。 4. Gen3 Alpha Turbo 支持竖屏尺寸视频生成、加大力度发力视频到视频(风格转绘)能力,并表示即将推出更多控制能力。 Runway 由一家总部位于旧金山的 AI 创业公司制作,年初在互联网爆火。2023 年初推出的 Gen2 代表了当前 AI 视频领域最前沿的模型,能够通过文字、图片等方式生成 4 秒左右的视频。致力于专业视频剪辑领域的 AI 体验,同时也在扩展图片 AI 领域的能力。目前支持在网页、iOS 访问,网页端有 125 积分的免费试用额度(可生成约 105 秒视频),iOS 有 200 多,两端额度不同步。 相关链接: 1. 查看 Runway 目前支持的场景和视频案例:https://runwayml.com/product/usecases 2. Gen1 能力介绍:https://research.runwayml.com/gen1 3. Gen1 参数设置:https://help.runwayml.com/hc/enus/articles/15161225169171 4. 学习 Gen1 详细设置方式的视频:https://youtu.be/I4OeYcYf0Sc 5. 官方网站:https://runwayml.com/
2024-10-12
ai+赛道盘点
以下是一些 AI 相关的赛道盘点: AI 与宠物结合:这是一个充满想象空间的新兴赛道,可基于 AI 技术和宠物行业需求开发各种有趣有用的应用。 Agent 相关比赛赛道: 图文创作赛道:包括 AI 自动编写文章并选择或生成相应图片、图像标注、图文匹配等。 实用工具赛道:涵盖数据可视化、设计辅助(如生成 LOGO、海报设计)、自动化排版、图文识别等。 互动创意赛道:例如新闻和社交媒体方面,AI 对大量信息进行自动编辑和汇总生成有趣的图文摘要;艺术创作领域,辅助绘画、音乐创作、文学创作等,鼓励探索 AI 与艺术结合的新模式。
2024-08-26
AI+宠物赛道的一些例子和学习map
根据提供的搜索结果,我总结了以下关于 AI+宠物赛道的一些例子和学习路径: 1. AI 宠物助手 基于自然语言处理和计算机视觉的 AI 宠物助手,可以帮助主人更好地照顾宠物 例如自动识别宠物情绪、提供饮食建议、监测宠物健康状况等 2. AI 宠物互动玩具 利用 AI 技术开发的智能互动玩具,可以增强宠物的娱乐体验 例如会自主移动并引起宠物注意的智能玩具、会发出声音和互动的智能宠物玩具等 3. AI 宠物图像生成 使用生成式 AI 模型,可以根据文字描述生成各种宠物形象的图像 这可以帮助宠物主人定制个性化的宠物形象 4. AI 宠物医疗诊断 利用计算机视觉和机器学习技术,可以开发 AI 辅助的宠物医疗诊断系统 通过分析宠物的症状图像和病历数据,提供初步诊断建议 5. AI 宠物行为分析 基于传感器数据和计算机视觉,可以利用 AI 技术分析宠物的行为模式 帮助主人更好地了解宠物的需求和习性 学习路径建议: 1. 掌握基础的机器学习、计算机视觉、自然语言处理等 AI 技术 2. 了解宠物行为学、宠物医疗等相关领域知识 3. 关注业内先进的 AI+宠物应用案例,学习其技术实现 4. 尝试开发简单的 AI 宠物应用原型,并不断迭代优化 总的来说,AI+宠物是一个充满想象空间的新兴赛道,结合 AI 技术和宠物行业需求,可以开发出各种有趣有用的应用。
2024-04-23
Ai+宗教佛学自媒体,用mj生成图片加runway动起来在配合剪映制作成视频,最后配上符合佛学的宁静音乐。用它制作视频,上传到各大平台,分析此赛道并复现
这个赛道结合了多种技术和内容,需要进行以下步骤来实现: 1. 准备素材: 收集宗教佛学相关的图片、视频素材,以及符合佛学理念的宁静音乐。这些素材可以来自于网络上的免费资源或者自己制作,确保版权合法。 2. 使用 MJ 生成图片: 利用 Midjourney(MJ)生成符合宗教佛学主题的图片。可以在 MJ 平台上选择合适的模板和风格,生成高质量的图片素材。 3. 使用 Runway 生成动画: 使用 Runway 将生成的图片转换为动态效果。Runway 是一个 AI 动画生成工具,可以为静态图片添加生动的动画效果,增强视觉效果。 4. 使用剪映制作视频: 将生成的动态图片和视频素材导入到剪映等视频编辑软件中,进行剪辑和编辑。根据需要调整剪辑顺序、添加过渡效果、字幕等,制作成符合宗教佛学主题的视频内容。 5. 配音乐: 在视频编辑过程中,将符合佛学理念的宁静音乐添加到视频中。选择合适的音乐可以增强视频的氛围和情感,让观众更好地沉浸其中。 6. 导出和上传: 完成视频编辑后,将视频导出为常见的视频格式,如MP4等。然后上传到各大视频平台,如YouTube、抖音、Bilibili等,分享给目标受众。 7. 分析和优化: 视频上传后,关注观看量、点赞数、评论等指标,分析观众反馈和视频效果。根据分析结果,优化视频内容和推广策略,提升视频的影响力和曝光度。 以上就是实现该赛道的步骤,需要整合利用 MJ、Runway、剪映等工具和平台,以及宗教佛学素材和宁静音乐,制作出符合佛学理念的高质量视频内容,并通过上传到各大平台进行推广和分享。
2024-04-20
24年AI大事件盘点
以下是 2024 年 AI 大事件的盘点: 10 月: 9 月 27 日:Reecho 睿声●三只羊录音事件涉及 AI 公司出面回应。 9 月 28 日:TeleAI●正式开源 TeleChat2115B。 10 月 1 日:快手●可灵 AI 全面开放 API,OpenAI DevDay。 10 月 2 日:Black Forest Labs●发布 FLUX1.1,苹果●推出多模态大模型 MM1.5。 10 月 3 日:OpenAI●发布 ChatGPT Canvas。 10 月 8 日:2024 年诺贝尔物理学奖。 10 月 9 日:2024 年诺贝尔化学奖。 10 月 10 日:字节●发布首款 AI 智能体耳机 Ola Friend,Vivo●增加蓝心端侧大模型 3B,谷歌●图像生成模型 Imagen 3 开放使用,智源●BGE 登顶 Hugging Face 月榜,State of AI 2024 报告发布。 10 月 11 日:智谱●GLM4Flash 与「沉浸式翻译」合作,北大&北邮&快手●开源高清视频生成模型 Pyramid Flow。 10 月 12 日:OpenAI●开源多智能体协作框架 Swarm,深势科技●完成数亿元人民币新一轮融资,苹果●质疑当前 LLM 缺乏真正的逻辑推理能力。 10 月 14 日。 11 月: 11 月 1 日:《》来自南乔,10 月 AI 行业大事件盘点包括多家公司的重要发布和创新,如 OpenAI 推出多项新功能,字节发布 AI 智能体耳机,以及各大模型的开源。趋势方面,强化学习被认为是推动 AGI 发展的关键技术,原生多模态模型逐渐成为研究热点。新兴应用如 AI 音乐创作、翻译和智能助手等受到关注,整体呈现出技术与应用的快速发展态势。 11 月 1 日:《》来自歸藏,10 月份美国 AI 聊天机器人市场报告显示,ChatGPT 仍是市场领导者,但份额逐渐下降。谷歌和微软在争夺第二的位置,Perplexity 和 ClaudeAI 则实现高速增长,正在从 ChatGPT 和 Gemini 手中蚕食市场份额。总体来看,专业 AI 工具的增长势头强劲,而初创公司的用户获取相对缓慢。 11 月 1 日:《》比尔・盖茨在采访中讨论了人工智能的革命性影响,认为 AI 将使每个人都能成为“超级个体”,改变人机交互方式。他强调 AI 将显著降低白领工作的成本,并逐渐影响蓝领市场。盖茨还提到他对全球健康和气候问题的关注,认为技术创新速度超出预期,未来 20 年将是充满希望的时期。他同时探讨了可再生能源的发展,尤其是核能和太阳能的潜力。 在 2024 年,AI 商业界还发生了以下事件: 全球芯片出口管制下,中国仍成重要市场。美国商务部长吉娜·雷蒙多警告英伟达:“如果你围绕中国特定的需求重新设计芯片,我将在第二天控制它。”据悉,中国在美芯片制造商中所占的份额正在减少。据英伟达称,它从代表 NVIDIA 数据中心业务的 20%下降到“中个位数”。尽管中国实验室在进口硬件方面受到限制,但其当地分支机构目前没有控制权。字节跳动通过美国的甲骨文租用 NVIDIA H100 访问权限,而阿里巴巴和腾讯则与 NVIDIA 就在美国建立自己的数据中心进行谈判。与此同时,谷歌和微软直接向中国大型企业推销他们的云服务。 模型变得更便宜了。以前认为提供强大模型的成本过高,但现在提供这些模型的推断成本正在下降。OpenAI 更达到 100 倍下降!Google Gemini 生产了一种具有很强竞争力的定价系列!Gemini 1.5 Pro 和 1.5 Flash 的价格在推出后几个月内下降了 64%86%,而性能强劲,例如 Flash8B 比 1.5 Flash 贵 50%,但在许多基准测试中表现相当。注意:价格适用于<128K 令牌提示和输出。检索日期为 2024 年 10 月 4 日。考虑到计算成本很高,模型构建者越来越依赖与大型科技公司建立合作伙伴关系。反垄断监管机构担心这将进一步巩固现有公司的地位。
2024-12-15
SD模型
Stable Diffusion(SD)模型是由 Stability AI 和 LAION 等公司共同开发的生成式模型,参数量约 1B,可用于文生图、图生图、图像 inpainting、ControlNet 控制生成、图像超分等任务。 文生图任务是将文本输入到 SD 模型,经过一定迭代次数生成符合描述的图片。例如输入“天堂,巨大的,海滩”,模型生成美丽沙滩图片。 图生图任务在输入文本基础上再输入一张图片,模型根据文本提示重绘输入图片使其更符合描述,如在沙滩图片上添加“海盗船”。 输入的文本信息需通过“桥梁”CLIP Text Encoder 模型转换为机器数学信息。该模型作为 SD 模型中的前置模块,将输入文本编码生成 Text Embeddings 特征矩阵,用于控制图像生成。 目前 SD 模型使用的是中的 Text Encoder 模型,其只包含 Transformer 结构,由 12 个 CLIPEncoderLayer 模块组成,模型参数大小为 123M,输出 Text Embeddings 的维度为 77x768。 以下是相关资源获取方式: SD 模型权重:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 模型”,可获得包含多种模型权重的资源链接。 SD 保姆级训练资源:关注 Rocky 的公众号 WeThinkIn,后台回复“SDTrain”,可获得包含数据处理、模型微调训练及基于 SD 的 LoRA 模型训练代码等全套资源。 Stable Diffusion 中 VAE、UNet 和 CLIP 三大模型的可视化网络结构图:关注 Rocky 的公众号 WeThinkIn,后台回复“SD 网络结构”,即可获得网络结构图资源链接。
2025-01-22
到今天,大语言模型还会产生“幻觉”吗
截至今天,大语言模型仍会产生“幻觉”。 大语言模型偶尔会根据输入输出一些荒谬或不符合事实的内容,目前各家大语言模型在该问题上的表现都不尽如人意。产生“幻觉”的原因包括: 1. 样本存在错误(Imitative Falsehoods):如果大语言模型学习的“教材”中有错误,它也容易给出错误回答。缓解该问题的一个办法是上采样(Up Sampling)。 2. 信息过时(Outdated Factual Knowledge):以前正确的信息现在可能过时了。 此外,大语言模型通过训练数据猜测下一个输出结果,可能因错误数据导致给出错误答案,优质数据集对其很重要。如果在其训练过程中,模型被暴露于大量知识之中,它并没有完美地记忆所见到的信息,并不十分清楚自己的知识边界,可能会尝试回答有关深奥话题的问题,并虚构听起来有道理但实际不正确的内容。 在构建应用程序时,可以使用一些技术来避免这种情况,例如要求模型先从文本中找到相关引文,然后使用引文回答问题,并将答案追溯回源文件,这通常有助于减少“幻觉”的发生。
2025-01-22
本地部署大模型
以下是关于本地部署大模型的详细步骤: 1. 部署大语言模型: 下载并安装 Ollama: 根据电脑系统,从 https://ollama.com/download 下载 Ollama。 下载完成后,双击打开,点击“Install”。 安装完成后,将 http://127.0.0.1:11434/ 复制进浏览器,若出现相关字样则表示安装完成。 下载 qwen2:0.5b 模型(若设备充足可下载更大模型): Windows 电脑:点击 win+R,输入 cmd 点击回车。 Mac 电脑:按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,选择“终端”应用程序。 复制相关命令行,粘贴进入并回车,等待自动下载完成。 2. ComfyUI ollama 本地大模型部署: 先下载 ollama 安装,安装完成后可在电脑桌面右下角或隐藏图标中找到。 下载对应的模型,选择模型并复制对应的命令。 打开命令行界面,输入对应的模型获取命令,等待下载完成。 模型下载后会保存到 D:\\ollama\\blobs 。 进行 docker 安装,安装会下载一些文件,安装后更改目录,不要放在 C 盘。 进行 Open webui 安装,输入相关命令,安装成功后回到 docker,点击会自动打开网页,第一次使用需注册账号,选择下载好的模型即可开始使用。 3. 错误解决: 端口占用问题,在 Windows 上可能出现,运行相关两条命令可解决。 4. 相关链接: comfyuiollama:https://github.com/stavsap/comfyuiollama?tab=readmeovfile Ollama:https://ollama.com/ docker:https://www.docker.com/ Open webui:https://openwebui.com/ 此外,还有一篇思路来源于视频号博主黄益贺的相关内容,作者按照其视频进行了实操并附加了一些关于 RAG 的额外知识。文中提到读完本文可以学习到如何使用 Ollama 一键部署本地大模型、通过搭建本地聊天工具了解 ChatGPT 信息流转、RAG 的概念及核心技术、通过 AnythingLLM 软件搭建完全本地化的数据库等内容。虽然大多数人不需要自己部署大模型,但期望通过本文的指导能够折腾一遍,从而做到知其然且知其所以然。
2025-01-22
大模型评分
大模型评分通常会根据不同的赛事或评估体系有所差异。 在金融行业的大模型挑战赛中,评测任务形式为给定一组参考文档和问题,要求模型按指定格式生成答案。赛事主办方会根据选手提供的回答与参考答案对比,并根据关键字段命中情况进行评分。评分公式涉及关键词命中总次数、关键词总数、小题数和得分等参数。例如在示例问题中,根据每个小题的回答正确情况计算得分,完全正确得满分 1 分,部分正确则根据命中比例计算得分。 在其他的大模型评估方面: FlagEval(天秤)大模型评测体系及开放平台,旨在建立科学、公正、开放的评测基准、方法、工具集,创新构建了“能力任务指标”三维评测框架,细粒度刻画基础模型的认知能力边界,可视化呈现评测结果。地址:https://github.com/FlagOpen/FlagEval 。 CEval 构造了一个覆盖多个学科的中文知识和推理型测试集,并给出了当前主流中文 LLM 的评测结果。地址:https://github.com/SJTULIT/ceval 。 SuperCLUElyb 是中文通用大模型匿名对战评价基准,以众包方式提供匿名、随机的对战,并发布了初步结果和基于 Elo 评级系统的排行榜。地址:https://github.com/CLUEbenchmark/SuperCLUElyb 。 斯坦福发布的大模型排行榜 AlpacaEval 支持两种模式的模型评估方式:alpaca_eval 和 alpaca_eval evaluate_from_model 。评测过程分为选择评估集并计算输出、计算 golden 输出、通过指定的自动标注器计算胜率等步骤。相对于人工标注,全自动化的 AlpacaEval 具有较低的经济成本和时间成本。
2025-01-22
有哪些能够本地部署的AI视频生成模型
以下是一些能够本地部署的 AI 视频生成模型: 1. Stable Video Diffusion 模型: 准备工作:手动下载相关内容,分别放到指定路径。 模型选择:点击下拉箭头选择不同模型版本,勾选 load Model。 视频创作:支持图生视频,图片来源可选择 Midjourney、Stable Diffusion 等生成的图片,上传到 SVD 进行视频生成,可调节左侧参数控制效果。 保存路径:生成的视频在 outputs 下。 2. LTXVideo 模型: 基于 2B 参数 DiT,能够以 768x512 分辨率生成 24 FPS 的视频,速度比观看还快。 专为 RTX 4090 等 GPU 优化,使用 bfloat16 精度,实现高效内存使用且不影响质量。 ComfyUI 现已支持该模型,用户只需下载模型文件并获取工作流即可在本地运行。 3. Sora 模型: 功能:文生视频、图生视频、视频生视频,支持多种视频定制选项,如分辨率、视频长度和视频风格;具有故事板功能,允许用户通过时间线指导视频中的多个动作;提供混音和编辑功能,包括视频混音、延伸和剪辑、创建循环视频等;还有混合功能,可将两个视频场景合并成一个新的场景。 费用和订阅套餐:对于拥有 OpenAI Plus 或 Pro 账户的用户,使用包含在现有订阅中。OpenAI Plus 订阅每月 50 次视频生成次数,OpenAI Pro 订阅无限次慢速队列生成,500 次正常速度的视频生成次数。用户可根据需要选择更高分辨率的视频生成,但可能会减少每月使用次数。发布初期,某些地区(如欧洲和英国)可能会有延迟。
2025-01-21
国内文生图模型
以下是关于国内文生图模型的相关信息: Recraft 模型:用 8 个月自研模型,包含处理数据的模型、标注工作、训练 OCR 模型、新构建的数据集等。Recraft 生成带有长文本图像的流程图解,但存在生成默认是外国面孔而非亚洲面孔且生成的亚洲人不太自然的情况,可能与数据集有关。只有少数公司真正从头训练模型,创建自己的模型困难且成本高,需要超强团队和资金。 模型能力方面: 文本编码器的能力是文生图模型语义理解能力的关键。一开始大部分模型使用 CLIP 作为文本编码器,但存在一些问题。新的模型纷纷优化文本编码器能力,如引入更大更强的 T5XXL 或结合多个特征,但开源模型在中文生图方面能力一般。 腾讯开源的 HunyuanDiT 是较可用的中文生图模型,但仍存在优化空间。 Kolors 是最近开源的给力文生图模型,改进全面,技术实力强。
2025-01-21