Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

微软自研的大模型是什么

Answer

微软自研的大模型包括 MAI-1 大模型。MAI-1 大模型由 Inflection CEO Mustafa Suleyman 负责,模型规模超过 5000 亿参数,远超微软之前的开源模型,使用 Inflection 技术和数据,但独立于原有项目 Pi。来源:https://t.co/aba77GFcnD 此外,微软还在 Microsoft Build 2024 大会上发布了包括 Phi-3-vision 多模态小模型等相关内容。

Content generated by AI large model, please carefully verify (powered by aily)

References

XiaoHu.AI日报

-效果堪比随机临床试验,能帮助理解治疗对患者健康的具体影响。-学习患者数据的模式,预测不同治疗方式可能的效果。🔗详细介绍:https://xiaohu.ai/p/73219️⃣🎨Logo Diffusion:快速创建Logo标志-利用AI几秒钟内生成Logo。🔗https://xiaohu.ai/p/7393🔟🦾微软推出MAI-1大模型:-由Inflection CEO Mustafa Suleyman负责。-模型规模超过5000亿参数,远超微软之前的开源模型。-使用Inflection技术和数据,但独立于原有项目Pi。🔗来源:https://t.co/aba77GFcnD

XiaoHu.AI日报

-效果堪比随机临床试验,能帮助理解治疗对患者健康的具体影响。-学习患者数据的模式,预测不同治疗方式可能的效果。🔗详细介绍:https://xiaohu.ai/p/73219️⃣🎨Logo Diffusion:快速创建Logo标志-利用AI几秒钟内生成Logo。🔗https://xiaohu.ai/p/7393🔟🦾微软推出MAI-1大模型:-由Inflection CEO Mustafa Suleyman负责。-模型规模超过5000亿参数,远超微软之前的开源模型。-使用Inflection技术和数据,但独立于原有项目Pi。🔗来源:https://t.co/aba77GFcnD

微软大会 Microsoft Build 2024

就在刚刚,微软召开了其年度发布会,Microsoft Build 2024,发布了包括大杀器Copilot Studio在内的50+项更新。如果让我用一句话来形容:微软下场,从系统和云的层面,尝试吃掉所有大的机会。留一些roi不高的事情,让生态玩家通过Extension的方式喝汤于是...在发布的最开始的时候是惊呼,后面就是掌声了(毕竟是开发者大会,然后把开发者的碗砸了)先给大家来一个速读版,标红的地方值得关注&蹲后续:硬件层面:与英伟达&AMD的合作,以及自己新出的新芯片Cobalt生态层面:与众多模型生态进行合作,推出了自己的Phi-3-vision多模态小模型,以及更新了Azure AI Studio数据层面:Fabric支持实时智能工具链层面:GitHub Copilot迎来了Extension应用层面:推出了Copilot Team和Copilot Studio,无比强大的Agent下面是具体信息:[heading2]发布了啥[heading1]硬件与云[content]与英伟达确认全面合作关系(Full-stack partnership),以及他们在Azure上搞的事情(见下图)与AMD是扩大合作关系(Expanded partnership),并宣布了其新产品ND MI300X V5(好长的名字...),也会在Azure上搞事情:微软自己搞了硬件:Maia&CobaltMaia(这东西去年就有发布),是首个由微软自己设计的AI加速芯片,放在Azure上跑的:新的芯片Cobalt基于Neoverse N系列(N2)Arm CPU设计,专为云端规模化应用性能优化。具体信息可以在aka.ms/AzureCobalt中找到:

Others are asking
微软的AI方面的投资
微软在 AI 方面进行了大量投资。 首先,微软巨额投资了 OpenAI,但 GPT4 并非微软完全自有。微软未将大部分投资的算力直接给 OpenAI 使用,且不久前完成了对 Inflection AI 的收购,准备利用其专业团队和数据集,加上自身合成数据,从头训练一个约五千亿参数规模的 MOE 模型 MAI1。 其次,微软最初向 OpenAI 出资 10 亿美元,以服务器上的计算时间作为回报,随着双方信心增强,交易规模不断扩大,目前微软已向 OpenAI 投入 130 亿美元。 此外,在 2019 年,微软投资 10 亿美元给 OpenAI 成为其最大的机构股东。
2025-01-25
我想跟踪微软的动态
以下是微软的相关动态: 1 月 3 日: 微软研究团队利用合成数据训练 AI,减少成本和偏见,生成 100 种语言的文本数据提高训练效率,论文链接:https://arxiv.org/abs/2401.00368 ,https://x.com/xiaohuggg/status/1742473942252855795?s=20 。 微软推出 Microsoft 365 Copilot Chat 基础版支持 GPT4o,功能包括联网查询、文档处理、内容制作等;高级版支持创建 AI 代理,提升 CRM 和实时服务效率。无缝连接 Office 系列工具显著提高生产力。 。 1 月 17 日: 微软推出 Microsoft 365 Copilot Chat 基础版支持 GPT4o,功能包括联网查询、文档处理、内容制作等;高级版支持创建 AI 代理,提升 CRM 和实时服务效率。无缝连接 Office 系列工具显著提高生产力。 。 Microsoft Build 2024: 发布包括大杀器 Copilot Studio 在内的 50+项更新。 硬件层面:与英伟达、AMD 合作,推出新芯片 Cobalt 。 生态层面:与众多模型生态合作,推出 Phi3vision 多模态小模型,更新 Azure AI Studio 。 数据层面:Fabric 支持实时智能。 工具链层面:GitHub Copilot 迎来 Extension 。 应用层面:推出 Copilot Team 和 Copilot Studio 。
2025-01-25
微软 Sora 的论文
以下是关于微软 Sora 论文的相关信息: 论文标题:Sora:A Review on Background,Technology,Limitations,and Opportunities of Large Vision Models 作者:Yixin Liu,Kai Zhang,Yuan Li,Zhiling Yan,Chujie Gao,Ruoxi Chen,Zhengqing Yuan,Yue Huang,Hanchi Sun,Jianfeng Gao,Lifang He,Lichao Sun 期刊:arXiv 发表时间:2024/02/27 数字识别码:arXiv:2402.17177 摘要:Sora 是一个文本到视频生成的人工智能模型,由 OpenAI 于 2024 年 2 月发布。该模型经过训练,可以根据文本指令生成逼真或富有想象力的场景的视频,并显示出模拟物理世界的潜力。基于公开的技术报告和逆向工程,本文全面回顾了文本到视频人工智能模型的背景、相关技术、应用、剩余挑战和未来方向。我们首先追踪索拉的发展,并研究用于构建这个“世界模拟器”的底层技术。然后,我们详细描述了索拉在从电影制作、教育到营销等多个行业的应用和潜在影响。我们讨论了广泛部署索拉需要解决的主要挑战和局限性,例如确保安全、公正的视频生成。最后,我们讨论了索拉和视频生成模型的未来发展,以及该领域的进步如何能够实现人类人工智能交互的新方式,提高视频生成的生产力和创造力。 背景:Sora 是一项重大突破,类似于 ChatGPT 在 NLP 领域的影响。Sora 是第一个能够根据人类指令生成长达一分钟视频的模型,同时保持较高的视觉质量和引人注目的视觉连贯性,从第一帧到最后一帧都具有渐进感和视觉连贯性。这是一个里程碑,对生成式 AI 的研究和发展产生了深远影响。如图 2 所示,Sora 在准确解读和执行复杂的人类指令方面表现出非凡的能力。该模型可以生成包含多个角色的详细场景,这些角色在错综复杂的背景下执行特定的动作。研究人员认为,Sora 不仅能熟练处理用户生成的文本提示,还能辨别场景中各种元素之间复杂的相互作用。此外,Sora 的进步还体现在它能够生成具有细微运动和交互描绘的扩展视频序列,克服了早期视频生成模型所特有的短片段和简单视觉渲染的限制。这种能力代表了人工智能驱动的创意工具的飞跃,使用户能够将文字叙述转换成丰富的视觉故事。总之,这些进步显示了 Sora 作为世界模拟器的潜力,它可以提供对所描绘场景的物理和背景动态的细微洞察。为了方便读者查阅视觉生成模型的最新进展,研究者在论文附录汇编了近期的代表性工作成果。 您可以通过以下链接阅读论文原文:https://arxiv.org/abs/2402.17177
2024-08-08
微软AI证书考取的流程是什么
考取微软AI证书的流程通常包括以下几个步骤: 1. 选择证书:确定你想要考取的微软AI证书类型,例如"Azure AI Engineer Associate"(AI102)或"Azure AI Fundamentals"(AI900)。 2. 了解考试内容:访问微软官方网站,了解所选证书的考试大纲、测试的技能点以及考试要求。 3. 学习准备:根据考试大纲,通过官方或第三方提供的教材、在线课程、实验室练习和模拟考试进行学习。 4. 获取学习资源:利用微软提供的资源或参加微软官方认证的培训课程来准备考试。 5. 注册考试:在准备好之后,在微软认证的考试平台上注册并安排考试时间。 6. 参加考试:在预定的时间和地点参加考试,考试可能包括多种题型,如单选题、多选题、判断题等。 7. 考试通过:考试合格后,你将获得微软颁发的AI证书。 8. 认证续订:某些微软认证可能需要定期续订,以保持认证的有效性。 具体步骤可能会有所变化,建议访问微软官方认证页面或相关资源获取最新信息。以下是一些微软AI证书的官方链接,你可以访问了解更多详情: 此外,根据搜索结果,还有一些博客和论坛提供了关于微软AI证书考取的经验和指南,你可以作为参考:
2024-06-13
微软桌面端可以使用GPT-4o吗
微软最新推出的 AIPC 可以使用GPT4o。
2024-05-21
deepseek的多模态大模型?
DeepSeek 发布了大一统模型 JanusPro,将图像理解和生成统一在一个模型中。以下是关于该模型的一些重要信息: 最新消息:DeepSeek 深夜发布该模型,它是一个强大的框架。 特点: 统一了多模态理解和生成,通过将视觉编码解耦为独立路径解决先前方法的局限性,利用单一的统一 Transformer 架构进行处理,缓解了视觉编码器在理解和生成中的角色冲突,增强了框架的灵活性。 超越了之前的统一模型,匹配或超过了特定任务模型的性能,其简单性、高灵活性和有效性使其成为下一代统一多模态模型的有力候选者。 规模:提供 1B 和 7B 两种规模,适配多元应用场景。 开源及商用:全面开源,支持商用,采用 MIT 协议,部署使用便捷。 测试案例: 模型直接支持中文交互(图像理解+图像生成)。 云上 L4 测试,显存需 22GB。 图像生成速度约 15s/张。 图像理解质量方面,文字和信息识别基本准确,内容理解完整清晰,局部细节有欠缺。 Colab(需 Pro,因需 20GB 以上显存):https://colab.research.google.com/drive/1V3bH2oxhikj_B_EYy5yRG_9yqSqxxqgS?usp=sharing 模型地址: 7B 模型:https://huggingface.co/deepseekai/JanusPro7B 1B 模型:https://huggingface.co/deepseekai/JanusPro1B 下载地址:https://github.com/deepseekai/Janus
2025-01-30
怎样构建一个自己专业的AI小模型
构建一个自己专业的 AI 小模型可以参考以下步骤: 1. 搭建 OneAPI:这是为了汇聚整合多种大模型接口,方便后续更换使用各种大模型,同时了解如何白嫖大模型接口。 2. 搭建 FastGpt:这是一个知识库问答系统,将知识文件放入,接入上面的大模型作为分析知识库的大脑,最后回答问题。如果不想接到微信,搭建完此系统就可以,它也有问答界面。 3. 搭建 chatgptonwechat 并接入微信,配置 FastGpt 把知识库问答系统接入到微信,建议先用小号以防封禁风险。若想拓展功能,可参考 Yaki.eth 同学的教程,里面的 cow 插件能进行文件总结、MJ 绘画等。 部署和训练自己的 AI 开源模型的主要步骤如下: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,并对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 大模型的构建过程包括: 1. 收集海量数据:像教孩子成为博学多才的人一样,让模型阅读大量的文本数据,如互联网上的文章、书籍、维基百科条目、社交媒体帖子等。 2. 预处理数据:清理和组织收集到的数据,如删除垃圾信息,纠正拼写错误,将文本分割成易于处理的片段。 3. 设计模型架构:为模型设计“大脑”结构,通常是一个复杂的神经网络,如使用 Transformer 架构。 4. 训练模型:让模型“阅读”提供的数据,通过反复尝试预测句子中的下一个词等方式,逐渐学会理解和生成人类语言。
2025-01-29
现在最好的AI大模型
目前较为出色的 AI 大模型包括: 1. GPT4(免费可用):是 OpenAI 在深度学习规模扩大方面的最新里程碑,是一个大型多模态模型,在各种专业和学术基准测试中表现出与人类相当的水平。 2. Midjourney v5(免费):具有极高的一致性,擅长以更高分辨率解释自然语言 prompt,并支持像使用 tile 这样的重复图案等高级功能,能生成令人惊叹的逼真 AI 图像。 3. DALL·E 3(免费可用):代表了生成完全符合文本的图像能力的一大飞跃,能轻松将想法转化为极其精准的图像。 4. Mistral 7B(免费):是一个具有 73 亿参数的模型,在所有基准测试上超越了 Llama 2 13B,在许多基准测试上超越了 Llama 1 34B,在代码任务上接近 CodeLlama 7B 的性能,同时在英语任务上表现良好。 此外,在主要的大语言模型方面: 1. OpenAI 系统:包括 3.5 和 4.0 版本,3.5 模型在 11 月启动了当前的 AI 热潮,4.0 模型功能更强大。微软的 Bing 使用 4 和 3.5 的混合,通常是 GPT4 家族中首个推出新功能的模型。 2. 谷歌:一直在测试自己的人工智能 Bard,由各种基础模型驱动,最近是一个名叫 PaLM 2 的模型。 3. Anthropic 发布了 Claude 2,其最值得注意的是有一个非常大的上下文窗口。
2025-01-29
你好,你是什么模型?
您好,我是一名 AI 知识专家,能够为您提供全面的 AI 知识指导和解答相关问题。 关于模型方面的知识: LoRA 和 LyCORIS 都属于微调模型,常用于控制画风、生成的角色、角色姿势等。它们的后缀均为.safetensors,体积较主模型小,一般在 4M 300M 之间,使用 LoRA 模型较多,LyCORIS 可调节范围更大,现在 SD 已内置。在 WebUl 中使用时,可在 LoRA 菜单中点击使用,也可直接使用 Prompt 调用。 在 Tusiart 中,首页有模型、帖子、排行榜,展示了大手子炼成的模型和图片。生图必需基础模型(Checkpoint),任何生图操作必须选定一个 Checkpoint 模型才能开始,lora 是低阶自适应模型,可有可无,但对细节控制有价值。ControlNet 可控制图片中特定图像,VAE 类似于滤镜调整生图饱和度,选择 840000 即可。Prompt 提示词是想要 AI 生成的内容,负向提示词是想要 AI 避免产生的内容。还有图生图,即上传图片后 SD 会根据相关信息重绘。 如果您想搭建类似的群问答机器人,可以参考以下内容:
2025-01-28
为什么要布置大模型到本地
布置大模型到本地主要有以下原因: 1. 无需科学上网,也无需支付高昂的 ChatGPT 会员费用。 2. 可以通过 Web UI 实现和大模型进行对话的功能,如 Open WebUI 一般有两种使用方式,包括聊天对话和 RAG 能力(让模型根据文档内容回答问题),这也是构建知识库的基础之一。 3. 能够更加灵活地掌握个人知识库。 但需要注意的是,运行大模型需要很高的机器配置: 1. 生成文字大模型,最低配置为 8G RAM + 4G VRAM,建议配置为 16G RAM + 8G VRAM,理想配置为 32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型)。 2. 生成图片大模型(比如跑 SD),最低配置为 16G RAM + 4G VRAM,建议配置为 32G RAM + 12G VRAM。 3. 生成音频大模型,最低配置为 8G VRAM,建议配置为 24G VRAM。 个人玩家的大多数机器可能负担不起,最低配置运行速度非常慢。但亲自实操一遍可以加深对大模型构建的知识库底层原理的了解。
2025-01-27
Coze + 飞书 + 飞书多维表格:通过飞书机器人与 Coze 搭建的智能体进行对话,在聊天窗口中完成链接输入和阅读计划输出。由 Coze 调用大模型、插件完成内容的整理、推荐,利用飞书多维表格存储和管理稍后读数据,无需开发任何插件、APP,能实现跨平台的稍后读收集与智能阅读计划的推荐。其设计思路包括简化“收集”,实现跨平台收集和通过输入 URL 完成收集;自动化“整理入库”,自动整理关键信息并支持跨平台查看;智能“选择”推荐,根据收藏记录和用户兴趣生成阅读计划——这个方法具体如何操作?
以下是关于通过飞书机器人与 Coze 搭建的智能体进行对话,并利用飞书多维表格存储和管理稍后读数据,实现跨平台的稍后读收集与智能阅读计划推荐的具体操作方法: 前期准备: 1. 简化“收集”: 实现跨平台收集功能,支持电脑(web 端)、安卓、iOS 多端操作。 输入一个 URL 即可完成收集,借鉴微信文件传输助手的方式,通过聊天窗口完成收集输入。 2. 自动化“整理入库”: 系统在入库时自动整理每条内容的关键信息,包括标题、摘要、作者、发布平台、发布日期、收集时间和阅读状态。 阅读清单支持跨平台查看。 3. 智能“选择”推荐: 根据当前收藏记录和用户阅读兴趣进行相关性匹配,生成阅读计划。 使用飞书·稍后读助手: 1. 设置稍后读存储地址: 首次使用,访问。 点击「更多创建副本」,复制新表格的分享链接。 将新链接发送到智能体对话中。 还可以发送“查询存储位置”、“修改存储位置”来更换飞书多维表格链接,调整稍后读存储位置。 2. 收藏待阅读的页面链接: 在对话中输入需要收藏的页面链接,第一次使用会要求授权共享数据,授权通过后再次输入即可完成收藏。但目前部分页面链接可能小概率保存失败。 3. 智能推荐想看的内容: 在对话中发送“我想看 xx”、“xx 内容”,即可按个人兴趣推荐阅读计划。 至此,专属 AI 稍后读智能体大功告成,您可以尽情享受相关服务。
2025-01-27