直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

我想找一些具有「图片理解」能力的模型

回答

以下是一些具有“图片理解”能力的模型:

  1. Gemini 模型:Gemini Ultra 在各种图像理解基准测试中表现出色,如在表 7 中的各项测试中是最先进的。它在回答自然图像和扫描文档的问题,以及理解信息图表、图表和科学图解等各种任务中性能强大。在 zero-shot 评估中表现优于其他模型,还超过了几个在基准训练集上微调的现有模型。在 MMMU 评估基准测试中也取得了最好的分数。
  2. 李飞飞团队开发的计算机视觉模型:能够在看到图片的第一时间生成类似人类语言的句子,但仍存在需要改进和学习的地方。
  3. GPT-4V 模型:图像理解由多模态 GPT-3.5 和 GPT-4 提供支持,能够将语言推理技能应用于各种图像,例如照片、屏幕截图以及包含文本和图像的文档。
内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

Gemini report 中文翻译

[title]Gemini report中文翻译[heading1]5.评估[heading2]5.2多模态[heading3]5.2.1图像理解:我们评估了模型在四个不同的能力上:使用caption或问答任务(如VQAv2)进行高级对象识别;使用TextVQA和DocVQA等任务进行细粒度转录,要求模型识别low-level的细节;使用ChartQA和InfographicVQA任务要求模型理解输入布局的空间理解以及使用Ai2D、MathVista和MMMU等任务进行多模态推理。对于zero-shot QA评估,模型被指示提供与特定基准对齐的简短答案。所有数字都是通过Greedy Sampling获得的,没有使用任何外部OCR工具。我们发现Gemini Ultra在表7中的各种图像理解基准测试中都是最先进的。它在回答自然图像和扫描文档的问题,以及理解信息图表、图表和科学图解等各种任务中表现出强大的性能。与其他模型(尤其是GPT-4V)公开报告的结果相比,Gemini在zero-shot评估中表现更好。它还超过了几个专门在基准训练集上进行微调的现有模型,适用于大多数任务。Gemini模型的能力在学术基准测试中取得了显著的改进,如MathVista(+ 3.1%)或InfographicVQA(+ 5.2%)。MMMU(Yue等人,2023)是一个最近发布的评估基准,其中包含了关于图像的问题,涵盖了6个学科,每个学科中又有多个主题,需要大学水平的知识来解答这些问题。Gemini Ultra在这个基准测试中取得了最好的分数,比最先进的结果提高了5个百分点以上,并在6个学科中的5个学科中超过了以前的最佳结果(见表8),从而展示了它的多模态推理能力。

李飞飞的两次 TED 演讲

[title]李飞飞的两次TED演讲[heading2]一、2015年《我们怎么教计算机理解图片?》现在,计算机需要从图片和人类创造的自然语言句子中同时进行学习。就像我们的大脑,把视觉现象和语言融合在一起,我们开发了一个模型,可以把一部分视觉信息,像视觉片段,与语句中的文字、短语联系起来。大约4个月前,我们最终把所有技术结合在了一起,创造了第一个“计算机视觉模型”,它在看到图片的第一时间,就有能力生成类似人类语言的句子。现在,我准备给你们看看计算机看到图片时会说些什么——还是那些在演讲开头给小女孩看的图片。(视频)计算机:“一个男人站在一头大象旁边。”“一架大飞机停在机场跑道一端。”李飞飞:当然,我们还在努力改善我们的算法,它还有很多要学的东西。(掌声)计算机还是会犯很多错误的。(视频)计算机:“一只猫躺在床上的毯子上。”李飞飞:所以…当然——如果它看过太多种的猫,它就会觉得什么东西都长得像猫……(视频)计算机:“一个小男孩拿着一根棒球棍。”(笑声)李飞飞:或者…如果它从没见过牙刷,它就分不清牙刷和棒球棍的区别。(视频)计算机:“建筑旁的街道上有一个男人骑马经过。”(笑声)李飞飞:我们还没教它Art 101(美国大学艺术基础课)。(视频)计算机:“一只斑马站在一片草原上。”李飞飞:它还没学会像你我一样欣赏大自然里的绝美景色。所以,这是一条漫长的道路。

AIGC Weekly #41

开始使用语音,前往移动应用程序上的“设置”→“新功能”,然后选择加入语音对话。然后,点击主屏幕右上角的耳机按钮,从五种不同的声音中选择你喜欢的声音。新的语音功能由新的文本转语音模型提供支持,能够仅从文本和几秒钟的样本语音中生成类似人类的音频。Open AI与专业配音演员合作创作了每一个声音。Open AI还使用开源语音识别系统Whisper将你的口语转录为文本。[heading3]谈论图像[content]点击照片按钮来拍摄或选择图像。如果你使用的是iOS或Android,请先点击加号按钮。你还可以讨论多个图像或使用我们的绘图工具来指导您的助手。图像理解由多模态GPT-3.5和GPT-4提供支持。这些模型将其语言推理技能应用于各种图像,例如照片、屏幕截图以及包含文本和图像的文档。

其他人在问
我的app应用想要对接大语言模型,结合APP用户自身的数据,实现更精准的对话,是否有行业比较成功的案例可以借鉴
以下是一些在 APP 应用对接大语言模型方面比较成功的案例,可供您借鉴: 1. Poe: 由 Quora 开发,有 APP 版本,支持跨端使用。 集成了 Chat GPT、GPT4、Claude+、Claude、Dragonfly 等模型,同时支持用户自建 Chatbot。 不同语言模型回复效果有差异,适合需要调用多种大语言模型的用户。 Dragonfly 擅长给出较短的回答,并擅长在输入中给出示例时遵循指示。 Claude 更擅长创造性回复,配合 Poe 中的提问引导,非常适合在查阅资料时使用。 支持分享用户和模型的对话内容,但 GPT4、Claude+产品需要付费订阅使用。 访问地址: Poe 中的提问引导真的能够启发到用户,midjourney prompt 扩写 Chatbot 能力很惊人。 2. Perplexity.ai: 本质是个可联网的搜索引擎,完全免费,支持网页版、APP(目前支持 iOS,安卓即将推出)、Chrome 插件。 网页版能力全面,能够根据提问从互联网上搜寻信息并给出总结后的答案。 很多 Chat GPT 中调用插件才能解决的事情(联网查询、旅行、住宿、商品推荐)靠 Perplexity 就可以解决。 能给出信息来源网址,并根据搜索内容给出继续对话的问题建议。 最新推出的 Copilot 能力支持根据搜索内容进行信息补充,每 4h 内使用 5 次,调用 GPT4。 支持分享聊天内容到多渠道。 首页推荐当下流行的新闻、搜索内容。 支持筛选 Academic(包含不同领域的学术研究论文)、Wolfram|Alpha(包含数学、科学、经济学、语言学、工程学、社会科学、文化等领域的知识库)、Wikipedia(维基百科)、Youtube、Reddit(娱乐、社交和新闻网站)、News 进行搜索。 Chrome 插件可针对当前页面给出即时摘要。 访问地址:
2024-10-18
大模型合规
大模型的安全问题包括以下方面: 1. 对齐保障:通过对齐(指令调优),如 ChatGPT 从 GPT3 经过对齐而来,使其更好地理解人类意图,增加安全保障,确保不输出有害内容。对齐任务可拆解为监督微调及获取奖励模型和进行强化学习来调整输出分布。例如 LLAMA2 使用安全有监督微调确保安全,强化学习能让模型根据人类反馈更细粒度思考答案的安全性,面对训练分布外数据也能拒绝不当回答。 2. 数据过滤:在预训练阶段对数据进行过滤,如 baichuan2 采用此技术减少有害输出,但因数据关联性,仅靠此方法可能不够,模型仍可能从关联中学到有害内容,且面对不良信息时可能因缺少知识而处理不当。 3. 越狱问题:用户可能通过越狱(Jailbreak)使模型的对齐失效,重新回答各种问题。 大模型的特点包括: 1. 架构:分为 encoderonly、encoderdecoder、decoderonly 三类,目前熟知的 AI 助手多为 decoderonly 架构,由 transformer 衍生而来。 2. 规模:预训练数据量大,来自互联网的多种来源,且参数众多,如 GPT3 已达 170B 的参数。 GPT3 与 ChatGPT 相比,除形式不同外,安全性也有差别。
2024-10-18
大模型安全相关资料
以下是关于大模型安全的相关资料: 大模型的架构:包括 encoderonly、encoderdecoder 和 decoderonly 三种类型。其中,我们熟知的 AI 助手基本采用 decoderonly 架构,这些架构都是由谷歌 2017 年发布的“attention is all you need”论文中提出的 transformer 衍生而来。 大模型的特点:预训练数据量大,往往来自互联网上的论文、代码、公开网页等,通常用 TB 级别的数据进行预训练;参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 大模型的安全性保障:通过对齐(指令调优),包括监督微调、获取 reward model 与进行强化学习来调整语言模型的输出分布,以保证语言模型不会输出有害内容和信息。例如 LLAMA2 专门使用了安全有监督微调确保安全。但 Alignment 并不足以防护所有安全问题,存在越狱(Jailbreak)现象,会使模型对齐失效。此外,还有隐私问题。 相关资源:如果想进一步了解大语言模型安全,可以访问 Github awesomellmsafety 项目:https://github.com/ydyjya/AwesomeLLMSafety
2024-10-18
目前最好用的机关公文写作大模型或智能体
目前在机关公文写作方面表现较好的大模型或智能体有: 智谱清言:由智谱 AI 和清华大学推出,基础模型为 ChatGLM 大模型。在工具使用排名国内第一,在计算、逻辑推理、传统安全能力上排名国内前三。更擅长专业能力,但在代码能力上还有优化空间,知识百科方面稍显不足。可应用场景广泛,在 AI 智能体方面相关的应用,包括任务规划、工具使用及长文本记忆相关场景表现出色,在较复杂推理应用上效果不错,也适用于广告文案、文学写作等。 此外,在大模型中,智能体是大模型的一个重要发展方向。智能体可以理解为在大模型(如 LLM)基础上增加了工具、记忆、行动、规划等能力。目前行业里主要用到的如 langchain 框架,能通过代码或 prompt 的形式将 LLM 与 LLM 之间以及 LLM 与工具之间进行串接。
2024-10-18
你知道有支持个性化训练的大预言模型么
以下是一些支持个性化训练的大语言模型: 1. Character.ai:更注重人格属性,试图满足社交、情感、陪伴等需求,与 ChatGPT 侧重不同,后者注重提高效率和解放生产力。 2. Midjourney:今天发布了模型个性化 Personalization 或 'p'的早期测试版本。模型个性化会学习用户的喜好,以便更可能用用户的口味来填补空白。其要求包括目前从成对排名中的投票和喜欢的探索页面上的图像中学习,需要大约 200 个成对排名/喜欢才能生效。使用时只需在提示后输入 'p',或使用提示栏中的设置按钮为所有提示启用个性化功能,还可以使用 's 100'控制个性化效果的强度。但需注意个性化目前不是一个稳定的功能,会随着进行更多的成对排名而变化,且可能会在接下来的几周内推出算法更新。
2024-10-18
我该如何利用文心一言、kimi等已有的大语言模型去作个性化训练?
已有的大语言模型如文心一言、kimi 等通常不支持个人进行个性化训练。 大语言模型的相关知识包括: 国内大模型有通用模型如文心一言、讯飞星火等,处理自然语言;还有垂直模型,专注特定领域。 大语言模型工作原理包括训练数据、算力、模型参数,在训练数据一致情况下,模型参数越大能力越强。 Transformer 是大语言模型训练架构,具备自我注意力机制能理解上下文和文本关联。 大模型可能因错误数据导致给出错误答案,优质数据集对其很重要。 Prompt 分为 system prompt、user prompt 和 assistant prompt,写好 prompt 的法则包括清晰说明、指定角色、使用分隔符、提供样本等。 Fine tuning 是基于通用大模型,针对特定领域任务提供数据进行学习和调整,以适应特定领域的需求。 学习大型语言模型(LLM)的开发是一个系统性的过程,需要涵盖多个方面的知识和技能: 掌握深度学习和自然语言处理基础,包括机器学习、深度学习、神经网络等基础理论,以及自然语言处理基础,如词向量、序列模型、注意力机制等。 理解 Transformer 和 BERT 等模型原理,掌握相关论文。 学习 LLM 模型训练和微调,包括大规模文本语料预处理,使用预训练框架,以及微调 LLM 模型进行特定任务迁移。 掌握 LLM 模型优化和部署,包括模型压缩、蒸馏、并行等优化技术,模型评估和可解释性,以及模型服务化、在线推理、多语言支持等。 进行 LLM 工程实践和案例学习,结合行业场景,进行个性化的 LLM 训练,分析和优化具体 LLM 工程案例,研究 LLM 新模型、新方法的最新进展。 持续跟踪前沿发展动态。 机器学习是人工智能的一个子领域,深度学习是机器学习的一个子领域,大语言模型是深度学习在自然语言处理领域的应用之一,具有生成式 AI 的特点。
2024-10-18
生成分享图片工具
以下为一些生成分享图片的工具及相关方法: 1. Midjourney V6:可用于生成场景模型。 放大工具:Comfy Ui、Magnific Ai、Upscayl 深度图:Leia Pix 法线图:Shadermap 2. 辅助工具生成透明背景图像: 安装好插件后,在生成图片时勾选“layerdiffusion enabled”。 在“layerdiffusion method”中选择生成透明图像的模式,如“Only Generate Transparent Image”。 提示中输入透明物体的描述,如“玻璃杯”,点击生成可得到透明背景的玻璃杯图像。 也可上传背景图像,在“layerdiffusion method”中选择“From Background to Blending”,然后生成透明图像。 反之,也可以先生成透明的前景,然后选择“From Foreground to Blending”模式,生成背景。 特定模型: layer_xl_transparent_attn:用于将 Stable Diffusion XL 模型转化为透明图像生成器的模型。 layer_xl_transparent_conv:与 layer_xl_transparent_attn 类似,通过修改 conv 层的 offset 实现。 layer_xl_fg2ble:用于将 XL 模型转化为前景图像到混合图像的生成模型。 layer_xl_fgble2bg:用于基于前景和混合图像生成背景的模型。 layer_xl_bg2ble:将 XL 模型转化为根据背景图像生成混合图像的模型。 layer_xl_bgble2fg:将 XL 模型转化为根据背景和混合图像生成前景的模型。 vae_transparent_encoder:图像编码器,用于从像素空间中提取潜在偏移,帮助透明图像的生成。 vae_transparent_decoder:图像解码器,输出真实的 PNG 图像。 3. Aimwise WaytoAGI 百家号文旅分享中的方法: 开启 controlnet 边缘类模型,导入需要处理的 logo,调整合适的 cn 参数。 开启 controlnet IP adapter 功能性模型,导入风格参考图,调整合适的 cn 参数,可快速进行风格迁移和融合,提升出图效率。
2024-10-18
ai现在拍摄一本书的图片能够识别到这是什么书么
目前的 AI 技术在拍摄一本书的图片并识别其是什么书方面已经取得了一定的进展。 在图像识别领域,神经网络发挥着重要作用。例如,对于识别印刷体图片,通常会先将图片转换为黑白,调整至固定尺寸,然后与数据库中的内容进行对比以得出结论。但实际情况较为复杂,存在多种字体、不同拍摄角度等多种例外情况,单纯依靠添加规则的方法不可行,而神经网络专门处理这类未知规则的情况。 不过,要准确识别一本书,还面临一些挑战,如书籍的版本、封面设计的多样性等。但随着技术的不断发展和数据的积累,未来 AI 识别一本书的准确性有望不断提高。 同时,也有一些相关的实验和研究,比如通过设计工作流让 AI 自举式地进行创造,从作家的作品中提取名场面并转译成绘画指令等。
2024-10-17
怎么用AI绘制一个我指定的动漫人物原型的各类图片,例如日漫《好想告诉你》中的黒沼爽子
要使用 AI 绘制指定的动漫人物原型,如日漫《好想告诉你》中的黑沼爽子,您可以按照以下步骤进行: 1. 选择合适的 AI 绘画工具:目前有许多在线的 AI 绘画平台和软件可供选择,例如 DALL·E2、StableDiffusion 等。 2. 明确描述特征:在输入描述时,尽可能详细地描述黑沼爽子的外貌特征,包括发型(如黑色的长直发)、眼睛(如大而明亮的眼睛)、服装(如校服的款式和颜色)、表情(如羞涩的微笑)等。 3. 参考相关图片:如果可能,找到黑沼爽子的官方图片或其他粉丝绘制的作品,作为参考提供给 AI 绘画工具,以帮助其更好地理解您的需求。 4. 不断调整和优化:根据生成的初步结果,对描述进行调整和优化,例如修改某些特征的描述、增加更多细节等,以获得更符合您期望的图片。 需要注意的是,AI 绘画的结果可能会受到多种因素的影响,不一定能完全符合您的预期,但通过不断尝试和优化,您有机会获得较为满意的作品。
2024-10-17
有可以查询图片的快速方法吗?
以下为一些快速查询图片的方法: 1. 利用 Perplexity.AI 的 Search Images 功能:点击搜索结果旁的加号,可快速浏览并选择与主题紧密相连的图片资源。在挑选图片时,要避免使用带有水印、画质不清晰或分辨率较低的图片。图片出处主要在 twitter 和官方网站。 2. 对于 Midjourney 生成的图片: 作业 ID 是其唯一标识符,格式类似于 9333dcd0681e4840a29c801e502ae424,可以在图像文件名的第一部分、网站上的 URL 和图像文件名中找到。 在网页上,可通过选择...> Copy...>作业 ID 来在作品库中查找任何图像的作业 ID。 从 URL 中,可在打开作品的网页链接末尾找到 Job ID。 从文件名中,Job ID 在文件名的最后一部分。 使用表情符号✉️可以将已完成的作业发送到私信中,私信中将包括图像的 seed 号和作业 ID,但✉️表情符号只适用于您自己的作业。 3. 如果不喜欢用模板找封面图,可根据文章内容搜索匹配的封面。比如在公众号中搜索同行的封面,直接“拿来主义”。若文章正文里没有封面图,可用壹伴浏览器插件的“查看封面”按钮(需会员),或者使用秘塔 AI 搜索工具,输入文章链接获取封面。相关在线工具链接:https://www.mgpaiban.com/tool/wxfm.html ,为方便使用可将其收藏。
2024-10-16
有相关图片识别的相关知识和工具么?
以下是关于图片识别的相关知识和工具: 知识: 图片识别中,对于印刷体图片的识别,可能先将图片变为黑白、调整为固定尺寸,再与数据库对比得出结论。但实际情况复杂,存在多种字体、拍摄角度等例外情况,传统基于规则的方法不可行。 神经网络专门处理未知规则的情况,其发展得益于生物学研究支持和数学方向的指引,能处理如手写体识别等未知情况。 图像融合是将两个或多个图像合成为一个新的图像,以获得更全面和丰富的信息,可通过像素级、特征级和决策级融合等技术实现,在多个领域有应用。 目标检测是在图像或视频中准确识别和定位特定对象,多模态信息融合可提高其性能和鲁棒性。 工具和参考文献: 推荐阅读《这就是 ChatGPT》这本书,有助于深入了解相关内容。 以下是一些相关的参考文献: VisionLanguage Models for Vision Tasks:A Survey Visual Instruction Tuning towards GeneralPurpose Multimodal Model:A Survey ViTs are Everywhere:A Comprehensive StudyShowcasing Vision Transformers in Different Domain Multimodal Foundation Models:From Specialists to GeneralPurpose Assistants VisionLanguage Pretraining:Basics,Recent Advances,and Future Trends An Image is Worth 16x16 Words:Transformers for Image Recognition at Scale COGVLM:VISUAL EXPERT FOR LARGE LANGUAGE MODELS CogAgent:A Visual Language Model for GUI Agents AppAgent:Multimodal Agents as Smartphone Users Gemini:A Family of Highly Capable Multimodal Models QwenVL:A Versatile VisionLanguage Model for Understanding,Localization,Text Reading,and Beyond arxiv:ChatVideo:A Trackletcentric Multimodal and Versatile Video Understanding System arxiv:Video Understanding with Large Language Models:A Survey arxiv:Vid2Seq:LargeScale Pretraining of a Visual Language Model for Dense Video Captioning CSDN 博客:视频理解多模态大模型(大模型基础、微调、视频理解基础) CSDN 博客:逐字稿| 9 视频理解论文串讲(下)【论文精读】_视频理解论文串讲(下) Youtube:Twostream Convolutional Networks for Action Recognition in Videos arxiv:Is SpaceTime Attention All You Need for Video Understanding? 相关算法: 图像融合的相关算法有:小波变换、基于金字塔变换的多分辨率融合、基于区域的图像融合、基于特征的图像融合等。 目标检测的相关算法有:基于深度学习的目标检测算法(如 RCNN、Fast RCNN、Faster RCNN、YOLO、SSD 等)、基于传统计算机视觉技术的目标检测算法(如 HOG、SIFT、SURF 等)。
2024-10-16
现在最新的 AI 生成图片产品有哪些
目前最新的 AI 生成图片产品主要有以下这些: 1. Artguru AI Art Generator:在线平台,能生成逼真图像,为设计师提供灵感,丰富创作过程。 2. Retrato:AI 工具,可将图片转换为非凡肖像,有 500 多种风格供选择,适合制作个性头像。 3. Stable Diffusion Reimagine:新型 AI 工具,通过稳定扩散算法生成精细、具细节的全新视觉作品。 4. Barbie Selfie Generator:专为喜欢梦幻童话风格的人设计,能将上传的照片转换为芭比风格,效果出色。 此外,还有一些用于设计海报的 AI 产品: 1. Canva(可画):https://www.canva.cn/ ,是受欢迎的在线设计工具,提供大量模板和设计元素,AI 功能可协助选择颜色搭配和字体样式。 2. 稿定设计:https://www.gaoding.com/ ,智能设计工具采用先进人工智能技术,自动分析和生成设计方案。 3. VistaCreate:https://create.vista.com/ ,简单易用的设计平台,提供大量设计模板和元素,用户可使用 AI 工具创建个性化海报,智能建议功能可帮助快速找到合适设计元素。 4. Microsoft Designer:https://designer.microsoft.com/ ,通过简单拖放界面,可快速创建演示文稿、社交媒体帖子等视觉内容,集成丰富模板库和自动图像编辑功能。 以下是图像生成的 Top30 AI 产品数据: |排名|产品名|分类|6 月访问量(万 Visit)|相对 5 月变化| |||||| |1|Adobe firefly|图像生成|28890|0.053| |2|Freepik|图像生成|8341|0.076| |3|Shutterstock|图像生成|6389|0.068| |4|Civitai|图像生成|2592|0.046| |5|Leonardo.Ai|图像生成|1680|0.027| |6|Midjourney|图像生成|1673|0.109| |7|Yodayo|图像生成|1554|0.044| |8|Ideogram|图像生成|1140|0.081| |9|Picsart Al|图像生成|1103|0| |10|Sea Art AI|图像生成|912|0.018| |11|PixAI|图像生成|899|0.07| |12|Openart|图像生成|650|0.074| |13|NovelAI|图像生成|639|0.052| |14|Playground|图像生成|631|0.065| |15|Krea|图像生成|611|0.119| |16|nightcafe|图像生成|606|0.039| |17|Media.io|图像生成|551|0.086|
2024-10-16
如何让kimi准确理解我需要它干的事
要让 Kimi 准确理解您需要它干的事,以下是一些关键要点: 1. 提供更多关于任务和要求的详细具体上下文信息。例如,明确您的角色(如幼儿园老师、初中语文教师等)、具体任务(如设计、总结等)、要求(如用表格输出、800 字等)、说明(如给出修改的建议、更详细的描述等)。 2. 对于教学相关的任务,如让学生掌握课文重点词汇和句式、提高文言文阅读能力、了解历史和作者写作意图、理解文言文字词和语法现象、把握作者观点、涵养精神品格等,要清晰地表述这些目标和期望。 3. 把 Kimi 想象成您的助理/伙伴/下属,以更明确地传达任务和要求。 4. 对于回答的形式和流程,如用户输入、AI 输出、排版等,也需要给出明确指示。 5. 当作为微信群里的教师回答学生提问时,要准确回答有信心的内容,对于条件不充分的提问可要求提供更多信息,回答尽量通俗易懂,可使用合适隐喻方便零基础学生理解。
2024-10-16
我想找一些具有「图片理解」能力的模型,最好是国内的
以下是一些具有“图片理解”能力的国内模型: 1. Gemini 模型:在各种图像理解基准测试中表现出色,如在表 7 中的各项测试中是最先进的,在回答自然图像和扫描文档的问题,以及理解信息图表、图表和科学图解等任务中性能强大。在 zeroshot 评估中表现优于其他模型,在多学科的 MMMU 评估基准测试中也取得了最好的分数。 2. 国内大模型: 北京企业机构:百度(文心一言)https://wenxin.baidu.com 、抖音(云雀大模型)https://www.doubao.com 、智谱 AI(GLM 大模型)https://chatglm.cn 、中科院(紫东太初大模型)https://xihe.mindspore.cn 、百川智能(百川大模型)https://www.baichuanai.com/ 上海企业机构:商汤(日日新大模型)https://www.sensetime.com/ 、MiniMax(ABAB 大模型)https://api.minimax.chat 、上海人工智能实验室(书生通用大模型)https://internai.org.cn 3. 智谱·AI 开源模型: CogAgent18B:基于 CogVLM17B 改进的开源视觉语言模型,拥有 110 亿视觉参数和 70 亿语言参数,支持 11201120 分辨率的图像理解,具备 GUI 图像的 Agent 能力。 CogVLM17B:强大的开源视觉语言模型,在多模态权威学术榜单上综合成绩第一,在 14 个数据集上取得了 stateoftheart 或者第二名的成绩。 Visualglm6B:开源的支持图像、中文和英文的多模态对话语言模型,语言模型基于 ChatGLM6B,具有 62 亿参数;图像部分通过训练 BLIP2Qformer 构建起视觉模型与语言模型的桥梁,整体模型共 78 亿参数。 RDM:Relay Diffusion Model,级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。
2024-10-16
哪个国产ai对英文的理解最正确
目前国产 AI 中,在对英文的理解方面,以下两款产品具有一定特点: 1. 通义万相:在中文理解和处理方面表现出色,是阿里生态系统的一部分,可与其他产品和服务无缝整合。但在处理非中文语言或国际化内容方面可能不如一些国际 AI 图像生成工具出色,由于模型训练数据可能主要基于中文环境,在处理多元文化内容时可能存在偏差。 2. Kimi 智能助手:是 ChatGPT 的国产平替,不用科学上网、不用付费、支持实时联网,是国内最早支持 20 万字无损上下文的 AI,也是目前对长文理解做的最好的 AI 产品,能一次搜索几十个数据来源,无广告,能定向指定搜索源。
2024-09-16
英语理解哪个ai最好
以下是一些用于英语理解的优秀 AI 工具: 1. 语法纠错和写作辅助:Grammarly 可以帮助改进英语表达和写作能力。 2. 语音识别和发音练习:Call Annie 可用于口语练习和发音纠正,提供实时反馈和建议。 3. 自适应学习平台:Duolingo 利用 AI 技术为您量身定制学习计划,提供个性化的英语学习内容和练习。 4. 智能导师和对话机器人:ChatGPT 可进行英语会话练习和对话模拟,提高交流能力和语感。
2024-09-16
神经网络的简单理解
神经网络是一种模仿生物神经网络结构和功能的数学模型或计算模型,用于分析图像、视频、音频和文本等复杂数据类型。 对于不同类型的数据有专门优化的神经网络,如分析图像时常用卷积神经网络,其模仿人脑处理视觉信息的方式。 在 2017 年推出 Transformer 之前,理解文本常用循环神经网络。而 Transformer 完全基于自注意力机制处理序列数据,比 RNN 更适合处理文本的长距离依赖性,在处理每个词时会注意输入序列里所有其他的词,并给予不同的注意力权重以捕获依赖关系和相关性,且具有自注意力机制和位置编码(因语言顺序很重要)。 神经网络由大量人工神经元联结进行计算,大多数情况下能在外界信息基础上改变内部结构,是一种自适应系统,具备学习功能。它是一种非线性统计性数据建模工具,通常通过基于数学统计学类型的学习方法得以优化,也是数学统计学方法的实际应用,能通过统计学方法让人 工神经网络具有类似人的简单决定和判断能力,这种方法比正式的逻辑学推理演算更具优势。 神经网络可用于监督学习、无监督学习、强化学习。
2024-09-06
有哪些视频、音频、图片理解的大模型?开源的有没有
以下是一些视频、音频、图片理解的大模型: 视频生成音效模型已开源。 Sheet Music Transformer:超越单音转录的端到端光学音乐识别。 AnyGPT:具有离散序列建模的统一多模态大型语言模型。 腾讯与新加坡国立大学发布 M2UGen。 此外,在多模态成为大模型标配的趋势下,以下大模型在视频和图片理解方面表现出色: OpenAI 的产品在从语言处理到图片、视频、声音的理解方面有不断发展,如 Sora 工具,其背后体现了 OpenAI 对视频的阅读、解读和分析能力的提升。 Meta 发布的 VJEPA 是基于世界模型打造的多模态模型。 Google 的 Gemini 号称具有强大的对视频和图片的深入解读能力。 Stable Diffusion 发布的最新版本也具有强大的对视频和图片的理解能力。
2024-08-30
如何用AI帮助学习英语的听书读写能力
以下是使用 AI 帮助学习英语听说读写能力的方法: 一、智能辅助工具 1. 利用 AI 写作助手(如 Grammarly)进行英语写作和语法纠错,帮助改进英语表达和写作能力。 2. 使用语音识别应用(如 Call Annie)进行口语练习和发音纠正,获取实时反馈和建议。 二、自适应学习平台 1. 使用自适应学习平台(如 Duolingo),其利用 AI 技术为您量身定制学习计划,提供个性化的英语学习内容和练习。 三、智能导师和对话机器人 1. 利用智能对话机器人(如 ChatGPT)进行英语会话练习和对话模拟,提高交流能力和语感。 四、语言学习平台 1. FluentU:使用真实世界的视频,通过 AI 生成个性化的词汇和听力练习。选择学习语言,观看视频并完成相关练习,积累词汇和提升听力理解能力。 2. Memrise:结合 AI 技术,根据学习者的记忆曲线提供复习和练习,增强记忆效果。选择学习语言,使用应用提供的词汇卡和练习进行学习。 五、发音和语法检查 1. Speechling:提供口语练习和发音反馈,帮助学习者改进口音和发音准确性。录制语音,提交给 AI 系统或人类教练,获取反馈和改进建议。 2. Grammarly:可以帮助提高写作的语法和词汇准确性,支持多种语言。将写作内容粘贴到 Grammarly 编辑器中,获取语法和词汇改进建议。 六、实时翻译和词典工具 1. Google Translate:提供实时翻译、语音输入和图像翻译功能,适合快速查找和学习新词汇。输入或语音输入需要翻译的内容,查看翻译结果和示例句子。 2. Reverso Context:提供单词和短语的翻译及上下文例句,帮助理解和学习用法。输入单词或短语,查看翻译和例句,学习实际使用场景。 七、学习方法建议 1. 设定目标:明确学习目标和时间表,分阶段完成学习任务。 2. 多样化练习:结合听、说、读、写多种方式进行练习,全面提升语言技能。 3. 模拟真实环境:尽量多与母语者交流,或使用 AI 对话助手模拟真实对话场景。 4. 定期复习:使用 AI 工具的复习功能,根据记忆曲线定期复习已学内容,巩固记忆。 通过这些 AI 工具和方法,可以有效地学习英语,提升语言能力。坚持使用,并结合实际交流,不断进步。请注意,以上内容由 AI 大模型生成,请仔细甄别。
2024-10-18
a800 ,H100,a10,H800这4个显卡能力有啥差异
以下是 A800、H100、A10、H800 这 4 个显卡在能力上的一些差异: 在训练与推理方面: 对于大型模型的训练,许多模型在 NVIDIA H100 上最具成本效益,但获取在 NVIDIA H100 上运行的模型较难,且通常需要长期合作承诺。如今更多的选择是在 NVIDIA A100 上运行大多数模型训练,但对于大型集群仍需要长期承诺。 大型语言模型(LLM)的参数数量众多,通常需要分布到多个卡中,即使进行 LLM 推理,可能也需要 H100 或 A100。但较小的模型(例如 Stable Diffusion)需要的 VRAM 要少得多,初创公司也会使用 A10 等显卡。 在内存要求方面: 大型 LLM 的参数数量太多,任何单卡都无法容纳,需要类似于训练的多卡设置。 对于一些较小的模型,A10 等显卡可能就能够满足其内存需求。 需要注意的是,决定选择哪种 GPU 主要是一个技术决策,需要根据具体应用来确定最具成本效益的选择。
2024-10-16
我认为我的对话和沟通与面试能力需要提升,我认为ai可以帮助我,我要让ai成为我的训练搭档与讲师。要怎么做?
以下是一些利用 AI 提升对话和沟通与面试能力的建议: 1. 采用“我说你听”的方式:向 AI 请教具体问题,例如“请告诉我面试中如何有效回答常见问题”“沟通时怎样更好地理解对方意图”等。大多数情况下,您无需深入了解相关知识的细节,只需告诉 AI 您的目标,它会提供解决方案。 2. 尝试“对话式编程”:与 AI 进行深度互动,而非简单地命令它执行任务。比如,对于提升沟通能力,您可以和它讨论“这种沟通方式是否有效”“有没有更高效的沟通策略”等,通过这种对话,AI 能为您带来更多创意和优化的可能。 3. 运用“我做你看”的方法:例如,您可以找一些优秀的面试或沟通案例发给 AI,让它参考并给出新的方案。但要注意,这种方式可能会构建信息茧房,限制探索其他可能。 需要注意的是,虽然 AI 能帮助您提升能力,但也不能过度依赖,以免导致基础知识的缺失,影响长期的能力发展。建议将 AI 作为学习工具,结合自身的思考和实践来不断进步。
2024-10-14
现在的大模型应用都没有记忆能力需要在每次调用时输入上下文?
目前的大模型应用本质上通常没有直接的记忆功能。以 ChatGPT 为例,它能理解用户的交流内容并非因为自身具备记忆能力,而是每次将之前的对话内容作为新的输入重新处理。这种记忆功能实际上是通过在别处进行存储来实现的。 对于大模型的工作原理,在回复时是一个字一个字地推理生成内容,会根据输入的上下文来推测下一个字。但大模型的学习数据规模庞大,若每次计算都带入全量数据,算力难以承受,且仅算字的概率容易受不相干信息干扰,词向量机制和 transformer 模型中的 attention 自注意力机制解决了这些难题。 另外,系统的内存是大模型的上下文窗口,如 Google Gemini 1.5 Pro 实验版已将其提升到一千万。但窗口越大推理越慢,且模型可能失焦降低准确度,研发团队需平衡吞吐量、速度和准确度。在模型外,操作系统的其他部件如文件系统能让模型具备无限记忆的能力,而大模型应用领域常用的方法如 RAG 能让模型用自定义数据生成结果,处理无尽的私有数据。
2024-10-08
小白如何系统自学Ai,并达到变现的能力
对于小白如何系统自学 AI 并达到变现的能力,以下是一些建议: 1. 明确学习目的: 如果学习提示词有具体小目标,如 AI 写作优化、职场提升效率等,且需求具体、对提示词运用需求不高,可不买贵的深度学习课程,考虑针对目标的 AI 课,如 AI 写作、AI 编程、AI 办公效率优化等,将提示词作为工具理解掌握。 如果学习提示词是为了变现,要先思考自身能力和资源优势,能否找到变现路径,如个人客订提示词、提示词工具封装、为特定场景企业客户做批量定制提示词赋能、为熟悉人群做特定工具等。若有清晰方案,可深度学习提示词,还能结识同行助力未来业务,开拓视野。 2. 评估自学能力: 自学能力强,能毫无压力看文档、论文,掌握方法技巧,通过观察他人作品模仿出符合需求的提示词且感觉够用,可不付费学习,但建议多与提示词编写者交流。 此外,从小白学代码开发应用的角度看,像纯小白通过 AI 开发应用时可能会遇到挫折,如问题描述不清导致理解偏差、AI 给出的方案复杂或代码正确但配置错误等。因此,小白需要通过能直接搞定的小项目先学明白背后原理,开发复杂项目时最好有人类导师把任务拆解到足够小,针对性设计学习路径并随时提供帮助。
2024-10-03