Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

国内做视觉理解的大模型厂商有哪些

Answer

国内做视觉理解的大模型厂商有以下这些:

  • 北京:
    • 百度(文心一言):https://wenxin.baidu.com
    • 抖音(云雀大模型):https://www.doubao.com
    • 智谱 AI(GLM 大模型):https://chatglm.cn
    • 中科院(紫东太初大模型):https://xihe.mindspore.cn
    • 百川智能(百川大模型):https://www.baichuan-ai.com
  • 上海:
    • 商汤(日日新大模型):https://www.sensetime.com
    • MiniMax(ABAB 大模型):https://api.minimax.chat
    • 上海人工智能实验室(书生通用大模型):https://intern-ai.org.cn

此外,在 0 基础手搓 AI 拍立得的模型供应商选择中,还有以下视觉类大模型厂商:

  • 智谱 GLM-4V:通用视觉类大模型,拍立得最早使用的模型,接口响应速度快,指令灵活性差一些,一个接口支持图片/视频/文本,视频和图片类型不能同时输入,调用成本为 0.05 元/千 tokens,智谱接口调用示例
  • 阿里云百炼 qwen-vl-plus:通用视觉类大模型,拍立得目前使用的模型,指令灵活性比较丰富,接口调用入门流程长一些,密钥安全性更高,调用成本为¥0.008/千 tokens,训练成本为¥0.03/千 tokens,通义千问接口调用示例
  • 阶跃星辰:通用视觉类大模型,响应速度快,支持视频理解,输入成本为¥0.005~0.015/千 tokens,输出成本为¥0.02~0.07/千 tokens,阶跃星辰接口调用示例
  • 百度 PaddlePaddle:OCR,垂直小模型,文本识别能力补齐增强,私有化部署服务费,API 调用在¥0.05~0.1/次,Paddle OCR 开源地址
Content generated by AI large model, please carefully verify (powered by aily)

References

8月正式上线的国内大模型

5⃣️五家北京企业机构:百度(文心一言)https://wenxin.baidu.com抖音(云雀大模型)https://www.doubao.com智谱AI(GLM大模型)https://chatglm.cn中科院(紫东太初大模型)https://xihe.mindspore.cn百川智能(百川大模型)https://www.baichuan-ai.com/3⃣️三家上海企业机构:商汤(日日新大模型)https://www.sensetime.com/MiniMax(ABAB大模型)https://api.minimax.chat上海人工智能实验室(书生通用大模型)https://intern-ai.org.cn今天这8个大模型,在聊天状态下——能生成Markdown格式的:智谱清言、商量Sensechat、MiniMax目前不能进行自然语言交流的:昇思(可以对文本进行是否由AI生成的检测,类似论文查重,准确度不错)、书生受限制使用:MiniMax(无法对生成的文本进行复制输出,且只有15元的预充值额度进行体验,完成企业认证后可以进行充值)特色功能:昇思——生图,MiniMax——语音合成阿里通义千问、360智脑、讯飞星火等均不在首批获批名单中,广东省2家和其他省市1家也将陆续开放据悉,广东地区获批公司分别为华为、腾讯,科大讯飞系其他地区获批产品

8月正式上线的国内大模型

|模型名字|logo|所属公司|首页|链接||-|-|-|-|-||文心一言||百度||[https://wenxin.baidu.com/](https://wenxin.baidu.com/)||云雀大模型(豆包)||抖音||[https://www.doubao.com/](https://www.doubao.com/)||GLM大模型(智谱清言)||智谱AI||[https://chatglm.cn/](https://chatglm.cn/)||紫东太初大模型||中科院||[https://xihe.mindspore.cn/modelzoo/taichu/introduce](https://xihe.mindspore.cn/modelzoo/taichu/introduce)||百川大模型||百川智能||[https://www.baichuan-ai.com/](https://www.baichuan-ai.com/)|[heading2]获批的三家上海企业机构:[content]|模型名字|logo|所属公司|首页|链接||-|-|-|-|-||日日新大模型||商汤||[https://www.sensetime.com/](https://www.sensetime.com/)||ABAB大模型||MiniMax||[https://api.minimax.chat/](https://api.minimax.chat/)||书生通用大模型||上海人工智能实验室||[https://intern-ai.org.cn/](https://intern-ai.org.cn/)|[heading2]国内大模型厂商列表[heading2]AI生态大图:[content]http://waytoagi.wiki/

0基础手搓AI拍立得

用成本相对较高,大家可以选择以下供应商中|模型厂商|类型|特点|成本|网址/文档||-|-|-|-|-||智谱<br>GLM-4V|通用视觉类大模型|拍立得最早使用的模型<br>接口响应速度快<br>指令灵活性差一些<br>一个接口支持图片/视频/文本,视频和图片类型不能同时输入|调用:0.05元/千tokens|[智谱接口调用示例](https://bigmodel.cn/dev/api/normal-model/glm-4v)||阿里云百炼<br>qwen-vl-plus|通用视觉类大模型|拍立得目前使用的模型<br>指令灵活性比较丰富<br>接口调用入门流程长一些,密钥安全性更高|调用:¥0.008/千tokens<br>训练:¥0.03/千tokens|[通义千问接口调用示例](https://bailian.console.aliyun.com/?spm=5176.21213303.J_qCOwPWspKEuWcmp8qiZNQ.33.14162f3drQWnj1&scm=20140722.S_card@@%E4%BA%A7%E5%93%81@@2983180._.ID_card@@%E4%BA%A7%E5%93%81@@2983180-RL_%E7%99%BE%E7%82%BC%E5%A4%A7%E6%A8%A1%E5%9E%8B-LOC_search~UND~card~UND~item-OR_ser-V_3-RE_cardNew-P0_0#/model-market/detail/qwen-vl-plus?tabKey=sdk)||阶跃星辰|通用视觉类大模型|响应速度快<br>支持视频理解|输入:¥0.005~0.015/千tokens<br>输出:¥0.02~0.07/千tokens|[阶跃星辰接口调用示例](https://platform.stepfun.com/docs/guide/image_chat)||百度PaddlePaddle|OCR,垂直小模型|文本识别能力补齐增强|私有化部署服务费<br>API调用在¥0.05~0.1/次|[Paddle OCR开源地址](https://github.com/PaddlePaddle/PaddleOCR)|

Others are asking
人类接收外界信息的感官中,视觉占比高达83%,听觉占11%,其余触觉、嗅觉、味觉合计仅占6%。如何采用用AI画出图示呢
以下为您提供采用 AI 画出关于人类接收外界信息感官占比图示的相关指导: 首先,您可以选择合适的 AI 绘图工具,如 Creately、Whimsical 或 Miro 等。 Creately 是一个在线绘图和协作平台,利用 AI 功能简化图表创建过程,适合绘制流程图、组织图、思维导图等。它具有智能绘图功能,能自动连接和排列图形,还有丰富的模板库和预定义形状,支持实时协作。官网:https://creately.com/ Whimsical 是一个专注于用户体验和快速绘图的工具,适合创建线框图、流程图、思维导图等。其具有直观的用户界面,易于上手,支持拖放操作,快速绘制和修改图表,提供多种协作功能。官网:https://whimsical.com/ Miro 是一个在线白板平台,结合 AI 功能,适用于团队协作和各种示意图绘制,如思维导图、用户流程图等。它支持无缝协作,支持远程团队实时编辑,有丰富的图表模板和工具,还支持与其他项目管理工具(如 Jira、Trello)集成。官网:https://miro.com/ 使用这些工具绘制图示的一般步骤如下: 1. 选择工具:根据您的具体需求选择合适的 AI 绘图工具。 2. 创建账户:注册并登录该平台。 3. 选择模板:利用平台提供的模板库,选择一个适合您需求的模板。 4. 添加内容:根据您的需求,添加并编辑图形和文字。利用 AI 自动布局功能优化图表布局。 5. 协作和分享:如果需要团队协作,可以邀请团队成员一起编辑。完成后导出并分享图表。
2025-02-28
视觉理解技术最新动态和趋势
以下是视觉理解技术的最新动态和趋势: 一、视觉分析技术 1. Transformer 视觉模型优点 2. Transformer 视觉模型的局限 二、图像语言模型 三、视频语言模型 四、LLM 多模态 Agent 五、应用场景 1. 多模态内容理解与处理 2. 智能交互与自动化 3. 具身智能 4. 未来发展趋势(2024 ?) 5. 视频生成模型 mapping 六、未来发展方向 1. 技术路径而言:利用预训练 LLMs 进行指令调整 最初,多模态融合方法常采用预训练的目标检测器,如 ViLBERT、VisualBERT 和 UnicoderVL,通过提取图像特征和执行交叉模态预训练任务,为后续的图像 文本任务奠定基础。 随着 ViT 的出现和普及,更多方法开始利用 ViT 作为图像编码器,强调大规模预训练,以提高模型的性能和泛化能力,例如 Flamingo。 近期,向多模态 LLMs 发展,从进行预训练到向指令调整(instruction tuning)转变,如 LLaVA 和 MiniGPT4,融合视觉和语言信息,能更有效地完成视觉理解相关任务,提升模型对于指令的理解能力和零样本性能,更好地泛化到未见过的任务和领域。 2. 应用场景而言:赋予机器理解多模态的能力 此外,李飞飞在 2015 年的 TED 演讲《我们怎么教计算机理解图片?》中提到了计算机视觉方面的研究进展,指出虽然在科技上取得了很多进步,但在计算机视觉方面仍存在一些问题,如自动驾驶车辆的视觉敏锐度、向盲人传递画面、无人机的视觉技术等。
2025-01-10
有没有视觉识别的模型
以下是一些视觉识别的模型: 1. siglipso400mpatch14384:由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容(如物体、场景、颜色、纹理等)、将这些视觉信息编码成一组特征向量。可在 ComfyUI\models\clip 中下载,若因环境问题,也可在网盘中下载。下载好后,目录的文件包括 image_adapter.pt(适配器),其连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征使其适合语言模型处理、进行一些特定任务的优化或微调(如图片到文字)。可通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,若该文件夹不存在,新建一个。 2. Comfyui IPAdapter 中的图像模型: ,下载并重命名。 ,下载并重命名。下载后放入/ComfyUI/models/clip_vision。需要注意的是,clip vison 只能编码 224x224 大小的正方形图片,后续使用时若图片不是正方形,需进行裁剪。
2024-12-19
我想找关于视觉识别相关的api
很抱歉,目前知识库中没有关于视觉识别相关 API 的具体信息。但您可以通过以下途径寻找: 1. 一些知名的云服务提供商,如阿里云、腾讯云、百度云等,它们通常提供视觉识别相关的 API 服务。 2. 专门的人工智能和计算机视觉技术公司的官方网站,可能会有相关的 API 介绍和使用文档。 3. 技术社区和开发者论坛,例如 CSDN、掘金等,您可以在这些地方与其他开发者交流,获取相关的推荐和经验分享。
2024-12-19
有哪些好的将文本转换为视觉的AI工具
以下是一些将文本转换为视觉的 AI 工具: 1. Pika:出色的文本生成视频 AI 工具,擅长动画制作,支持视频编辑。 2. SVD:Stable Diffusion 的插件,可在图片基础上生成视频,由 Stability AI 开源。 3. Runway:老牌 AI 视频生成工具,提供实时涂抹修改视频功能,但收费。 4. Kaiber:视频转视频 AI,能将原视频转换成各种风格的视频。 5. Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 6. Napkin AI:将文本内容转换为视觉图像,生成图表、流程图等,可编辑和个性化设计元素,并导出多种格式。 7. Trellis AI:能从非结构化内容中提取数据,将复杂数据源高效转换成结构化的 SQL 格式。 更多的文生视频的网站可以查看:https://www.waytoagi.com/category/38 。 此外,在软件架构设计中,以下工具可用于绘制逻辑视图、功能视图和部署视图: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建。 2. Visual Paradigm:全面的 UML 工具,提供多种架构视图创建功能。 3. ArchiMate:开源建模语言,与 Archi 工具配合使用支持逻辑视图创建。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持多种架构视图创建。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板。 6. draw.io(现称 diagrams.net):免费在线图表软件,支持多种图表创建。 7. PlantUML:文本到 UML 转换工具,可自动生成多种视图。 8. Gliffy:基于云的绘图工具,提供架构图创建功能。 9. Archi:免费开源工具,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持多种视图创建。
2024-12-12
(defun 生成记忆卡片 (单词) "生成单词记忆卡片的主函数" (let* ((词根 (分解词根 单词)) (联想 (mapcar #'词根联想 词根)) (故事 (创造生动故事 联想)) (视觉 (设计SVG卡片 单词 词根 故事))) (输出卡片 单词 词根 故事 视觉))) (defun 设计SVG卡片 (单词 词根 故事) "创建SVG记忆卡片" (design_rule "合理使用负空间,整体排版要有呼
以下是关于生成记忆卡片和 SVG 卡片的相关信息: 卡片类的应用被定义为词生卡片,如李继刚的《汉语新解》、一泽的《名片设计》、云中江树的《AI 简历》等,都是通过给大模型优化过的 Prompt,让其生成 HTML 代码或 SVG 代码,再通过浏览器渲染效果。 把提示词丢给 Claude ,如在 Poe 平台上的 Claude 模型,大概率会直接输出 SVG 代码,但对于子步骤是否执行等情况难以知晓。Andrej Karpathy 认为,模型需要 tokens 来思考,如果大语言模型未将思考过程外化,则几乎等于没思考。 甲木介绍了让 Claude 生成古诗词卡片的方法,流程包括输入 Prompt 、用户输入主题和风格,AI 输出最终结果。获取提示词已开源,创作过程主要是根据给定主题和方向生成匹配的中国古诗词,创建设计感强烈、富有中国传统美学的 SVG 卡片展示诗词,并提供相关信息,还支持根据用户提供的主题和方向生成对应语境的 prompt 并配图生成 SVGCard 。但对于“逼格高”的看法因人而异,可将选择权交给 AI 。
2024-11-28
WayToAGI是什么?是哪家厂商做的?
WaytoAGI 直译就是通往 AGI 之路,它是一个自组织的AI社区,发起人是 AJ 和轻侯。AGI 指通用人工智能。
2024-09-29
国内大模型厂商对比
以下是国内大模型厂商的相关情况: 8 月正式上线的国内大模型: 北京的五家企业机构: 百度(文心一言):https://wenxin.baidu.com 抖音(云雀大模型):https://www.doubao.com 智谱 AI(GLM 大模型):https://chatglm.cn 中科院(紫东太初大模型):https://xihe.mindspore.cn 百川智能(百川大模型):https://www.baichuanai.com/ 上海的三家企业机构: 商汤(日日新大模型):https://www.sensetime.com/ MiniMax(ABAB 大模型):https://api.minimax.chat 上海人工智能实验室(书生通用大模型):https://internai.org.cn 聊天状态下能生成 Markdown 格式的:智谱清言、商量 Sensechat。 目前不能进行自然语言交流的:昇思(可以对文本进行是否由 AI 生成的检测,类似论文查重,准确度不错)。 受限制使用的:MiniMax(无法对生成的文本进行复制输出,且只有 15 元的预充值额度进行体验,完成企业认证后可以进行充值)。 特色功能:昇思——生图,MiniMax——语音合成。 中文大模型基准测评 2023 年度报告中的情况: 从大厂和创业公司的平均成绩来看,大厂与创业公司差值约 6.33 分,较 11 月份差距在增大,说明大厂在大模型竞争中长期资源投入方面有一定优势。 过去八个月国内模型在 SuperCLUE 基准上的前三名: 12 月:文心一言 4.0 11 月:文心一言 4.0 10 月:BlueLM 9 月:SenseChat3.0 通过 SuperCLUE 测评结果发现,国内大模型的第一梯队有了更多新的模型加入。头部模型如文心一言 4.0、通义千问 2.0 引领国内大模型的研发进度,部分高质量大模型紧追不舍,分别在闭源应用和开源生态中形成自己独特的优势。 从国内 TOP19 大模型的数量来看,创业公司和大厂的占比几乎持平。
2024-08-30
智谱跟其他厂商的差异和优势是什么
智谱与其他厂商的差异和优势主要体现在以下几个方面: 1. 模型研发:一年间推出了 4 代 GLM,一直是国内能力最好的模型之一。22 年就和清华一起自研了 GLM130B。 2. 技术来源:由清华大学计算机系技术成果转化而来,背后有清华大学研发团队的科研成果支持。 3. 产品设计:以 ChatGPT 为对标,努力打造类似的用户体验。 4. 智能体应用:是国内首批开放智能体应用的 AI 公司之一,在智能体开发和模型优化方面积累了丰富经验和技术。 5. 性能表现:在逻辑推理和处理复杂提示词方面表现出明显优势,在处理需要深度思考和分析的任务时表现出色。 6. 产品体系:合作研发了双语千亿级超大规模预训练模型 GLM130B,并构建了高精度通用知识图谱,形成数据与知识双轮驱动的认知引擎。基于此模型打造了 ChatGLM,还推出了认知大模型平台 Bigmodel.ai,包括 CodeGeeX 和 CogView 等产品,提供智能 API 服务。
2024-08-30
ai模型chatglm,百川大模型,通义千问,yi系列的模型厂商和团队背景,ai产品调用api的成本
以下是关于您提到的 AI 模型的厂商和团队背景以及 AI 产品调用 API 成本的相关信息: 厂商和团队背景: 通义千问:由阿里开发,接口可在 https://dashscope.console.aliyun.com/ 创建 API key。 智谱 AI(ChatGLM):由智谱 AI 开发,相关网址为 https://chatglm.cn 。 百川大模型:由百川智能开发,网址为 https://www.baichuanai.com/ 。 关于 AI 产品调用 API 的成本: 目前国内的大模型大多限制一定免费额度的 Token,各平台 API 调用计费是按计算 token 费率定价,具体收费标准不同,需自行留意对应官网。例如 GPT3.5、GPT4、文心一言、讯飞星火、通义千问、mimimax 等,收费标准不一,不做统一赘述。
2024-08-20
ai模型chatglm,百川大模型,通义千问,yi系列的模型厂商和团队背景,ai产品调用api的成本
以下是关于您提到的 AI 模型的厂商和团队背景以及 AI 产品调用 API 成本的相关信息: 厂商和团队背景: 通义千问:由阿里开发,接口可在 https://dashscope.console.aliyun.com/ 创建 API key。 智谱 AI(ChatGLM):由智谱 AI 开发,相关网址为 https://chatglm.cn 。 百川大模型:由百川智能开发,网址为 https://www.baichuanai.com/ 。 关于 AI 产品调用 API 的成本: 目前国内的大模型大多限制一定免费额度的 Token,各平台 API 调用计费是按计算 token 费率定价,具体收费标准不同,需自行留意对应官网。例如 GPT3.5、GPT4、文心一言、讯飞星火、通义千问、mimimax 等,收费标准不一,不做统一赘述。
2024-08-20
我想知道大模型厂商内置的提示词一般都有多少个字比较合理?并给出数据来源
大模型厂商内置的提示词字数并没有一个固定的标准,其合理性取决于多种因素。 一般来说,提示词的字数可能寥寥无几,但更多时候需要提供详尽的上下文和相关细节。例如,在要求 GPT 删除个人信息的官方示例中,提示词包括背景、定义术语、给出模型应如何完成任务的具体细节等多个方面。 在一些经验分享中提到,提示词中的示例 5 6 个效果最佳。同时,提示词的整体结构需要调整和优化,除了技能外还应有完整的工作流程设定,角色信息中的人设应特点鲜明,避免同质化。还需注意避免矛盾和重复的提示词内容,可通过调整提示词顺序的方法提高重要指令的权重。 数据来源包括胡凯翔基于阅读 Claude Cookbook 的思考和测试、Agent 共学“谁是人类”活动参赛心得分享等。
2024-08-20
我想整理现在国内和国外的大语言模型产品并需要你整理差异还有时间轴
以下是对国内外大语言模型产品的整理及差异: 国内大语言模型: 通用模型:如文心一言、讯飞星火等,能够处理自然语言。 垂直模型:专注于特定领域,如小语种交流、临床医学、AI 蛋白质结构预测等。 具有代表性的项目:“悟道・天鹰”(北京智源人工智能研究院)是首个具备中英文双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型;文心一言(百度)可用以文学创作、商业文案创作、数理逻辑推算、中文理解、多模态生成。 国外大语言模型: 具有代表性的项目:GPT4(OpenAI)是目前最先进的自然语言生成模型,可用于回答问题、撰写文章等;Gemini Ultra(Google)是多模态人工智能模型,采用神经网络架构,对标 GPT4,可用于回答问题、生成代码、处理文本等;Claude 3 Opus(Anthropic)是多模态模型,能处理超过 1 百万 token 的输入,具有实时聊天、数据处理、分析预测等功能,实现了接近完美的召回率。 时间轴方面: 国内:去年 7 月大模型百花齐放。 国外:相关模型也在不断发展和更新。 在工作原理上,大语言模型通常包括训练数据、算力、模型参数等要素。在训练数据一致的情况下,模型参数越大能力越强。Transformer 架构是大语言模型训练的常见架构,具备自我注意力机制能理解上下文和文本关联。同时,大模型可能存在幻觉,即因错误数据导致给出错误答案,优质数据集对其很重要。此外,Prompt 分为 system prompt、user prompt 和 assistant prompt,写好 Prompt 的法则包括清晰说明、指定角色、使用分隔符、提供样本等。还可以基于通用大模型进行 Fine tuning 微调,以适应特定领域的需求。
2025-03-07
如何搭建大模型
搭建大模型需要注意以下几个方面: 1. 认识到开发大模型应用的复杂性,许多细节和阶段在实际操作中才会逐渐显现,因此并非易事。 2. 提示词设计需要精细工作,精心设计和调试是确保流程顺畅和应用有价值的关键,其直接影响模型输出质量和应用效果。 3. 构建有效的大型语言模型应用需要: 重视工程化,避免模型应用无法维护。 根据项目需求选择合适的开发框架。 了解业务深层次需求,设定流程环节以确保模型能解决实际问题。 在每个环节精心设计提示词,引导模型提供准确有用的回复。 确保应用在提供服务时遵守安全和伦理标准。 通过不断测试和迭代优化模型性能和用户体验。 成功部署后持续维护和更新,以适应需求变化。 掌握这些关键点,能确保构建的模型应用技术先进,真正解决用户问题并提供有价值的服务。此外,本次的彩蛋更新加入了“Emotion”字段,智能体构建专家会动态推理智能体情感设定,帮助制作更有情商的智能体。
2025-03-07
法律 大模型 都有哪些
以下是一些法律大模型: ChatLaw:由北大开源的一系列法律领域的大模型,包括 ChatLaw13B(基于姜子牙 ZiyaLLaMA13Bv1 训练而来)、ChatLaw33B(基于 Anima33B 训练而来,逻辑推理能力大幅提升)、ChatLawText2Vec。使用 93 万条判决案例做成的数据集基于 BERT 训练了一个相似度匹配模型,可将用户提问信息和对应的法条相匹配。地址:训练而来,中文各项表现很好,但逻辑复杂的法律问答效果不佳,需要用更大参数的模型来解决。
2025-03-07
不能用APP思维、传统数字平台思维去做大模型创业和人工智能创业,二者在底层逻辑和商业模式等方面完全不同
大模型创业和人工智能创业与 APP 思维、传统数字平台思维在底层逻辑和商业模式等方面存在显著差异。大模型和人工智能创业更注重数据的深度处理、算法的优化创新以及对复杂问题的解决能力。相比之下,APP 思维通常侧重于用户界面和功能的设计,以满足特定的用户需求;传统数字平台思维则更多关注平台的搭建和用户流量的获取与运营。在大模型和人工智能领域,技术的突破和创新是关键,需要投入大量资源进行研发,并且要面对更高的技术门槛和不确定性。而 APP 和传统数字平台的创业相对更侧重于市场推广和用户体验的优化。总之,不能简单地用 APP 思维和传统数字平台思维来指导大模型和人工智能创业。
2025-03-07
是否有可以免费使用的可以辅助机械设计的AI大模型
以下是一些可以免费使用且能辅助机械设计的 AI 大模型: 1. Trae 国内版:内置豆包 1.5 pro、DeepSeek 满血版等大模型,无限量免费使用。其作为 AI IDE,整体比插件好用,连接稳定快速,界面根据国内用户习惯定制。 2. 阿里的通义千问大模型:有免费接口,但可能存在一定的免费额度限制。 3. 智谱 AI(ChatGLM):有免费接口,同样可能有免费额度的限制。 4. 科大讯飞(SparkDesk):提供免费接口,可能有限制免费额度的 Token。 此外,谷歌的 Gemini 大模型和海外版 Coze 的 GPT4 模型免费且能图片识别,但使用时需要给服务器挂梯子。
2025-03-07
是否有可以免费使用的机械工程领域的AI大模型
目前有可以免费使用的机械工程领域相关的 AI 编程工具 Trae。 Trae 具有以下特点: 1. 国内版使用国内模型,连接稳定快速,界面根据国内用户习惯定制。 2. 内置豆包 1.5 pro、DeepSeek 满血版、Claude 3.5 等大模型,可无限量免费使用。 3. 具有完整的 IDE 功能,如代码编写、项目管理、插件管理、源代码管理等,并提供智能问答、实时代码建议、代码片段生成、从 0 到 1 开发项目等功能。 4. 全中文界面,支持 Windows 和 MacOS 系统,操作界面简洁直观,即使是技术小白也能快速上手。 5. 内置顶级 AI 模型免费畅享,如 Claude 3.5 和 GPT4o,完全免费且不限使用次数。 下载链接:https://sourl.co/2DCmmW 官方说明文档:https://docs.trae.ai/docs
2025-03-07
所以我可以理解为CNN是一种图像分类识别的AI算法技术吗
卷积神经网络(CNN)是一种用于图像分类识别的 AI 算法技术。 ImageNet 成为深度神经网络革命的首选数据集,其中由 Hinton 领导的 AlexNet 就是基于卷积神经网络(CNN)。自 2012 年以来,在深度学习理论和数据集的支持下,深度神经网络算法大爆发,包括卷积神经网络(CNN)等。 连接主义的全面逆袭从 2012 年开始,欣顿教授和他的学生建立的 AlexNet 就是使用反向传播算法训练的卷积神经网络(CNN),其在图像识别方面击败了当时最先进的逻辑程序。 虽然 CNN 模型取得了显著成果并解决了许多问题,但也存在一些缺陷,如不能从整幅图像和部分图像识别出姿势、纹理和变化,池化操作导致模型不具备等变、丢失很多信息,需要更多训练数据来补偿损失,更适合像素扰动极大的图像分类,对某些不同视角的图像识别能力相对较差。因此,在 2011 年,Hinton 和他的同事们提出了胶囊网络(CapsNet)作为 CNN 模型的替代。
2025-03-07
deepseek的论文里面讲的混合专家模型怎么理解
混合专家(MoE)模型是一种在深度学习中提升计算效率的架构。以 DeepSeek 为例,其最新模型 V3 与 R1 采用了这种架构。 在 DeepSeek 的 V3 模型中,引入了多头潜注意力(MLA),将 KV 缓存压缩至新低,从而提升了计算性能。R1 模型则通过强化学习激活推理能力,首次验证无需监督微调即可实现推理。 DeepSeek 的 2360 亿参数的 DeepSeekV2 是 60 位专家混合开源模型,在数学、编码和推理方面表现出色,具有 236B 参数,21B 在生成过程中被激活,在 MTBench 上表现优异,中文能力强且性价比高。 您可以通过以下链接获取更详细的介绍:https://xiaohu.ai/p/7468 、https://zhuanlan.zhihu.com/p/21208287743 。
2025-02-19
deepseek为什么在古诗词理解上这么弱智?
DeepSeek 在很多方面表现出色,并非像您认为的在古诗词理解上弱智。它具有以下优点: 1. 语气还原:能还原帝王的语气,相比其他模型输出更准确恰当,兼顾了古典文字和可读性。 2. 熟悉历史细节:可能与支持“深度探索”和“联网搜索”同时开启有关,能准确还原唐初的历史称谓,如“太极宫”“甘露殿”“掖庭局”“观音婢”“宫门鱼符”等,对“魏徵”等字词的使用也很讲究。 3. 输出具体且细节惊人:其输出充满具体而惊人的细节,行文的隐喻拿捏到位,如“狼毫蘸墨时发现指尖残留着未洗净的血痂”等句子,虽未直接写“愧疚与野心,挣扎与抱负”,但句句体现。
2025-02-18
如何理解Deepseek认知启发式的设计理念
DeepSeek 认知启发式的设计理念主要包括以下几个方面: 1. 将 Agent 封装成 Prompt,并将 Prompt 储存在文件中,以保证最低成本的人人可用,同时减轻调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,通过思考减轻 AI 味,增加可读性。 4. 参照大模型的 temperature 设计了阈值系统,但可能形式大于实质,后续可能根据反馈修改。 5. 用 XML 来进行更为规范的设定,而非 Lisp(有难度)和 Markdown(运行不太稳定)。 此外,DeepSeek 具有以下特点: AI 特性定位:支持多模态理解,包括文本/代码/数学公式混合输入;具备动态上下文,即对话式连续记忆(约 4K tokens 上下文窗口);具有任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 在提示词系统方面: 基础指令框架包括四要素模板、格式控制语法等。格式控制语法中,强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号中>表示关键要求,!表示禁止项。 进阶控制技巧包含思维链引导、知识库调用、多模态输出。思维链引导中有分步标记法和苏格拉底式追问;知识库调用中有领域限定指令和文献引用模式。 HiDeepSeek 是为解决使用 AI 工具时答案思考过程不可见的问题而设计的工具,其核心目标是让 AI 像人类交流时那样展示思考过程,在技术层面通过特别规则实现,例如要求 AI 思考像人类一样自然。它能帮助用户更好地理解和使用 AI,让 AI 成为更好的助手。
2025-02-11
扣子工作流上传图片并让AI理解图片内容
扣子工作流可以实现上传图片并让 AI 理解图片内容。具体步骤如下: 1. 上传输入图片:将本地图片转换为在线 OSS 存储的 URL,以便在平台中进行调用。 2. 理解图片信息,提取图片中的文本内容信息:通过封装的图片理解大模型和图片 OCR 等插件来实现。 3. 场景提示词优化/图像风格化处理。 4. 返回文本/图像结果。 在搭建工作流时,主要关注以下几个步骤: 1. 点击工作流后面的“➕”来添加一个工作流。 2. 点击创建工作流。 3. 给工作流起名字和描述,名字只能用字母、数字和下划线,描述清晰以便区分。 4. 初始化的工作流:左边有各种可用的插件和搭建 Agent 的工具,可通过点击加号或直接拖拽使用。插件一般有对应的参数说明,初始化后会生成开始模块和结束模块,且只能以开始模块启动,结束模块终结工作流。 此外,扣子平台具有以下特点和功能: 1. 集成了丰富的插件工具,包括资讯阅读、旅游出行、效率办公、图片理解等 API 及多模态模型,支持内置插件和自定义插件。 2. 提供简单易用的知识库功能来管理和存储数据,支持多种格式的数据上传,包括文本格式、表格格式,也支持本地文件和在线网页内容及 API JSON 数据的上传。 3. 具有持久化的记忆能力,可记住用户对话的重要参数或内容。 4. 工作流功能灵活,可通过拖拉拽的方式搭建处理逻辑复杂且稳定性要求高的任务流。
2025-02-10
长文本理解能里较强的AI
以下是一些长文本理解能力较强的 AI 模型: 1. 智谱·AI 的 ChatGLM26B32k:这是第二代 ChatGLM 长上下文对话模型,在 ChatGLM26B 的基础上进一步强化了对于长文本的理解能力,能够更好地处理最多 32K 长度的上下文。在实际使用中,如果上下文长度基本在 8K 以内,推荐使用 ChatGLM26B;如果需要处理超过 8K 的上下文长度,推荐使用 ChatGLM26B32K。此外,还有 ChatGLM26B32kint4 版本,它是 ChatGLM26B32K 的 int4 版本。 2. 通义千问的 Qwen2.51M:推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT4omini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速。首次将开源 Qwen 模型的上下文扩展到 1M 长度。在上下文长度为 100 万 Tokens 的大海捞针任务中,Qwen2.51M 能够准确地从 1M 长度的文档中检索出隐藏信息。其开源平台包括 Huggingface(https://huggingface.co/spaces/Qwen/Qwen2.51MDemo)和 Modelscope(https://www.modelscope.cn/studios/Qwen/Qwen2.51MDemo)。
2025-02-09