Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

介绍MCP的文件有哪些

Answer

以下是关于 MCP 的相关介绍文件:

  1. 官方文档:https://modelcontextprotocol.io/
  2. Cursor 文档中关于 MCP 的介绍:https://docs.cursor.com/context/model-context-protocol
  3. 社区网站:https://smithery.ai/

MCP 相关知识:

  1. MCP 本质是 Claude 官方推出的一个协议。纯 LLM 无法行动,MCP 工具可以充当其与现实世界交互的“手”,并反馈结果指导下一步行动。
  2. 模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景,可将其想象成 AI 领域的“USB-C 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。
  3. MCP 最早由 Anthropic 公司开发,现已成为开放协议,越来越多的企业和开发者开始采用。
  4. Anthropic 推出的 MCP 协议旨在规范和优化人工智能模型生成内容的方式,关注内容的安全性、合规性以及对用户的透明度,提供更为标准化的方法来管理 AI 模型输出。
Content generated by AI large model, please carefully verify (powered by aily)

References

Windsurf Wave3:MCP协议让AI直接读取控制台错误,自动化网页调试不用复制粘贴了!Tab智能跳转、Turbo模式。

简单点,纯LLM无法行动,MCP工具可以充当他的手帮他和现实世界交互,并且反馈结果给他,指导下一步行动。MCP本质就是前面Claude官方推出来的一个协议,然后,下面两个是MCP官方文档和Curosr关于MCP的介绍:https://modelcontextprotocol.io/注意图中圈出来的四个,注意第四个:你可以利用LLM构建MCP,当然大部分比较有用的社区给我们构建好了,后文会提到。Cursor文档中也有配置MCP的介绍:https://docs.cursor.com/context/model-context-protocol因为不久前,Cursor加入了MCP支持。你知道的,原生网页工具和文档工具可能不够完美。你可以添加Brave Search、Puppeteer和Sequential Thinking这样的MCP工具让调试和搜索变得更顺畅。而比较热门的Playwright CDP。可以让AI控制浏览器变得简单。它是mcp-playwright的升级版。通过Chrome DevTools协议,连接已有的Chrome实例。可以自动化浏览器任务。填表单,截图,导航网页。还能执行JavaScript,监控控制台日志。不用启动新的浏览器会话。直接接入现有工作流。对开发者来说,这是个强大的自动化工具。让LLM和浏览器无缝配合。API测试也变得更简单。是的,没错,网站开发神器,你不需要每次去控制台复制或截图错误给他,他自己看:我们现在介绍如何便捷使用社区已经存在的MCP工具。先来看第一个社区网站:https://smithery.ai/

什么是模型上下文协议(MCP)?它如何比传统API更简单地集成AI?

什么是模型上下文协议(MCP)?它如何比传统API更简单地集成AI?模型上下文协议(Model Context Protocol,简称MCP)是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。你可以把MCP想象成AI领域的“USB-C接口”,它能让不同的AI模型与外部工具和数据源轻松连接。本文将清晰地解释MCP的价值、工作原理,以及它与传统API的关键区别。[heading2]什么是MCP?[content]模型上下文协议(MCP)就像是为AI模型量身定制的“USB-C接口”,可以标准化地连接AI系统与各类外部工具和数据源。什么是MCP?就像USB-C接口让你的电脑更容易连接各种设备一样,MCP让AI模型更简单地获取数据、工具与服务。[heading2]为什么要用MCP,而不是传统的API?[content]通常,AI系统想连接外部工具时,需要单独整合多个不同的API。每个API都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。[heading3]为什么说传统API就像每扇门都有一把不同的钥匙?[content]打个比方:API就像不同的门,每扇门都需要自己的钥匙和特定的规则。为什么使用MCP而非传统API?传统的API要求开发者为每个服务或数据源单独编写代码和整合方案。[heading2]MCP背后是谁?[content]MCP最早由Anthropic↗[1]公司开发,目的是帮助AI模型(如Claude)更容易地连接工具和数据源。但现在,MCP已经成为一个开放协议,越来越多的企业和开发者开始采用它,这也让它逐渐成为AI与工具互动的新标准。

1月8日 社区动态速览

《[黄仁勋CES主题演讲完整内容:显卡、游戏、AI、自动驾驶、机器人、DGX](https://mp.weixin.qq.com/s/rHBRPXj5utZ5pdc_-6zDAg)》在CES 2025的主题演讲中,NVIDIA首席执行官黄仁勋回顾了公司发展历程,重点介绍了新一代RTX Blackwell显卡,支持AI与图形计算。演讲还涵盖了AI代理的应用及NVIDIA的Llama模型,强调其在企业中的潜力。此外,NVIDIA发布了物理AI基础模型Cosmos,以及与丰田的自动驾驶合作,展示了下一代汽车计算平台Thor的强大性能。《[已经验证了PMF的AI Coding,在国内的落地会有何不同?](https://mp.weixin.qq.com/s/KDeVGFgDbjS6RZUyx7kT6g)》2024年,AI编程领域如Cursor等公司迅速融资,显示出强劲的产品市场匹配(PMF)。AI助力代码生成,提升开发效率,正在改变程序员的工作习惯。技术的进步使得开发者能更快从0到1实现项目,市场空间大幅扩展。《[Anthropic新整的MCP协议是个啥?](https://mp.weixin.qq.com/s/blITLCReqoJKCogLc7kbfg)》Anthropic推出的MCP(Model Content Protocol)协议旨在规范和优化人工智能模型生成内容的方式。该协议关注内容的安全性、合规性以及对用户的透明度,旨在提供一种更为标准化的方法来管理AI模型输出。通过MCP,Anthropic希望提升用户体验,同时减少潜在的误用和风险。

Others are asking
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
MCP是什么
模型上下文协议(Model Context Protocol,简称 MCP)是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。 它就像为 AI 模型量身定制的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 MCP 最早由 Anthropic 公司开发,现在已成为一个开放协议,越来越多的企业和开发者开始采用。 MCP 是一个典型的客户端服务端架构,对于有编程基础的同学来说容易理解,就像开发中常见的 MySQL 一样。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。而 MCP 能简化这一过程。 在某些情况下,传统 API 更适合,比如应用场景需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制;更偏好紧耦合以提升性能;希望最大化交互的可预测性。 要开始使用 MCP,可按以下步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 总之,MCP 让 AI 与外部数据、工具的连接变得更加标准化和高效。
2025-04-14
mcp 的内容
MCP(模型上下文协议)是一种创新的开放协议,由 Anthropic 公司在 2024 年 11 月推出并开源。 其主要特点和功能包括: 统一了交互标准,是链接所有 AI 应用与工具的桥梁,兼容所有 AI 应用。 具有三大功能:工具(Tools),底层使用 Function call 实现,与 OpenAI 格式兼容;资源(Resources),为 AI 提供参考信息;提示词(Prompts),预设对话模板。 主要接口路径包括获取工具列表、调用工具、获取资源列表、读取资源内容、获取提示词列表、获取提示词内容等。 转换步骤包括客户端向 MCP 服务器请求工具列表,将 MCP 工具定义转换为 Function call 格式,发送 Function Call 定义给 LLM,接收 LLM 生成的 Function call,将 Function call 转为 MCP 工具调用,发送工具调用结果给 LLM。 MCP 就像一个“转接头”或“通用插座”,其核心作用是统一不同外部服务,通过标准化接口与 AI 模型对接。它与传统 API 的关键区别在于: 单一协议:MCP 像一个统一接口,只要一次整合,就能连接多个服务。 动态发现:AI 模型能自动识别并使用可用的工具,不用提前写死每个接口。 双向通信:MCP 支持类似 WebSockets 的实时双向通信,模型不仅能查询数据,还能主动触发操作。 MCP 最早由 Anthropic 公司开发,目的是帮助 AI 模型(如 Claude)更容易地连接工具和数据源,现在已成为一个开放协议,被越来越多的企业和开发者采用,逐渐成为 AI 与工具互动的新标准。 官方文档:https://modelcontextprotocol.io/
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
如何开发MCP
MCP(模型上下文协议)是由 Anthropic 在 2024 年 11 月推出并开源的一项创新标准。它就像一个“转接头”或“通用插座”,其核心作用是统一不同的外部服务(如 Google Drive、GitHub、Slack、本地文件系统等),通过标准化接口与 AI 模型对接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 与传统 API 相比,MCP 更适合需要上下文理解的场景,而传统 API 更适合需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性的场景。 开发 MCP 的步骤如下: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 是一个典型的 CS 架构,对于有编程基础的同学来说容易理解。开发 MCP 前需要进行环境安装,包括下载并安装 Python(官网:https://www.python.org/),安装 uv(借助 uv 进行虚拟环境创建和依赖管理,它是一个 Python 依赖管理工具,采用 Rust 编写,兼有创建虚拟环境和包管理工具的功能,可以平替 pip,venv)。
2025-04-12
我想找与高德地图MCP相关的教程
以下是为您整理的与高德地图 MCP 相关的教程内容: 1. 在 2025 年 4 月 3 日的智能纪要中,演示了通过 Figma 样式生成网页及整合新闻信息的操作过程,包括读取 Figma 样式、存储为公共样式、自动完成任务大闭环等,还计划打通多点连贯性,新建 news RSS 以整合信息。 2. 演示了 MCP 服务下的网页渲染生成及配置应用,提到模型 API 配置一次可反复调用,选择合适供应商和工具并填入密钥,展示了生成火星新闻页面的效果,探讨了交互问题,如添加网址跳转,还介绍了按需求文档开发页面的方式,最后打算尝试小程序开发,提及接入高德地图 API。 3. 新起项目相关安排及高德地图 API key 获取步骤,银海提议新建项目,创建新编辑页,建一个名为 PRD 点 MD 的需求文档,告知相关页面。还提到需要高德地图的 MCP 服务,因当前无高德,打算从豆哥市场获取。讨论了调用需 API key,介绍了获取 API key 的步骤,包括登录高德控制台,创建新应用并添加 key 等。 4. 银海关于获取 API key、连接高德 MCP 及后续开发需求说明,先是拿到高德 API key 并尝试在豆哥的高的 MCP 连接、测试,运行输入杭州未返回信息,先不管运行结果进行配置添加,添加成功后默认高德服务可行。之后要求阅读 PRD、NT 文档,按需求实现所有页面,如需用高德地图直接调用工具,部分文档内容可写进 PRD。 5. 观察其获取页面数据及实现 iOS 地图应用过程,先是等待程序读取页面信息,期间发现勾选后仍需重复 approve疑似有小 bug。之后程序获取到 5 个页面数据,准备实现 iOS 地图应用。提到实现 iOS 应用可用 switch 等编程语言,但希望写成 html 结构,不想用需 x code 运行的 switch,只需等待其实现即可。 6. 应用自动写页面与代码的过程及相关讨论,银海介绍应用开发进度,称可解放双手等待页面生成,目前 5 个页面框架已做好,样式在编写。还提到高德地图密钥未给,探讨地图渲染方式。指出代码无 rules 易截断,分享 cursor decore 网站,其中有诸多代码规范,建议配置 rules 提升代码可读性。 7. 黄叔用 AI 解决约会地点选择难题,使用 Windsurf+高德 MCP+32kw.com,只花了 20 分钟就完成了需求验证,并做出了相关网页,您可以通过 https://www.32kw.com/view/b109136 查看。
2025-04-11
如何通过提交的pdf文件自动生成流程图。
目前在 AI 领域,直接通过提交的 PDF 文件自动生成流程图还存在一定的技术挑战。通常情况下,需要先将 PDF 文件中的内容进行解析和提取,然后利用专门的流程设计工具或软件来手动创建流程图。但随着技术的不断发展,未来可能会有更便捷和高效的方法来实现这一功能。
2025-04-13
需要优化工作规程文件,使用什么AI工具比较好
以下是一些可用于优化工作规程文件的 AI 工具及相关建议: 业务流程优化方面: 流程挖掘软件是一种常用的 AI 工具,它可以自动分析业务流程,并识别改进点。您需要先利用该工具分析当前的业务流程,收集关于业务流程的数据,如任务执行时间、顺序、参与者等,然后对收集到的数据进行分析,自动识别流程中的瓶颈、重复步骤或效率低下的环节。基于分析结果重新设计和优化流程,并将新设计的流程实施到日常业务中,持续监控其表现,根据实施结果和员工反馈进一步调整和优化流程。 文章润色方面: 以下是一些常见的文章润色 AI 工具: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体的 AI 写作助手,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于学生和写作人员的多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,可以帮助用户优化文章的语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可以根据输入生成符合要求的学术论文。 总的来说,这些 AI 工具涵盖了文章润色的各个环节,包括校对、改写、大纲生成、内容生成等,可以有效提高写作效率和质量。科研人员和学生可以根据自身需求选择合适的工具进行使用。 创建工作流文件方面: 可以使用 Cursor 和 MCP 来创建工作流文件。首先创建一个名为 workflow.md 的文件,写入明确的指令,避免模糊表达,任务越细分越好。然后在对话窗口中告诉 AI 各个文件的对应关系。在使用过程中,Cursor 会请求您允许使用 MCP,记得点“同意”,经过多轮同意后,它会开始执行生成页面。需要注意的是,必须要用 claude sonnet 3.7,3.5 版本实测不行。
2025-04-01
我想ai生成综述论文,但是ai会编造莫须有的文章 我想提供60个论文文件 ai又会偷懒不阅读所有文件 如何处理
目前对于您所提到的问题,还没有直接有效的通用解决方案。但您可以尝试以下几种方法来改善这种情况: 1. 对于 AI 编造莫须有文章的问题,您可以在输入提示中明确强调要求基于真实可靠的信息和数据进行生成,并对生成的内容进行仔细审查和验证。 2. 针对 AI 偷懒不阅读所有提供的 60 个论文文件的情况,您可以尝试将文件进行分类和整理,突出关键信息和重点内容,以便 AI 更容易识别和处理。同时,也可以尝试使用更先进、具有更强处理能力的 AI 工具。 需要注意的是,AI 技术仍在不断发展和完善中,可能无法完全满足您的所有需求,但通过不断的尝试和优化,有望获得更好的效果。
2025-03-19
长文本文件用哪个AI处理
对于处理长文本文件,以下是一些相关的 AI 工具和方法: 1. Whisper API:默认情况下仅支持小于 25MB 的文件。若文件更长,需将其分成小于 25MB 的块或使用压缩后格式。可使用 PyDub 开源 Python 软件包来拆分声频文件,但 OpenAI 对其可用性或安全性不作保证。您还可以使用提示来提高 Whisper API 生成的转录质量,例如处理特定单词或缩略语的识别错误、保留分段文件的上下文、避免标点符号的省略等。 2. 通义千问的 Qwen2.51M 大模型:推出 7B、14B 两个尺寸,在处理长文本任务中稳定超越 GPT4omini,同时开源推理框架,在处理百万级别长文本输入时可实现近 7 倍的提速。在上下文长度为 100 万 Tokens 的大海捞针任务中表现较好。对于更复杂的长上下文理解任务,可参考相关测试集。其优势包括长文本处理能力强、推理速度提升、上下文长度扩展等。开源平台有 Huggingface(https://huggingface.co/spaces/Qwen/Qwen2.51MDemo)和 Modelscope(https://www.modelscope.cn/studios/Qwen/Qwen2.51MDemo)。
2025-03-18
请问哪个平台支持上传私人知识库文件
以下平台支持上传私人知识库文件: 本地文档: 文本内容: 支持格式:.txt、.pdf、.docx。 操作步骤:在文本格式页签下选择本地文档,然后单击下一步。将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档。每个文件不得大于 20M,一次最多可上传 10 个文件。上传完成后选择内容分段方式,包括自动分段与清洗(系统会对上传的文件数据进行自动分段,并会按照系统默认的预处理规则处理数据)和自定义(手动设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度、设置文本预处理规则,如替换掉连续的空格、换行符和制表符,删除所有 URL 和电子邮箱地址),最后单击下一步完成内容上传和分片。 表格数据: 支持格式:.csv 和.xlsx。 操作步骤:在表格格式页签下选择本地文档,然后单击下一步。将要上传的文档拖拽到上传区,或单击上传区域选择要上传的文档,然后单击下一步。每个文件不得大于 20M,一次最多可上传 10 个文件。配置数据表信息,包括指定数据范围(通过选择数据表、表头、数据起始行指定数据范围)、确认表结构(系统已默认获取表头的列名,可自定义修改列名或删除某一列名)、指定语义匹配字段(选择作为搜索匹配的语义字段)。查看表结构和数据,确认无误后单击下一步,完成上传后单击确定。 Notion: 操作步骤:在文本格式页签下选择 Notion,然后单击下一步。单击授权,首次导入 Notion 数据和页面时需要进行授权。在弹出的页面完成登录,并选择要导入的页面。选择要导入的数据,然后单击下一步。选择内容分段方式,包括自动分段与清洗和自定义,最后单击下一步完成内容上传和分片。 自定义: 操作步骤:在文本格式页签下选择自定义,然后单击下一步。输入单元名称,然后单击确认。单击创建分段,然后在弹出的页面输入要上传的内容。每个分段最多可添加 2000 个字符。单击保存。
2025-03-18
目前有什么ai可以审核文件
目前有以下几种 AI 可以审核文件: 1. AI Review:这是一项功能,可让您查看代码库中的最近更改以捕获任何潜在的错误。您可以单击各个审阅项以查看编辑器中的完整上下文,并与 AI 聊天以获取详细信息。为了让其对您有利,您可以为 AI 提供自定义说明以专注于特定方面,比如性能。目前有几个选项可供选择进行审核,如审查工作状态、审查与主分支的差异、审查上次提交。 2. 在专利审查方面: 专利检索与分类:AI 可以帮助进行高效的专利检索和分类,通过自然语言处理(NLP)和机器学习算法,自动识别和分类专利文献。示例平台如 Google Patents、IBM Watson for IP。 专利分析和评估:AI 可以分析专利文本,评估专利的新颖性和创造性,预测专利的授权可能性。示例平台如 TurboPatent、PatentBot。 自动化专利申请:AI 可以帮助自动生成专利申请文件,减少人工编写和审查时间。示例平台如 Specifio、PatentPal。 专利图像和图表分析:AI 可以分析专利申请中的图像和图表,帮助识别和分类技术内容。示例平台如 Aulive、AIpowered image recognition tools。 3. Midjourney:今天早上 3 小时前 MJ 将测试全新的“外部图像编辑器、图像重纹理化功”能以及下一代 AI 审核系统。图像编辑器允许您从计算机上传图像,然后扩展、裁剪、重绘、添加或修改场景中的元素,还推出了“图像重纹理化模式”。AI 审核系统将从整体上检查您的提示、图像、绘制蒙版以及生成的输出图像。但在第一个发布阶段,这些功能仅开放给已生成至少 10,000 张图像的用户(年度会员可用)以及过去 12 个月内一直是月度订阅用户的用户。
2025-03-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
介绍下即梦3.0的模型,为什么很多人说它好用
即梦 3.0 模型具有以下显著特点,这也是很多人认为它好用的原因: 1. 超真实: 质感提升:图片不再有磨皮过度的“假脸感”、“油腻感”,皮肤纹理、物品材质更自然。 情绪到位:人物表情不再僵硬或眼神空洞,能表现出更细腻、更有感染力的情绪,如开心、严肃、沮丧落泪等。 2. 超高清:默认能生成 1K 分辨率图片,还支持到 2K,画面更清晰,结构更准确。 3. 超专业: 影像大师:能更精准地理解电影类型(如恐怖片、爱情片、公路片)和镜头语言(如大特写、鱼眼镜头、俯视视角)。 动漫高手:动漫风格更多元(日漫、国漫、皮克斯风等),细节更丰富,色彩更统一,告别“抠图感”。 文字设计:不仅能准确生成大字、小字,还支持超多字体(细体、粗体、可爱体、毛笔字、涂鸦体等),排版更专业、更有设计感。 4. 超智能:能更好地理解自然语言描述,简单的指令也能出好图,支持“一句话 P 图”的自然语言编辑能力。 此外,即梦 3.0 在文字处理方面表现出色,不仅提升了大字的准确性、设计感和丰富度,还大幅解决了小字的稳定性问题。相比之下,在中文场景中,其他模型可能存在一些局限性,如 GPT4o 可能存在不识别某些中文字、难以生成特别设计感的字体等问题。而即梦 3.0 作为中文 AI 绘图模型,在中文的表现性上对国内用户更有用且友好。
2025-04-14
waytoagi 简单介绍
“通往 AGI 之路”(WaytoAGI)是一个致力于人工智能学习的中文知识库和社区平台: 旨在为学习者提供系统全面的 AI 学习路径,涵盖从基础概念到实际应用的各个方面,帮助用户有效地获取 AI 知识,提高自身能力。 由开发者、学者和 AI 爱好者共同参与建设,提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 其品牌 VI 融合了独特的设计元素: 选择彩虹色作为主要的配色方案,代表多样性、包容性和创新。 标志性图案是一只鹿,与“路”谐音,象征着通往 AGI 未来的道路,寓意优雅与智慧。 选用简洁现代的非衬线字体,强调信息传达的清晰度和直接性。 此外,WaytoAGI 里有个离谱村: 是由 WaytoAGI 孵化的千人共创项目,让大家学习和接触 AI 更容易、更感兴趣。 参与者不分年龄层,一起脑洞和创意,都可以通过 AI 工具快速简单地创作出各种各样的作品。 离谱村是一个没有被定义的地方,每个人心中都有自己想象中的离谱村,是灵魂的避风港,激励着每一个生命体发挥其无限的想象力,创造属于自己的独特生活方式。 如果您对 AI 学习感兴趣,加入“通往 AGI 之路”社区将是一个不错的选择。在这里,您可以获取最新的 AI 知识,参与实践活动,与志同道合的学习者共同成长。
2025-04-14
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出10个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您生成的 10 个业务价值高、具备可行性的 AI 应用场景介绍: 1. 人才招聘与筛选 What:利用 AI 技术对求职者的简历进行自动筛选和分析,评估其与岗位的匹配度。 Why:节省 HR 大量的时间和精力,提高招聘效率和准确性。 How:通过自然语言处理和机器学习算法,训练模型识别关键信息和技能。 2. 员工培训与发展 What:根据员工的技能水平和职业发展目标,定制个性化的培训计划。 Why:提升员工的能力和绩效,增强员工对企业的忠诚度。 How:利用大数据分析员工的工作表现和学习需求,推荐相关课程和学习资源。 3. 薪酬福利管理 What:运用 AI 预测市场薪酬趋势,为企业制定合理的薪酬策略。 Why:保持企业薪酬的竞争力,吸引和留住优秀人才。 How:收集和分析行业薪酬数据,结合企业的财务状况和战略目标进行优化。 4. 员工绩效评估 What:借助 AI 实时监测员工的工作表现,提供客观的绩效评估。 Why:减少人为偏差,确保评估的公正性和准确性。 How:利用工作流程数据和行为分析模型进行评估。 5. 员工关系管理 What:通过 AI 分析员工的情绪和满意度,及时发现问题并解决。 Why:营造良好的工作氛围,提高员工的工作积极性和创造力。 How:使用情感分析技术处理员工的反馈和交流信息。 6. 组织架构优化 What:利用 AI 分析企业的业务流程和人员配置,提供组织架构调整建议。 Why:提高企业的运营效率和灵活性,适应市场变化。 How:基于数据分析和模拟优化算法进行评估和推荐。 7. 人力资源规划 What:根据企业的战略目标和业务发展预测人力资源需求。 Why:提前做好人才储备和招聘计划,保障企业的正常运营。 How:运用数据分析和预测模型进行规划。 8. 企业文化传播 What:使用 AI 生成个性化的企业文化宣传内容,提高传播效果。 Why:增强员工对企业文化的认同感和归属感。 How:利用自然语言生成技术和个性化推荐算法。 9. 智能客服 What:在 HR 服务中引入 AI 客服,解答员工常见问题。 Why:快速响应员工需求,提高服务质量。 How:训练智能客服模型,涵盖常见的 HR 问题和解决方案。 10. 人才库管理 What:利用 AI 对人才库进行分类和更新,提高人才库的利用效率。 Why:方便快速找到合适的人才,降低招聘成本。 How:运用数据挖掘和分类算法进行管理。
2025-04-14
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出3-5个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您提供的 3 个业务价值高、具备可行性的 AI 应用场景介绍: 场景一:AI 在企业招聘中的应用 What:利用 AI 技术进行简历筛选、人才匹配和面试评估。 Why:能够快速处理大量简历,提高招聘效率和准确性,节省人力和时间成本,同时更精准地找到符合岗位需求的人才。 How:通过引入相关的 AI 招聘软件,与企业现有的招聘系统集成,对简历进行关键词提取和分析,利用机器学习算法进行人才匹配,并通过视频面试中的语音和表情分析辅助评估候选人。 场景二:AI 助力个性化人力资源管理 What:根据员工的个人特点和工作表现,提供个性化的培训计划、职业发展建议和绩效评估。 Why:能够充分发挥员工的潜力,提高员工满意度和忠诚度,促进企业的长期发展。 How:收集员工的工作数据、学习记录和绩效表现等信息,运用 AI 算法进行分析和预测,为员工制定专属的发展方案,并通过移动应用或内部系统向员工推送相关建议和培训课程。 场景三:AI 打造无人值守的 HR 平台 What:实现 HR 业务的自动化处理,如员工请假审批、薪酬计算和福利发放等。 Why:减少人工操作的错误和繁琐流程,提高 HR 工作的效率和准确性,使 HR 人员能够专注于更有价值的战略工作。 How:整合企业内部的各种 HR 系统和数据,利用 RPA 和 AI 技术实现流程的自动化,同时建立监控和预警机制,确保平台的稳定运行。
2025-04-14
介绍一下AI视频的基础知识
以下是关于 AI 视频的基础知识: 1. 概念 生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词 AI:即人工智能。 机器学习:电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:使用有标签的训练数据,算法目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训小狗。 深度学习:一种参照人脑的方法,具有神经网络和神经元,因层数多而称为深度,神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI:可以生成文本、图片、音频、视频等内容形式。 LLM:大语言模型。对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 3. 技术里程碑 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)处理序列数据,不依赖于循环神经网络(RNN)或卷积神经网络(CNN)。
2025-04-12