Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想了解MCP相关信息

Answer

模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。

MCP 的特点和优势包括:

  • 简化开发:一次整合,多次复用,不再重复开发。
  • 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。
  • 实时互动:长连接保证数据实时更新。
  • 安全可靠:内置标准化安全和权限控制。
  • 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。

与传统 API 的区别在于:

  • 传统 API 通常需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。
  • 传统 API 就像不同的门,每扇门都需要自己的钥匙和特定的规则。

MCP 由 Anthropic 公司最早开发,现已成为一个开放协议,越来越多的企业和开发者开始采用。

在某些情况下,传统 API 更适合,如应用场景需要精准且严格受控的交互方式,包括需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性。

开始使用 MCP 的步骤包括:

  1. 定义能力:明确 MCP 服务器提供的功能。
  2. 实现 MCP 层:按照协议标准进行开发。
  3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。
  4. 创建资源/工具:开发或连接数据源和服务。
  5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。

例如,Claude 可以通过简单的 MCP 集成直接连接到 GitHub、创建新存储库并创建 PR。

Content generated by AI large model, please carefully verify (powered by aily)

References

什么是模型上下文协议(MCP)?它如何比传统API更简单地集成AI?

什么是模型上下文协议(MCP)?它如何比传统API更简单地集成AI?模型上下文协议(Model Context Protocol,简称MCP)是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。你可以把MCP想象成AI领域的“USB-C接口”,它能让不同的AI模型与外部工具和数据源轻松连接。本文将清晰地解释MCP的价值、工作原理,以及它与传统API的关键区别。[heading2]什么是MCP?[content]模型上下文协议(MCP)就像是为AI模型量身定制的“USB-C接口”,可以标准化地连接AI系统与各类外部工具和数据源。什么是MCP?就像USB-C接口让你的电脑更容易连接各种设备一样,MCP让AI模型更简单地获取数据、工具与服务。[heading2]为什么要用MCP,而不是传统的API?[content]通常,AI系统想连接外部工具时,需要单独整合多个不同的API。每个API都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。[heading3]为什么说传统API就像每扇门都有一把不同的钥匙?[content]打个比方:API就像不同的门,每扇门都需要自己的钥匙和特定的规则。为什么使用MCP而非传统API?传统的API要求开发者为每个服务或数据源单独编写代码和整合方案。[heading2]MCP背后是谁?[content]MCP最早由Anthropic↗[1]公司开发,目的是帮助AI模型(如Claude)更容易地连接工具和数据源。但现在,MCP已经成为一个开放协议,越来越多的企业和开发者开始采用它,这也让它逐渐成为AI与工具互动的新标准。

什么是模型上下文协议(MCP)?它如何比传统API更简单地集成AI?

•简化开发:一次整合,多次复用,不再重复开发。•灵活性强:轻松切换AI模型或工具,无需复杂的重新配置。•实时互动:长连接保证数据实时更新。•安全可靠:内置标准化安全和权限控制。•扩展性强:AI系统扩展时,只需连接新的MCP服务器。[heading2]什么时候传统API更适合?[content]如果你的应用场景需要精准且严格受控的交互方式,那么传统API可能更合适。MCP提供广泛而灵活的动态能力,更适合需要上下文理解的场景,但不一定适用于严格受控的场合。[heading3]传统API更合适的场景:[content]•需要细粒度控制、功能严格限制;•更偏好紧耦合以提升性能;•希望最大化交互的可预测性。[heading2]如何开始使用MCP?[content]快速集成MCP的步骤:1.1.定义能力:明确你的MCP服务器提供哪些功能。2.2.实现MCP层:按照协议标准进行开发。3.3.选择通信方式:本地连接(标准输入输出)或远程连接(如WebSockets)。4.4.创建资源/工具:开发或连接你的数据源和服务。5.5.建立客户端连接:与MCP服务器建立安全稳定的连接。[heading2]总结[heading3]再次回顾什么是MCP:[content]•MCP:为AI模型统一连接数据与工具的标准接口。•API:传统的方式,每个服务单独连接,开发更复杂。什么是MCP?MCP让AI与外部数据、工具的连接变得更加标准化和高效。

Claude 直接连接到 GitHub、创建新存储库并通过简单的 MCP 集成创建 PR。

https://x.com/alexalbert__/status/1861079762506252723Anthropic推出模型上下文协议(MCP)Claude Desktop现在可以直接连接到GitHub、创建新的存储库并创建PR模型上下文协议(MCP)简介我们在Anthropic一直在研究一个开放标准,它解决了LLM应用程序的核心挑战-将它们连接到您的数据。不再为每个数据源构建自定义集成。MCP提供一种协议来连接它们:

Others are asking
MCP
模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。它就像 AI 领域的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。传统 API 就像每扇门都有一把不同的钥匙,而 MCP 让 AI 模型更简单地获取数据、工具与服务。 在某些情况下,传统 API 更适合,比如应用场景需要精准且严格受控的交互方式,包括需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性。 MCP 最早由 Anthropic 公司开发,现在已成为一个开放协议,越来越多的企业和开发者开始采用它,逐渐成为 AI 与工具互动的新标准。 要开始使用 MCP,可按照以下步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 例如,Claude 可以通过简单的 MCP 集成直接连接到 GitHub、创建新存储库并创建 PR。Anthropic 一直在研究 MCP 这一开放标准,以解决 LLM 应用程序将其连接到数据的核心挑战,不再为每个数据源构建自定义集成,MCP 提供一种协议来连接它们。
2025-03-22
mcp
模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。它就像AI领域的“USBC接口”,能让不同的AI模型与外部工具和数据源轻松连接。 MCP的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换AI模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI系统扩展时,只需连接新的MCP服务器。 与传统API相比,通常AI系统连接外部工具时,需要单独整合多个不同的API,每个API都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。传统API就像不同的门,每扇门都需要自己的钥匙和特定的规则,而MCP让AI模型更简单地获取数据、工具与服务。 在某些情况下,传统API更适合,比如应用场景需要精准且严格受控的交互方式,包括需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性。 Anthropic 公司最早开发了 MCP,现在它已成为一个开放协议,越来越多的企业和开发者开始采用。 要开始使用 MCP,可按照以下步骤: 1. 定义能力:明确MCP服务器提供的功能。 2. 实现MCP层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与MCP服务器建立安全稳定的连接。 Claude 可以通过简单的MCP集成直接连接到GitHub、创建新存储库并创建PR。
2025-03-21
TRAE如何配置MCP
配置 MCP 的方法如下: 在支持浏览器交互的情况下,复制箭头指向的命令,将其填在 Curosr feather 的 MCP Serve 里面。服务名称可随便填,类型选 command。但由于国内网络原因,可能会显示工具找不到,此时最好先在终端执行该命令安装好后再填入。 在 Windsurf 中进行 MCP 配置,可找到 MCP 工具社区网站(如 https://github.com/modelcontextprotocol/servers),复制某个 MCP 工具(如 uvx)的安装方式命令,通过小锤子配置,粘贴命令。还有些网站(如 https://smithery.ai/,https://www.pulsemcp.com/)可直接安装依赖包,在终端执行即可。 部署 Smithery 服务器需要在仓库中包含两个必需文件:Dockerfile 和 smithery.yaml。Dockerfile 用于定义如何构建服务器,smithery.yaml 用于指定如何启动服务器。当触发部署时,Smithery 会尝试自动生成包含这些文件的 pullrequest,但在某些情况下,自动配置可能会失败,需要手动设置。手动配置时,在仓库根目录创建 Dockerfile 和 smithery.yaml 文件,Dockerfile 定义 MCP 服务器的构建方式,smithery.yaml 定义 MCP 服务器的启动方式。 开发 MCP 服务时,复制下方指令发送给 AI,根据说明文件进行操作。当看到“Done”标记时,告诉 AI“继续”。完成后,用特定口令召唤配置,在 Windsurf 中点击 configure 粘贴代码,在 Cursor 中参考相应配置。
2025-03-21
什么是mcp server
MCP(模型上下文协议)是一项创新标准,由 Anthropic 于 2024 年 11 月推出并开源。其作用在于让大语言模型能够无缝连接至第三方的数据源,支持对接内容存储库、业务工具、开发环境等多种外部服务,从而使 AI 大模型获取更丰富的上下文信息,生成更精准、相关且智能的回答。 MCP 就像一个“转接头”或“通用插座”,统一不同外部服务,通过标准化接口与 AI 模型对接。开发者基于 MCP 规范开发一次“接口适配器”(MCP 服务器),就能让所有兼容 MCP 的模型(MCP 客户端)无缝接入,大幅提升兼容性与开发效率。MCP 里面还包含 SSE(ServerSent Events),是一种允许服务器向浏览器推送实时更新的技术。 MCP 具有以下好处: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 在 Windsurf 中进行 MCP 配置时,可以找到相关工具社区网站,复制安装方式命令进行配置。有些网站可直接安装依赖包,在终端执行即可。 快速集成 MCP 的步骤包括: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 传统 API 在以下场景可能更适合: 需要细粒度控制、功能严格限制。 更偏好紧耦合以提升性能。 希望最大化交互的可预测性。 MCP 与传统 API 的关键区别在于: 单一协议:MCP 像一个统一接口,只要一次整合,就能连接多个服务。 动态发现:AI 模型能自动识别并使用可用的工具,不用提前写死每个接口。 双向通信:MCP 支持类似 WebSockets 的实时双向通信,模型不仅能查询数据,还能主动触发操作。 但由于国内网络原因,在配置 MCP 时可能会出现安装不成功且 Cursor 不弹出错误信息的情况。此时最好先在终端执行相关命令安装好后再进行配置。还有些 MCP 工具依赖于 macOS 特定的剪贴板操作,因此仅适用于 macOS。
2025-03-20
MCP
模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。它就像 AI 领域的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。传统 API 就像不同的门,每扇门都需要自己的钥匙和特定的规则,而 MCP 让 AI 模型更简单地获取数据、工具与服务。 在某些情况下,传统 API 更适合,比如应用场景需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性。 MCP 最早由 Anthropic 公司开发,现在已成为一个开放协议,越来越多的企业和开发者开始采用它,逐渐成为 AI 与工具互动的新标准。 要开始使用 MCP,可按照以下步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 例如,Claude 可以通过简单的 MCP 集成直接连接到 GitHub、创建新存储库并创建 PR。Anthropic 一直在研究 MCP 这一开放标准,以解决 LLM 应用程序将其连接到数据的核心挑战,不再为每个数据源构建自定义集成,MCP 提供一种协议来连接它们。
2025-03-20
介绍MCP的文档有哪些
以下是关于 MCP 的一些文档介绍: 1. 《Windsurf Wave3:MCP 协议让 AI 直接读取控制台错误,自动化网页调试不用复制粘贴了!Tab 智能跳转、Turbo 模式》:介绍了 MCP 的基本概念,即纯 LLM 无法行动,MCP 工具可充当其与现实世界交互的手并反馈结果指导下一步行动。同时提供了 MCP 官方文档和 Cursor 关于 MCP 的介绍链接:https://modelcontextprotocol.io/ 、https://docs.cursor.com/context/modelcontextprotocol 。还提到了一些相关工具如 Brave Search、Puppeteer 和 Sequential Thinking 等能让调试和搜索更顺畅,以及热门的 Playwright CDP 能让 AI 控制浏览器变得简单等内容。 2. 《Model Context Protocol官方网站找到,包括架构详细说明、基础协议文档、服务器功能说明、客户端功能文档、贡献指南等。此规范为 AI 应用生态系统提供了标准化的集成方案。 3. 《什么是模型上下文协议(MCP)?它如何比传统 API 更简单地集成 AI?》:解释了 MCP 的价值、工作原理,以及它与传统 API 的关键区别。如 MCP 是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景,像 AI 领域的“USBC 接口”能让不同的 AI 模型与外部工具和数据源轻松连接。还对比了传统 API 整合的复杂性,以及介绍了 MCP 最早由 Anthropic 公司开发,现已成为开放协议并被更多企业和开发者采用。
2025-03-18
ai 信息收集软件
以下是一些关于 AI 信息收集软件的内容: 1. 邬嘉文的 AI 求职助手:通过 Python selenium 库对 URL 逐一爬虫,收集招聘要求信息,包括职位名称、薪资范围、工作地点、学历要求、职位描述和职位链接等,例如市场总监、电商 AI 产品经理等职位。 2. 利用 AI 打造爆款公众号文章的信息收集: 明确文章主题后,借助 AI 工具如 Perplexity.AI 收集相关资讯。访问该网站使用其搜索功能,可启用 Pro 功能获取更专业深入的结果,输入具体 Prompt 快速定位资讯,获取搜索结果中的引用和来源链接。 还可使用其他具备联网搜索功能的工具如微软的 Bing 搜索引擎。 收集完资料后,可使用月之暗面开发的 Kimi 这个 AI 会话助手整理资料,分批次提供资料以确保其有效读取和理解。
2025-03-22
ai相关信息很多,如果只推荐一种信息来源,你会推荐什么
如果只推荐一种 AI 信息来源,以下是一些选择: 对于初学者,推荐看 Open AI 的官方 Cookbook,小琪姐做了中文精读翻译。 从简报方面,TLDR AI()等是不错的选择。 播客方面,No Priors podcast hosted by Sarah Guo and Elad Gil、Robot Brains Podcast hosted by Pieter Abbeel、Lex Fridman Podcast hosted by Lex Fridman、The Gradient podcast hosted by Daniel Bashir、Generally Intelligent hosted by Kanjun Qiu、Last Week in AI 等值得关注。 会议方面,工业界的 World AI Cannes Festival、Gen AI conference()等都是获取 AI 信息的重要渠道。 此外,还可以通过赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等订阅获取最新信息,也可以参考通往 AGI 之路知识库中的相关内容,如 AI 相关名词解释、经典必读文章、历史脉络类资料等。
2025-03-21
我要从哪里了解特定领域的agent发布的信息
以下是一些了解特定领域 agent 发布信息的途径: 1. 飞书:可以在飞书上建机器人,并添加知识库或多维表格编辑权限,通过获取机器人的 app_id 和 app_secret 获得租用 token:tenant_access_token 来获取多维表格数据和编辑能力。然后通过 Coze 搭建定时任务,执行工作流,添加分析文章和搜索文章等能力,变成消息情报官的 Agent,并发布到飞书等平台使用。 2. 微信:可以通过微信公众号、微信小程序等渠道获取特定领域 agent 发布的信息。 3. Coze 商店:特定领域的 agent 可能会在 Coze 商店发布相关信息。 4. 相关比赛网站:例如 2025AGENT 智能体全球创作大赛网站(http://agentga.me),可以了解比赛报名、作品提交、奖项设置等信息,还能获取关于参赛作品知识产权归属等常见问题的解答。 此外,如果您对特定领域 agent 相关的招聘信息感兴趣,可关注序智科技的招聘信息,如算法/后端/前端正式&实习岗位,了解其职责和要求等。
2025-03-20
根据图片场景和文案信息,自主制作视频的AI工具
以下是一些根据图片场景和文案信息自主制作视频的 AI 工具及相关流程: 一、将小说制作成视频的流程 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。 二、制作“古人骂人”视频的步骤 1. 文案生成 工具:DeepSeek 操作: 打开 DeepSeek 网站:https://chat.deepseek.com/ 输入提示词,示例:“让 XX 用现代口语化的表达、生气骂人的口吻吐槽 XXXX(例如:吐槽现代人),XXX 目的(例如:推广 XXX 吸引游客来旅游),输出 3 条 60 字左右的毒舌文案,每条里面都要有‘回答我!Look in my eyes!Tell me!why?baby!why?’” 可以根据自己的内容自行调整文案和字数要求。 点击生成,等待 DeepSeek 输出 3 条文案。 从中挑选最满意的一条(或多条)保存备用。 2. 准备人物形象图 工具:即梦 AI 操作: 打开即梦 AI 网站:https://jimeng.jianying.com/aitool/image/generate 输入提示词,即梦已经接入了 DeepSeek,可以直接用它来生成绘图提示词 调整生成参数(如风格、细节等),点击生成。 预览生成的人物图,不满意可调整提示词重新生成,直到满意为止。 下载最终的人物形象图。 三、“AI 拍立得” 1. 背景 为简化使用大模型工具时的繁琐流程,提升效率,萌生了“AI 拍立得”的概念,即拍即得,让操作更直观、高效。 2. 在线体验 名称:Pailido(拍立得的谐音) 微信小程序搜索:Pailido,可丰富场景自由切换,快速生成闲鱼文案、外卖/大众点评等。 3. 交互逻辑 用户可以选择拍摄场景类型,并立即拍照,AI 会自动识别和分析照片中的内容信息,依据预设场景规则,迅速生成符合情境的反馈,避免繁琐的额外操作。 4. 实现场景 图片转成文本 逻辑:用户上传图片后,大模型根据选择的场景生成与内容相关的文字描述或解说文本。 核心:图片理解和文本整理润色。 场景:生成美食点评、朋友圈发布文案、闲鱼上架示例模版等。 图片转绘图片 逻辑:用户上传图片后,大模型按照指定的风格快速生成图像的转绘版本,适应不同风格和场景需求。 核心:图片风格化滤镜。 场景:图片粘土风、图片积木风、图片像素风等。
2025-03-19
阅读大量特定网页并提取信息的大模型推荐
以下为您推荐几款能够阅读大量特定网页并提取信息的大模型: 1. 一款 AI 浏览器插件: 其 idea 来自早先挖的坑,在词生卡刚火时,想进一步发挥大模型对话产品的能力,做一个真正的提示词智能体。 目标是输入任意文章链接后,AI 自动生成适合微信分享的文章推荐卡片。 为达到这一效果,大模型对话产品需完成关键步骤:自行访问链接并解析网页内容、根据提示词要求提炼标题等信息、利用 qrcode.js 库生成二维码图片、基于特定模板设计要求生成卡片样式。 编写的「网页分享卡片生成」词生卡 Prompt 有新的组织方法,把设计要求拆分为“设计规范”和“内容结构”,再细分为“布局与尺寸”等独立模块,并结合“内容结构”进行要求提示。这种方式具有模型通用性、提示简易性和生成稳定性的优势。 2. 本地部署资讯问答机器人: 导入依赖库,包括 feedparse 用于解析 RSS 订阅源,ollama 用于在 python 程序中跑大模型。 从订阅源获取内容,通过函数从指定的 RSS 订阅 url 提取内容,将长文本拆分成较小的块并附带相关元数据,最终合并成列表返回。 为文档内容生成向量,使用文本向量模型 bgem3,其具有支持多语言等特点。从 hf 下载好模型后,通过函数利用 FAISS 创建高效的向量存储。 3. 伊登: 工作流程包括内容获取,只需输入新闻链接,系统就能自动提取核心内容。 开始节点输入新闻链接和视频合成插件 api_key,添加网页图片链接提取插件获取图片,使用链接读取节点提取文字内容,利用大模型节点重写新闻成为口播稿子,可使用 DeepseekR1 模型生成有吸引力的口播内容。
2025-03-18
我想在飞书云中用DeepSeek-R1模型提取链接中的信息,请问如何写指令呢?我刚刚进行了尝试,发现提取出的信息和我点开链接看到的信息不一致,这个问题又该如何解决呢?
在飞书云中使用 DeepSeekR1 模型提取链接中的信息并解决提取信息不一致的问题,您可以参考以下内容: 对于指令编写: 虽然 R1 推理能力较强,但您想表达的不一定完全与模型吻合,因此建议多加清晰指令。 模糊指令优化方面,比如对于宽泛需求可添加维度约束,如原句“写小说”可修正为“创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构”;对于主观表述可量化标准,如原句“写得专业些”可修正为“符合 IEEE 论文格式,包含 5 项以上行业数据引用”。 迭代优化法包括首轮生成获取基础内容、特征强化(如加强第三段的技术细节描述)、风格调整(如改用学术会议报告语气,添加结论部分)、最终校验(检查时间逻辑一致性,列出可能的事实性错误)。 对于提取信息不一致的问题: 信息幻觉:追加请标注所有不确定陈述,并提供验证方法。 格式偏离:使用严格遵循以下模板:第一行...第二行... 深度不足:触发请继续扩展第三章节内容,添加案例佐证。 另外,关于获取字节火山 DeepSeek 系列 API 完整教程及使用方法: 1. 注册并登录火山引擎,点击立即体验进入控制台。 2. 创建一个接入点,点击在线推理创建推理接入点。 3. 为接入点命名为 DeepSeekR1。 4. 若有提示“该模型未开通,开通后可创建推理接入点”,点击“立即开通”,勾选全部模型和协议一路开通(免费)。 5. 确认无误后,点击“确认接入”按钮。 6. 自动返回创建页面,复制多出的接入点名为“DeepSeekR1”的推理点 ID 并保存。 7. 点击【API 调用】按钮,进入后点击【选择 API Key 并复制】。 8. 若已有 API key 直接查看并复制,没有则点击【创建 API key】。 9. 复制并保存好 API key。 在实现新闻播报自动化工作流方面: 第一步是内容获取,输入新闻链接,系统自动提取核心内容。开始节点的入参包括新闻链接和视频合成插件 api_key。添加网页图片链接提取插件,获取网页里的图片。接着利用调整图片的节点,将 url 属性的图片内容转化为 image 属性的图片。然后使用链接读取节点,将文字内容提取出来。在提取链接后面接上一个大模型节点,用 DeepSeekR1 模型生成有吸引力的口播内容。若想加上自己的特征,可在提示词里写“开头加上‘这里是伊登 AI’之类的个性化台词防伪”。
2025-03-18
我是AI小白,没有编程基础;也没有理工基础,对硬件不了解,但是我对AI和硬件结合的内容很感兴趣。请为我调出相关内容
以下是为您整理的关于 AI 和硬件结合的相关内容: AI 技术的学习路径: 偏向技术研究方向: 数学基础:包括线性代数、概率论、优化理论等。 机器学习基础:如监督学习、无监督学习、强化学习等。 深度学习:涵盖神经网络、卷积网络、递归网络、注意力机制等。 自然语言处理:包含语言模型、文本分类、机器翻译等。 计算机视觉:涉及图像分类、目标检测、语义分割等。 前沿领域:例如大模型、多模态 AI、自监督学习、小样本学习等。 科研实践:包括论文阅读、模型实现、实验设计等。 偏向应用方向: 编程基础:如 Python、C++等。 机器学习基础:监督学习、无监督学习等。 深度学习框架:如 TensorFlow、PyTorch 等。 应用领域:自然语言处理、计算机视觉、推荐系统等。 数据处理:数据采集、清洗、特征工程等。 模型部署:模型优化、模型服务等。 行业实践:项目实战、案例分析等。 AI 硬件的发展趋势: 在端到端算法的时代,不应该继续使用冯诺依曼架构。 在存算一体(在存储单元里做计算)的芯片之上,一定会诞生一种全新的算法。对比人脑,使用存算一体的方式是未来 AI 硬件下一步的发展趋势,运行一个几百亿个参数的大模型最好的架构一定是存算一体的架构,因为它避免了所有的数据的搬运。 大模型与私域知识结合的方法: 按对模型改造侵入性划分,从左到右分为:重新训练、微调、RAG、关键词工程。 重新训练:拿私域数据重新训练大模型。 微调:拿私有数据 finetuning 大模型。 RAG:将知识库里的知识搜索送进大模型。 关键词工程:写好提示词。 加长 Context:当 Context 能无限长的时候,理论上讲可以把关于您的知识和记忆都 prefill 到 Context 里边去。 学术界中,做深度学习的人偏向于用 RAG,以前做过搜索的人偏向于用 Long Context。
2025-03-22
我想深入了解AI
以下是为您提供的深入了解 AI 的相关内容: 新手学习 AI 的步骤: 1. 了解 AI 基本概念:建议阅读「」部分,熟悉 AI 的术语和基础概念,包括其主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。同时浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始 AI 学习之旅:在「」中,您能找到为初学者设计的课程,特别推荐李宏毅老师的课程。您还可以通过在线教育平台(如 Coursera、edX、Udacity)按照自己的节奏学习,并获得证书。 3. 选择感兴趣的模块深入学习:AI 领域广泛,比如图像、音乐、视频等,您可根据兴趣选择特定模块深入学习,同时掌握提示词技巧。 4. 实践和尝试:理论学习后,实践是巩固知识的关键,您可以尝试使用各种产品做出作品,知识库也提供了很多实践后的作品和文章分享。 5. 体验 AI 产品:与现有的 AI 产品(如 ChatGPT、Kimi Chat、智谱、文心一言等)互动,了解其工作原理和交互方式。 对于不会代码但想学习 AI 的您: 1. AI 背景知识:了解人工智能、机器学习、深度学习的定义及其之间的关系,简要回顾 AI 的发展历程和重要里程碑。 2. 数学基础:熟悉统计学基础(如均值、中位数、方差等统计概念)、线性代数(如向量、矩阵等基本概念)、概率论(如条件概率、贝叶斯定理)。 3. 算法和模型:了解监督学习(如线性回归、决策树、支持向量机)、无监督学习(如聚类、降维)、强化学习的基本概念。 4. 评估和调优:了解如何评估模型性能(包括交叉验证、精确度、召回率等),学习如何使用网格搜索等技术优化模型参数。 5. 神经网络基础:理解神经网络的基本结构(包括前馈网络、卷积神经网络、循环神经网络),了解常用的激活函数(如 ReLU、Sigmoid、Tanh)。 入门经典必读: 作者为,原文地址:https://a16z.com/2023/05/25/aicanon/ ,译者为通往 AGI 之路。人工智能的研究发展迅速,对于初学者而言困难较大。因此,文中分享了一份用于深入了解现代 AI 的精选资源列表,称为“AI 典藏”,包括对 Transformer 和 Latent Diffusion 模型的介绍,技术学习资源,构建大型语言模型的实用指南,AI 市场的分析,以及里程碑式研究成果的参考列表。
2025-03-20
我刚刚开始了解ai相关知识,我是一个产品经理,我想用最短时间知道一个梗概,应该先了解哪些?
对于刚刚开始了解 AI 相关知识的产品经理,以下是您应该先了解的梗概内容: 1. 技术原理方面: 思维链:谷歌在 2022 年的论文中提到,思维链能显著提升大语言模型在复杂推理的能力,即使不用小样本提示,也可在问题后加“请你分步骤思考”。 RAG(检索增强生成):外部知识库切分成段落后转成向量,存在向量数据库。用户提问并查找到向量数据库后,段落信息会和原本的问题一起传给 AI,可搭建企业和个人知识库。 PAL(程序辅助语言模型):2022 年一篇论文中提出,对于语言模型的计算问题,不让 AI 直接生成结果,而是借助如 Python 解释器等工具。 ReAct:2022 年一篇论文提出的框架,将 reason 与 action 结合,让模型动态推理并与外界环境互动,可借助 LangChain 等框架简化构建流程。 Transformer 是仿生算法的阶段性实现,未来 10 年、20 年可能不再使用。 2. 产品经理相关: 入门级:能通过 WaytoAGI 等开源网站或课程了解 AI 概念,使用 AI 产品并尝试动手实践应用搭建。 研究级:有技术研究和商业化研究两条路径,能根据需求场景选择解决方案,或利用 Hugging face 等工具手搓出一些 AI 应用来验证想法。 落地应用级:有成功落地应用的案例并产生商业化价值。 总之,作为产品经理,要关注场景、痛点和价值,对技术框架有了解,不一定要了解技术细节,但要对技术边界有认知,最好能知道一些优化手段和新技术的发展。
2025-03-19
在哪里可以了解更多有关stable diffusion ai 生图的使用方法?
以下是了解更多有关 stable diffusion ai 生图使用方法的途径: 1. 点击链接进入官方 DISCORD 服务器:https://discord.com/invite/stablediffusion ,进入 ARTISAN 频道,任意选择一个频道。输入/dream 会提示没有权限,点击链接,注册登录,填写信用卡信息以及地址,点击提交,可免费试用三天,三天后开始收费。输入/dream 提示词,这部分和 MJ 类似。可选参数有五类,包括 prompt(提示词,正常文字输入,必填项)、negative_prompt(负面提示词,填写负面提示词,选填项)、seed(种子值,可以自己填,选填项)、aspect(长宽比,选填项)、model(模型选择,SD3,Core 两种可选,选填项)、Images(张数,14 张,选填项)。完成后选择其中一张。 2. 下次作图时,先选择模板,点击倒数第二个按钮,就能将标准提示词快速输入。描述逻辑通常包括人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。对于新手,可通过功能型辅助网站来写提示词,如:http://www.atoolbox.net/ ,它可以通过选项卡的方式快速填写关键词信息;https://ai.dawnmark.cn/ ,其每种参数都有缩略图可参考,方便更直观选择提示词。还可以去 C 站(https://civitai.com/)抄作业,每一张图都有详细参数,点击下面的复制数据按钮,然后直接粘贴到正向提示词栏里,点击生成按钮下的第一个按键,Stable Diffusion 就可以将所有参数自动匹配。但要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会不同。也可以只取其中较好的描述词使用,比如人物描写、背景描述、一些小元素或者画面质感之类的。 3. 将照片放入到后期处理中,使用 GFPGAN 算法将人脸变清晰,可参考文章—— 。将图片再发送到图生图当中,打开 stableSR 脚本,放大两倍。切换到 sd2.1 的模型进行修复,vae 选择 vqgan,提示词可以什么都不写,以免对原图产生干扰。
2025-03-18
懂编程但是不了解大模型的工程师如何系统的学习深度学习?
对于懂编程但不了解大模型的工程师,系统学习深度学习可以参考以下路径: 1. 掌握深度学习和自然语言处理基础: 学习机器学习、深度学习、神经网络等基础理论。 掌握自然语言处理基础,如词向量、序列模型、注意力机制等。 相关课程推荐吴恩达的深度学习课程、斯坦福 cs224n 等。 2. 理解 Transformer 和 BERT 等模型原理: 熟悉 Transformer 模型架构及自注意力机制原理。 掌握 BERT 的预训练和微调方法。 阅读相关论文,如 Attention is All You Need、BERT 论文等。 3. 学习 LLM 模型训练和微调: 进行大规模文本语料预处理。 熟悉 LLM 预训练框架,如 PyTorch、TensorFlow 等。 学会微调 LLM 模型进行特定任务迁移。 参考相关资源,如 HuggingFace 课程、论文及开源仓库等。 4. LLM 模型优化和部署: 掌握模型压缩、蒸馏、并行等优化技术。 了解模型评估和可解释性。 熟悉模型服务化、在线推理、多语言支持等。 运用相关开源工具,如 ONNX、TVM、BentoML 等。 5. LLM 工程实践和案例学习: 结合行业场景,进行个性化的 LLM 训练。 分析和优化具体 LLM 工程案例。 研究 LLM 新模型、新方法的最新进展。 6. 持续跟踪前沿发展动态: 关注顶会最新论文、技术博客等资源。 此外,为了更好地理解相关技术原理和建立框架,还可以了解以下内容: 1. 概念:生成式 AI 生成的内容称为 AIGC。 2. 概念与关系: AI 即人工智能。 机器学习是电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务包括聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习是一种参照人脑有神经网络和神经元的方法(因有很多层所以叫深度),神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 是大语言模型,对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型,可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 3. 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制来处理序列数据,而不需要依赖于循环神经网络或卷积神经网络。
2025-03-13
计算两个时间差的绝对值,输出相差的完整天数。 获得用户输入的两个与时间相关的字符串,两个时间用逗号分隔,每个时间字符串格式示例如下:2018年08月01日17点21分21秒。 以此为要求写出python代码
以下是计算两个指定格式时间差的绝对值并输出相差完整天数的 Python 代码: ```python import datetime def calculate_days_difference: 解析时间字符串 time1 = datetime.datetime.strptime time2 = datetime.datetime.strptime 计算时间差 time_difference = abs 转换为天数并返回 return time_difference.days 示例用法 time1_str = "2023年08月01日17点21分21秒" time2_str = "2023年08月10日17点21分21秒" print ```
2025-03-22
我没有运营过AI相关的自媒体账号,现在想做一个AI自媒体账号,后期能变现,请根据账号内容,调性帮我想一下这个账号应该怎么做
以下是关于如何运营一个能变现的 AI 自媒体账号的建议: 变现方式: 可通过官方蒲公英平台接单,平台会收取 10%手续费。 接受主流媒体约稿,虽然稿费可能较低,但有背书作用。 平台选择: 推荐小红书和 B 站。小红书从种草平台逐渐变为知识社区,知识属性适合 AI 创作者。 视频号也值得尝试,但相关经验分享较少。 内容形式: 小红书能发视频就发视频,其视频 UI 界面改版且推送机制变化,后续可能重点发力视频。 账号赛道: 起号前期可用妖魔鬼怪类内容吸引关注,但后期要扭转账号标签。 做有价值的账号,不能割韭菜,要把 AI 生态圈做大。 账号搭建与运营: 头像设计:要有记忆点和视觉冲击力,能让人记住。 名称选择:要独特,能体现个人或内容特点。 简介撰写:要有哲理或引人思考的话语,能吸引用户。 封面统一:要统一且具有账号属性,体现商业化。 运营策略: 追热点:账号初期应追热点,如对热门内容进行分析和跟风创作。 获取信任:做 IP 最终要赢得用户信任,增强其对推荐内容的关注度。 日更:坚持日更有助于账号发展,能获得更多流量和关注。 其他注意事项: 限流判断:一条视频发布三天只有三个眼睛,或一篇笔记 24 小时浏览量不超过 100 且连续 10 篇如此,可能被限流。 内容创作:要有利他属性和视觉冲击力,可做教程类内容,避免内容混乱。 重新起号:建了很久的号若效果不佳可重新起号,不用换手机,5000 粉丝的号可继续做。 打标签:内容有爆款后会被打上标签,根据内容选择合适标签。 赛道选择:先做泛赛道再做窄赛道。 露脸:露脸做账号很重要,能刷掉大批竞争对手。 商单价格:取决于粉丝量和个人影响力,一般报 1000 3000。
2025-03-22
0AI实习经验,该如何破局进入AI相关行业。bg:小语种专业,有电商+互联网实习经历
对于没有 AI 实习经验但想进入 AI 相关行业的小语种专业背景且有电商和互联网实习经历的您来说,可以从以下几个方面破局: 1. 学习基础知识:通过在线课程、书籍等途径,系统学习 AI 的基础知识,包括机器学习、深度学习、自然语言处理等。 2. 参加培训项目:报名参加专业的 AI 培训项目,获取实践经验和项目成果。 3. 构建个人项目:利用所学知识,在开源数据集上构建自己的 AI 项目,展示实践能力。 4. 拓展人脉:参加 AI 相关的行业活动、论坛、社群,结识业内人士,争取内推机会。 5. 优化简历:在简历中突出您在电商和互联网实习中所培养的相关技能,如数据分析、问题解决等,并强调您对 AI 的学习热情和潜力。 6. 申请实习岗位:即使是一些小型公司或初创企业的 AI 实习岗位,也积极申请,积累经验。 7. 考取相关证书:获取一些被行业认可的 AI 相关证书,增加竞争力。
2025-03-21
我想快速学习AI agent相关知识,请问有什么视频可以快速入门?
以下是一些可以帮助您快速入门 AI agent 相关知识的视频资源: 1. 元子的“Agent 板块”相关内容: 链接: 用法:从下往上看,一个一个点进去,都有视频。 注意事项:共学都有视频,都是手把手从注册开始的教学,不会就多看几遍,基本保障一个工具能调通、一个 Agent 能搭好。如果觉得内容较多,可以先从听过的工具开始,避免太累。 2. 大圣分享的《Coze 全流程搭建》: 视频时间点及内容: AI agent 共学小组:扣子入门分享 AI agent——解决人工智能编写难题的新利器 关于 AI agent 的介绍及扣子的使用 介绍如何创建 GPT 4 免费使用的小 bot 并了解 cos 界面 如何利用 AI 实现智能客服 关于知识库的使用及文档要求 如何使用知识库和工作流让机器人调用知识库生成回答 如何利用工作流、大模型、代码节点和变量节点构建知识库 3. 元子的“从常见工具开始——都体验一遍”相关内容: 工具入门篇(AI Agent):Agent 工具小白的 Coze 之旅 文章链接: 视频链接:Coze 之旅 1.0: 适用人群:完全没有编程基础,但对 AI 已有一点概念的小白 简要说明:为纯粹小白补的分享 AI AGENT 搭建平台,为什么是它、怎么 30 分钟就能开始用它 您可以根据自己的情况选择适合的视频进行学习。
2025-03-21