Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

TRAE如何配置MCP

Answer

配置 MCP 的方法如下:

  • 在支持浏览器交互的情况下,复制箭头指向的命令,将其填在 Curosr feather 的 MCP Serve 里面。服务名称可随便填,类型选 command。但由于国内网络原因,可能会显示工具找不到,此时最好先在终端执行该命令安装好后再填入。
  • 在 Windsurf 中进行 MCP 配置,可找到 MCP 工具社区网站(如 https://github.com/modelcontextprotocol/servers),复制某个 MCP 工具(如 uvx)的安装方式命令,通过小锤子配置,粘贴命令。还有些网站(如 https://smithery.ai/,https://www.pulsemcp.com/)可直接安装依赖包,在终端执行即可。
  • 部署 Smithery 服务器需要在仓库中包含两个必需文件:Dockerfile 和 smithery.yaml。Dockerfile 用于定义如何构建服务器,smithery.yaml 用于指定如何启动服务器。当触发部署时,Smithery 会尝试自动生成包含这些文件的 pull-request,但在某些情况下,自动配置可能会失败,需要手动设置。手动配置时,在仓库根目录创建 Dockerfile 和 smithery.yaml 文件,Dockerfile 定义 MCP 服务器的构建方式,smithery.yaml 定义 MCP 服务器的启动方式。
  • 开发 MCP 服务时,复制下方指令发送给 AI,根据说明文件进行操作。当看到“Done”标记时,告诉 AI“继续”。完成后,用特定口令召唤配置,在 Windsurf 中点击 configure 粘贴代码,在 Cursor 中参考相应配置。
Content generated by AI large model, please carefully verify (powered by aily)

References

Windsurf Wave3:MCP协议让AI直接读取控制台错误,自动化网页调试不用复制粘贴了!Tab智能跳转、Turbo模式。

找到这个支持浏览器交互的:复制箭头指向的这个命令:你可以把它直接填在Curosr feather的MCP Serve里面服务名称随便填,类型选command(另外一个sse是填本地运行服务的端口的),服务链接就选上面那个命令:但是由于国内网络原因,常常会显示这样工具找不到(实际上是没安装成功),并且cursor不会弹出任何错误信息,让人真的很恼火,感觉就是个草台班子,最开始用windows配置MCP,还以为是系统原因。所以你最好现在终端执行这个命令,安装好了之后,你再按照上面那样把它填进去,就可以排除网络问题。我没在终端执行这个命令,而是直接让cursor agent来,因为他安装遇到什么错误可以自己解决:最后也是成功了:最后使用就是这个样子:在Cursor Agent模式下说明你要执行的任务或者MCP服务名称,代理就会自动调用你已经安装好的MCP工具:还有些MCP工具依赖于macOS特定的剪贴板操作,因此仅适用于macOS。在Windsurf中进行MCP配置我们找到一个MCP工具社区网站:https://github.com/modelcontextprotocol/servers,复制某个MCP工具比如uvx安装方式命令:通过这个小锤子配置即可,粘贴上面的命令。还有些网站(https://smithery.ai/,https://www.pulsemcp.com/)是直接安装依赖包。终端执行即可。

Model Context Protocol托管平台

部署Smithery服务器需要在仓库中包含两个必需文件:1.Dockerfile2.smithery.yamlDockerfile用于定义如何构建服务器,smithery.yaml用于指定如何启动服务器。[heading3]9.2自动配置[content]当触发部署时,Smithery会尝试自动生成包含这些文件的pull-request。但在某些情况下,自动配置可能会失败,需要手动设置。[heading3]9.3手动配置[heading4]Dockerfile配置[content]在仓库根目录创建Dockerfile定义MCP服务器的构建方式Docker镜像运行时应启动STDIO服务器注意:仅支持主流Linux Docker镜像(基于Alpine/Debian),且容器中需要可运行sh[heading4]smithery.yaml配置[content]在仓库根目录创建smithery.yaml文件,定义MCP服务器的启动方式。配置项说明:1.基本配置:type:stdio:指定仓库为标准I/O基础的MCP服务器configSchema:定义服务器配置选项的JSON SchemacommandFunction:返回启动服务器所需命令、参数和环境变量的JavaScript函数2.可选配置:build对象:dockerfile:Dockerfile路径(相对于配置文件)dockerBuildPath:docker构建上下文路径(相对于配置文件)

成峰: 从 0 开始,手把手教你开发第一个MCP服务!

复制下方指令,发送AI根据说明文件,开发一个MCP Server@说明文件[heading1]04让AI继续加油干![content]当你看到"Done"这个标记时,别慌!这只是说明AI的执行次数到了~只要告诉它"继续",它就会重新燃烧起来!🔥[heading1]05最后的配置[content]搞定之后,用这个口令召唤配置:给我对接的json复制这个代码[heading2]Windsurf[content]点击configure,把获得的代码粘贴进去,是不是很简单![heading2]Cursor[content]参考下方配置Name:随便你命名Type:选择commandCommand:把“args”后面的代码复制出来,如下图小贴士:记得把command里的引号去掉哦!就像这样:node/Users/chengfeng/Desktop/代码/MCP合集/教学3/mcp-server/build/index.js[heading1]06一个MCP就完成啦![content]看!你的第一个MCP服务诞生啦!是不是超级简单?![heading1]💡下一步计划[content]学会了怎么开发一个MCP,下一步告诉大家,怎么部署一个MCP!

Others are asking
MCP
模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。它就像 AI 领域的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。传统 API 就像每扇门都有一把不同的钥匙,而 MCP 让 AI 模型更简单地获取数据、工具与服务。 在某些情况下,传统 API 更适合,比如应用场景需要精准且严格受控的交互方式,包括需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性。 MCP 最早由 Anthropic 公司开发,现在已成为一个开放协议,越来越多的企业和开发者开始采用它,逐渐成为 AI 与工具互动的新标准。 要开始使用 MCP,可按照以下步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 例如,Claude 可以通过简单的 MCP 集成直接连接到 GitHub、创建新存储库并创建 PR。Anthropic 一直在研究 MCP 这一开放标准,以解决 LLM 应用程序将其连接到数据的核心挑战,不再为每个数据源构建自定义集成,MCP 提供一种协议来连接它们。
2025-03-22
mcp
模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。它就像AI领域的“USBC接口”,能让不同的AI模型与外部工具和数据源轻松连接。 MCP的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换AI模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI系统扩展时,只需连接新的MCP服务器。 与传统API相比,通常AI系统连接外部工具时,需要单独整合多个不同的API,每个API都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。传统API就像不同的门,每扇门都需要自己的钥匙和特定的规则,而MCP让AI模型更简单地获取数据、工具与服务。 在某些情况下,传统API更适合,比如应用场景需要精准且严格受控的交互方式,包括需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性。 Anthropic 公司最早开发了 MCP,现在它已成为一个开放协议,越来越多的企业和开发者开始采用。 要开始使用 MCP,可按照以下步骤: 1. 定义能力:明确MCP服务器提供的功能。 2. 实现MCP层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与MCP服务器建立安全稳定的连接。 Claude 可以通过简单的MCP集成直接连接到GitHub、创建新存储库并创建PR。
2025-03-21
什么是mcp server
MCP(模型上下文协议)是一项创新标准,由 Anthropic 于 2024 年 11 月推出并开源。其作用在于让大语言模型能够无缝连接至第三方的数据源,支持对接内容存储库、业务工具、开发环境等多种外部服务,从而使 AI 大模型获取更丰富的上下文信息,生成更精准、相关且智能的回答。 MCP 就像一个“转接头”或“通用插座”,统一不同外部服务,通过标准化接口与 AI 模型对接。开发者基于 MCP 规范开发一次“接口适配器”(MCP 服务器),就能让所有兼容 MCP 的模型(MCP 客户端)无缝接入,大幅提升兼容性与开发效率。MCP 里面还包含 SSE(ServerSent Events),是一种允许服务器向浏览器推送实时更新的技术。 MCP 具有以下好处: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 在 Windsurf 中进行 MCP 配置时,可以找到相关工具社区网站,复制安装方式命令进行配置。有些网站可直接安装依赖包,在终端执行即可。 快速集成 MCP 的步骤包括: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 传统 API 在以下场景可能更适合: 需要细粒度控制、功能严格限制。 更偏好紧耦合以提升性能。 希望最大化交互的可预测性。 MCP 与传统 API 的关键区别在于: 单一协议:MCP 像一个统一接口,只要一次整合,就能连接多个服务。 动态发现:AI 模型能自动识别并使用可用的工具,不用提前写死每个接口。 双向通信:MCP 支持类似 WebSockets 的实时双向通信,模型不仅能查询数据,还能主动触发操作。 但由于国内网络原因,在配置 MCP 时可能会出现安装不成功且 Cursor 不弹出错误信息的情况。此时最好先在终端执行相关命令安装好后再进行配置。还有些 MCP 工具依赖于 macOS 特定的剪贴板操作,因此仅适用于 macOS。
2025-03-20
MCP
模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。它就像 AI 领域的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。传统 API 就像不同的门,每扇门都需要自己的钥匙和特定的规则,而 MCP 让 AI 模型更简单地获取数据、工具与服务。 在某些情况下,传统 API 更适合,比如应用场景需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性。 MCP 最早由 Anthropic 公司开发,现在已成为一个开放协议,越来越多的企业和开发者开始采用它,逐渐成为 AI 与工具互动的新标准。 要开始使用 MCP,可按照以下步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 例如,Claude 可以通过简单的 MCP 集成直接连接到 GitHub、创建新存储库并创建 PR。Anthropic 一直在研究 MCP 这一开放标准,以解决 LLM 应用程序将其连接到数据的核心挑战,不再为每个数据源构建自定义集成,MCP 提供一种协议来连接它们。
2025-03-20
我想了解MCP相关信息
模型上下文协议(MCP)是一种全新的开放协议,用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。 MCP 的特点和优势包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 与传统 API 的区别在于: 传统 API 通常需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。 传统 API 就像不同的门,每扇门都需要自己的钥匙和特定的规则。 MCP 由 Anthropic 公司最早开发,现已成为一个开放协议,越来越多的企业和开发者开始采用。 在某些情况下,传统 API 更适合,如应用场景需要精准且严格受控的交互方式,包括需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性。 开始使用 MCP 的步骤包括: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 例如,Claude 可以通过简单的 MCP 集成直接连接到 GitHub、创建新存储库并创建 PR。
2025-03-19
介绍MCP的文档有哪些
以下是关于 MCP 的一些文档介绍: 1. 《Windsurf Wave3:MCP 协议让 AI 直接读取控制台错误,自动化网页调试不用复制粘贴了!Tab 智能跳转、Turbo 模式》:介绍了 MCP 的基本概念,即纯 LLM 无法行动,MCP 工具可充当其与现实世界交互的手并反馈结果指导下一步行动。同时提供了 MCP 官方文档和 Cursor 关于 MCP 的介绍链接:https://modelcontextprotocol.io/ 、https://docs.cursor.com/context/modelcontextprotocol 。还提到了一些相关工具如 Brave Search、Puppeteer 和 Sequential Thinking 等能让调试和搜索更顺畅,以及热门的 Playwright CDP 能让 AI 控制浏览器变得简单等内容。 2. 《Model Context Protocol官方网站找到,包括架构详细说明、基础协议文档、服务器功能说明、客户端功能文档、贡献指南等。此规范为 AI 应用生态系统提供了标准化的集成方案。 3. 《什么是模型上下文协议(MCP)?它如何比传统 API 更简单地集成 AI?》:解释了 MCP 的价值、工作原理,以及它与传统 API 的关键区别。如 MCP 是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景,像 AI 领域的“USBC 接口”能让不同的 AI 模型与外部工具和数据源轻松连接。还对比了传统 API 整合的复杂性,以及介绍了 MCP 最早由 Anthropic 公司开发,现已成为开放协议并被更多企业和开发者采用。
2025-03-18
请你帮我找到AI编程与炼金术 build on trae的课程文档
以下是关于“AI 编程与炼金术 Build on Trae”的课程文档相关内容: 课程活动:包括制作图片字幕生成器、开发网页金句卡片生成器、制作一档专属自己的 AI 博客、制作中文名字生成器、构建一个优质文章推荐网站、制作表情包生成器、开发 Life Coach 应用、构建浏览器智能插件、开发个人网页/小程序,并进行优化部署等。 知识图谱: 章节: 三.使用 DeepSeek R1 给老外起中文名 八.做一档你自己的 AI 播客 九.柴犬表情包生成器实战(Coze bot+API) 十.做一个微信小程序 一.Trae 的介绍/安装/疑难杂症 二.图片字幕生成器 四.DeepSeek R1 驱动的 Life Coach 五.DeepSeek 驱动的网页金句卡片生成 六.做一个你专属的好文推荐网站(DeepSeek R1+飞书多维表格) 七.做一个你专属的好文推荐网站(DeepSeek R1+飞书多维表格)(下) 知识点: Node.JS 安装 Python 安装 相关链接: 其他各章节对应的具体链接 您可以根据上述内容,通过相应的链接获取更详细的课程文档信息。
2025-03-21
如何运用Trae设计实现前端代码并转化为原型图
以下是运用 Trae 设计实现前端代码并转化为原型图的相关内容: 1. 控制按钮(开始、暂停、重新开始)和游戏说明。 2. 生成任务清单应用:在输入框中输入“使用 Web 技术开发一个任务清单应用”,可得到一个朴素但功能俱全的任务清单应用。 3. 根据 UI 设计图自动生成项目代码:从站酷上找设计图,输入提示如“使用 html 技术实现如图大屏页面”,页面虽不完美但可调整,如“调整一下,给图表设置合适的宽高比例,自适应页面大小”,能使图表大小正常。 总结: Trae 表现可圈可点,具有高效代码生成能力,能在几分钟内生成完整框架,代码结构清晰且功能齐全,能自动处理依赖项和运行命令。 支持多技术栈,从 HTML5、响应式 CSS 布局到 Echarts 图表实现,对 Web 技术掌握良好,生成的代码可直接运行且无明显语法错误。 具有动态调整潜力,虽未完美复现设计图,但能根据用户反馈快速调整样式,自适应布局的实现展现了迭代能力。 现在的 AI 越来越强大,小白不需要懂代码也能用 AI 编程工具进行程序开发,这让程序员感到深深的危机感。
2025-03-21
trae教程
以下是关于 Trae 的详细教程: 1. 控制按钮:包括开始、暂停、重新开始。 2. 生成任务清单应用:在输入框中输入“使用 Web 技术开发一个任务清单应用”,可生成相应应用。 3. 根据 UI 设计图自动生成项目代码:从站酷上找设计图,输入提示“使用 html 技术实现如图大屏页面”,但生成效果可能存在一些问题,可让 Trae 继续调整。 4. 进入客户端:自动进入 Trae 客户端后,在对话框右下角可选择三种大模型,如 Claude3.5Sonnet、Claude3.7Sonnet、GPT4o。Trae 提供 Chat 模式和 Builder 模式,Chat 模式可根据描述进行代码生成、解释、分析或解决问题,Builder 模式可从 0 开发完整项目,代码文件更改会自动保存。 5. 使用案例: 生成贪吃蛇游戏:打开 Builder 模式输入相关指令,排队完成后 Trae 进行思考和代码编写,手动接入审查并接受,代码生成后自动运行命令启动页面,可试玩,游戏包含多种特性和功能,界面也有相应显示。 6. 特点和优势:相比 IDE 插件类的 AI 代码助手,Trae 作为 AI 原生的 IDE 有跨越式突破,如多行全方位自动补全和具备 Agent 能力,能自动完成一系列工作。 从实际体验来看,Trae 表现可圈可点,具有高效代码生成能力、多技术栈支持和动态调整潜力。
2025-03-21
trae小白入门到精通
以下是关于 Trae 小白入门到精通的相关内容: 线上课程资料: B 站搜索「通往 AGI 之路」,进入课程合集「Trae 小白入门到精通」,链接:https://space.bilibili.com/259768893/lists/4964987?type=season 更多资料: 校园:https://waytoagi.feishu.cn/wiki/WtsVwPRrnie5iGk5BiKcYEjHnpb?renamingWikiNode=true 灵感参考: Build on Trae AI 编程挑战获奖作品展示:https://waytoagi.feishu.cn/wiki/ME5ZwwUw0ixMlkkbsq1cGngknUd 实践 1:美国金融学年会(AFA)入选论文分析:https://xwfixqlhmsm.feishu.cn/wiki/JuBqwFnxPiMGCRkmqtNcxoymn1f 实践 1:桌面宠物制作:https://lcnziv86vkx6.feishu.cn/wiki/RuyQwpBWniauANkyUsTcG675nme?fromScene=spaceOverview 每日打卡:https://waytoagi.feishu.cn/share/base/form/shrcnRZdkqXc2aVfjoZmvnF2Pvg 直达 Trae: https://sourl.co/rCjTWs https://mp.weixin.qq.com/s/nJJMeGEAHXy6HC_T_ThSTw Trae 的保姆级使用指南: 控制按钮(开始、暂停、重新开始)和游戏说明。 生成任务清单应用:在输入框中输入“使用 Web 技术开发一个任务清单应用”。 根据 UI 设计图自动生成项目代码:从站酷上找设计图,输入提示“使用 html 技术实现如图大屏页面”。 总结: 高效代码生成能力:能在几分钟内生成完整框架,代码结构清晰且功能齐全,甚至能自动处理依赖项和运行命令。 多技术栈支持:对 Web 技术的掌握远超预期,生成的代码可直接运行且无明显语法错误。 动态调整潜力:能根据用户反馈快速调整样式,自适应布局的实现展现了 AI 的迭代能力。 进入客户端:自动进入 Trae 的客户端后,查看对话框右下角,有三种大模型选择:Claude3.5Sonnet、Claude3.7Sonnet、GPT4o。 提供两种模式: Chat 模式:根据描述进行代码生成、解释、分析问题或解决问题。 Builder 模式:可以让 Trae 帮助从 0 开发一个完整的项目,对代码文件的任何更改都会自动保存。 使用案例: 生成贪吃蛇游戏:打开 Builder 模式输入“使用 web 技术栈生成一个贪吃蛇游戏”,排队完成后 Trae 开始思考和代码编写,手动接入进行文件审查点击“全部接受”,代码生成完成后 Trae 自动运行命令启动页面,运行后在 Webview 中可看到实现的游戏效果。游戏包含特性、主要功能和游戏界面等。
2025-03-20
如何用trae开发一个微信小程序
以下是使用 Trae 开发微信小程序的步骤: 1. 开发微信小程序的准备工作: 注册一个微信小程序账号:访问 https://mp.weixin.qq.com/cgibin/wx ,点击“前往注册”,进入小程序注册页面。填写邮箱、确认密码,接收激活邮件并点击激活链接,进入具体注册页面。选择“主体类型”并填写相关信息登记,核心是获取 AppID。 下载微信开发者工具:访问 https://developers.weixin.qq.com/miniprogram/dev/devtools/download.html ,选择稳定版进行下载。下载完毕后打开微信开发者工具,扫码登录。创建项目名称和目录,选择项目名称和目录,点击 AppID 下拉框选择关联的微信小程序,若不需要微信云开发,后端服务选择“不使用云服务”,然后点击“创建”按钮进入开发界面。 2. 打开 Trae 开始开发: 继续使用 Chat 模式明确需求,生成 prd.md 后可进行修改。 切换到 Builder 模式进行开发。Trae 会在本地文件夹内生成代码,微信开发者工具从同一本地文件夹读取代码且有实时预览功能,可在左侧预览窗口进行交互,还可点击右上角真机调试进行预览。 开发过程中若有报错就修改错误,直到在微信开发者工具内调试正常。 点击微信开发者工具右上角“上传”,在弹出的弹窗里选择“确定”。 接着在弹出的选项里填写版本号和项目备注,上传完毕后会显示上传成功。 随后,可在微信小程序后台的版本管理里看到开发版本的信息,可以点击体验版进行线上体验,也可以提交审核。 另外有两个额外要点需要了解: Trae+微信开发者工具协同开发。 微信认证和 ICP 备案。
2025-03-19
trae 使用教程
以下是 Trae 的保姆级使用教程: 1. 什么是 Trae: Trae 是字节跳动推出的智能编程助手,提供基于 Agent 的 AI 自动编程能力,使用自然语言对话就能实现代码编写。 2. Trae 的功能: 传统 IDE 功能,如代码编写、项目管理、插件管理、源代码管理等。 智能问答,可在编写代码时随时与 AI 助手对话,获得代码解释、注释和错误修复等帮助。 实时代码建议,能理解当前代码并在编辑器中实时提供建议,提升编程效率。 代码片段生成,通过自然语言描述需求生成相应代码片段,甚至能编写项目级或跨文件代码。 从 0 到 1 开发项目,告诉 AI 助手想开发的程序,其将提供相关代码或自动创建所需文件。 3. 下载 Trae: 官网下载地址:https://www.trae.ai/download ,支持 Mac 系统、Windows 系统,未来支持 Linux 系统。 4. 使用方法: 安装:下载完成后按界面提示一步步安装。 登录:安装完成后点击右侧登录按钮,程序会自动打开网页提示登录,无账号需先注册。登录完可能会出现“App Unavailable”,此时需要开启科学上网。网页登录成功后可关闭科学上网,再点击中间大按钮。 进入客户端后,查看对话框右下角,有三种大模型可选:Claude3.5Sonnet、Claude3.7Sonnet、GPT4o 。 Trae 提供两种模式:Chat 模式,根据描述进行代码生成、解释、分析问题或解决问题;Builder 模式,帮助从 0 开发完整项目,对代码文件的任何更改都会自动保存。 5. 使用案例: 生成一个贪吃蛇游戏:打开 Builder 模式,输入“使用 web 技术栈生成一个贪吃蛇游戏”,排队完成后 Trae 开始思考和代码编写,期间需手动接入进行文件审查并点击“全部接受”。代码生成完成后,Trae 自动运行命令启动页面,点击运行,在 Webview 中可看到游戏效果,试玩基本无 Bug。Trae 还进行了工作总结,说明了游戏的特性、主要功能和游戏界面。 生成一个任务清单应用:在输入框中输入“使用 Web 技术开发一个任务清单应用”,可直接看效果。 根据 UI 设计图自动生成项目代码:从站酷上找一张设计图,输入提示“使用 html 技术实现如图大屏页面”,虽页面不完美但可让 Trae 调整。 从实际体验来看,Trae 表现可圈可点,具有高效代码生成能力、多技术栈支持和动态调整潜力。
2025-03-16
怎么搭建扣子智能体提取抖音文案并进行改写用到哪些插件,并给我配置参数与步骤图
以下是搭建扣子智能体提取抖音文案并进行改写所需的插件、配置参数及步骤: 1. 插件搭建: 点击个人空间,选择插件,点击创建插件。 插件名称:使用中文,根据需求起名。 插件描述:说明插件的用途和使用方法。 插件工具创建方式:选择云侧插件基于已有服务创建,填入所使用 API 的 URL。 在新的界面点击创建工具,填写工具的基本信息,如工具名称(只能使用字母、数字和下划线)、工具描述、工具路径(以“/”开始,若使用 path 方式传参,用“{}”包裹变量)、请求方法等,结束后点击保存并继续。 2. 配置输入参数: 点击新增参数,填写所有需要使用的参数,保存并继续。 3. 配置输出参数: 如果一切填写正确,可直接点击自动解析,会自动调用一次 API 给出对应的输出参数。 填入汉字“张”,点击自动解析。 解析成功后显示解析成功,可看到输出参数已填好,然后点击保存并继续。 4. 调试与校验: 测试工具是否能正常运行。 运行后查看输出结果,Request 为输入的传参,Response 为返回值,点击 Response 可看到解析后的参数。 此外,安仔使用 Coze 免费创建 24 小时英语陪练的步骤包括: 1. 打开扣子首页,点击左上角创建 AI Bot 按钮。 2. 在弹窗输入 Bot 相关信息。 3. 设计人设与回复逻辑,根据功能需求设计提示词。 4. 调整模型设置,如改为 20 轮对话记录。 5. 选择使用插件,如英文名言警句、Simple OCR 等。 6. 设置开场白和预置问题。 7. 设置语音,选择亲切的英语音色。
2025-03-18
有相关mcp如果配置的相关资料么
以下是关于 MCP 配置的相关资料: MCP 是 Claude 官方推出的一个协议。纯 LLM 无法行动,MCP 工具可以充当其与现实世界交互的“手”,并反馈结果指导下一步行动。 在配置方面: 对于 Windows 系统,找到支持浏览器交互的命令,复制箭头指向的命令并填在 Curosr feather 的 MCP Serve 里,服务名称可随便填,类型选 command。由于国内网络原因,可能会显示工具找不到,此时最好先在终端执行命令安装好后再填入。 在 Windsurf 中进行 MCP 配置,可找到 MCP 工具社区网站如 https://github.com/modelcontextprotocol/servers ,复制某个 MCP 工具如 uvx 安装方式命令,通过小锤子配置,粘贴命令。还有些网站如 https://smithery.ai/ 、https://www.pulsemcp.com/ 可直接安装依赖包,终端执行即可。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 在某些场景下传统 API 更适合,如需要精准且严格受控的交互方式、更偏好紧耦合以提升性能、希望最大化交互的可预测性等。 快速集成 MCP 的步骤包括: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 总结来说,MCP 为 AI 模型统一连接数据与工具的标准接口,让 AI 与外部数据、工具的连接变得更加标准化和高效。以下是一些相关文档和介绍的链接: https://modelcontextprotocol.io/ https://docs.cursor.com/context/modelcontextprotocol
2025-03-17
给我推荐一个家庭用的私人部署deepseek电脑配置,要求价格在5W一下,能够比较流畅的运行,还有采用那一个版本的模型
很抱歉,您提供的内容中没有关于家庭用私人部署 deepseek 电脑配置的相关信息。如果您需要配置一台价格在 5 万以下、能流畅运行的家庭用电脑,以下是一些建议: CPU:可以选择英特尔酷睿 i9 或 AMD 锐龙 9 系列的高端处理器。 显卡:选择 NVIDIA GeForce RTX 40 系列的高端显卡,如 RTX 4080 或 RTX 4070Ti。 内存:32GB 或 64GB 的 DDR5 内存。 存储:1TB 或 2TB 的 NVMe SSD 作为系统盘,再加上大容量的机械硬盘用于数据存储。 主板:选择与所选 CPU 兼容的高端主板,以确保稳定性和扩展性。 关于模型版本,Midjourney 的 V5 模型是较新且先进的版本,具有更广泛的风格范围、更高的图像质量、更详细的图像等优点。您可以通过添加“v 5”参数或使用“/settings”命令并选择 MJ Version 5 来使用该模型。
2025-03-17
给我推荐一个家庭用的私人部署deepseek电脑配置,要求价格在5W一下,能够比较流畅的运行,还有采用那一个版本的模型
以下是为您推荐的家庭用私人部署 deepseek 电脑配置,价格在 5 万以下,能够较流畅运行: CPU:Intel Core i913900K 或 AMD Ryzen 9 7950X 显卡:NVIDIA GeForce RTX 4080 或 RTX 4070Ti 内存:32GB 或 64GB DDR5 高频内存 硬盘:1TB NVMe M.2 固态硬盘 + 4TB 机械硬盘 主板:支持所选 CPU 的高端主板,如 Z790 或 X670 系列 电源:850W 及以上的高品质电源 关于模型版本,Midjourney 最新的模型是 V5 版本,于 2023 年 3 月 15 日发布。使用此模型,您可以在提示词末尾添加 v 5 参数,或使用 /settings 命令并选择 MJ Version 5。该模型具有很高的连贯性,擅长解释自然语言提示,分辨率更高,并支持如 tile 重复图案等高级功能。它在风格范围、图像质量、细节表现、对提示的响应以及图像提示性能等方面都有显著改进。
2025-03-17
给我推荐一个家庭用的私人部署deepseek电脑配置,要求价格在5W一下,能够比较流畅的运行
对于家庭用的私人部署 deepseek 电脑配置,在 5 万元以下的预算,以下是一个推荐配置: CPU:Intel Core i913900K 或 AMD Ryzen 9 7950X 主板:选择与所选 CPU 兼容的高端主板,如华硕、技嘉等品牌的 Z790 或 X670 系列 内存:32GB 或 64GB DDR5 高频内存 硬盘:1TB NVMe M.2 固态硬盘作为系统盘,再加上 4TB 以上的机械硬盘用于数据存储 显卡:NVIDIA GeForce RTX 4070Ti 或 AMD Radeon RX 7900 XTX 电源:850W 及以上的高品质电源 机箱:选择散热良好、空间宽敞的机箱 请注意,电脑配置的选择还需要考虑您的具体需求和使用场景,以上配置仅供参考。
2025-03-17
做AI工具对电脑配置有要求么,需要什么样的电脑配置
做 AI 工具对电脑配置有一定要求,具体如下: 系统:Windows 7 以上(包括 Win10 和 Win11),Mac 系统也可以,但存在一些难点。 显卡:NVDIA 独立显卡且显存至少 4G 起步,Mac 系统中,M1 芯片只有 CPU 没有 GPU,生图会较慢。 硬盘:留有足够的空间,最低 100G 起步(包括模型)。 内存:电脑运行内存 8GB 以上,推荐 16GB 以上;显卡内存 4GB 以上,推荐 8GB 以上。 如果电脑配置不达标,可以选择云端部署,Mac 系统也推荐云端部署。
2025-03-13