Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

TRAE如何配置MCP

Answer

配置 MCP 的方法如下:

  • 在支持浏览器交互的情况下,复制箭头指向的命令,将其填在 Curosr feather 的 MCP Serve 里面。服务名称可随便填,类型选 command。但由于国内网络原因,可能会显示工具找不到,此时最好先在终端执行该命令安装好后再填入。
  • 在 Windsurf 中进行 MCP 配置,可找到 MCP 工具社区网站(如 https://github.com/modelcontextprotocol/servers),复制某个 MCP 工具(如 uvx)的安装方式命令,通过小锤子配置,粘贴命令。还有些网站(如 https://smithery.ai/,https://www.pulsemcp.com/)可直接安装依赖包,在终端执行即可。
  • 部署 Smithery 服务器需要在仓库中包含两个必需文件:Dockerfile 和 smithery.yaml。Dockerfile 用于定义如何构建服务器,smithery.yaml 用于指定如何启动服务器。当触发部署时,Smithery 会尝试自动生成包含这些文件的 pull-request,但在某些情况下,自动配置可能会失败,需要手动设置。手动配置时,在仓库根目录创建 Dockerfile 和 smithery.yaml 文件,Dockerfile 定义 MCP 服务器的构建方式,smithery.yaml 定义 MCP 服务器的启动方式。
  • 开发 MCP 服务时,复制下方指令发送给 AI,根据说明文件进行操作。当看到“Done”标记时,告诉 AI“继续”。完成后,用特定口令召唤配置,在 Windsurf 中点击 configure 粘贴代码,在 Cursor 中参考相应配置。
Content generated by AI large model, please carefully verify (powered by aily)

References

Windsurf Wave3:MCP协议让AI直接读取控制台错误,自动化网页调试不用复制粘贴了!Tab智能跳转、Turbo模式。

找到这个支持浏览器交互的:复制箭头指向的这个命令:你可以把它直接填在Curosr feather的MCP Serve里面服务名称随便填,类型选command(另外一个sse是填本地运行服务的端口的),服务链接就选上面那个命令:但是由于国内网络原因,常常会显示这样工具找不到(实际上是没安装成功),并且cursor不会弹出任何错误信息,让人真的很恼火,感觉就是个草台班子,最开始用windows配置MCP,还以为是系统原因。所以你最好现在终端执行这个命令,安装好了之后,你再按照上面那样把它填进去,就可以排除网络问题。我没在终端执行这个命令,而是直接让cursor agent来,因为他安装遇到什么错误可以自己解决:最后也是成功了:最后使用就是这个样子:在Cursor Agent模式下说明你要执行的任务或者MCP服务名称,代理就会自动调用你已经安装好的MCP工具:还有些MCP工具依赖于macOS特定的剪贴板操作,因此仅适用于macOS。在Windsurf中进行MCP配置我们找到一个MCP工具社区网站:https://github.com/modelcontextprotocol/servers,复制某个MCP工具比如uvx安装方式命令:通过这个小锤子配置即可,粘贴上面的命令。还有些网站(https://smithery.ai/,https://www.pulsemcp.com/)是直接安装依赖包。终端执行即可。

Model Context Protocol托管平台

部署Smithery服务器需要在仓库中包含两个必需文件:1.Dockerfile2.smithery.yamlDockerfile用于定义如何构建服务器,smithery.yaml用于指定如何启动服务器。[heading3]9.2自动配置[content]当触发部署时,Smithery会尝试自动生成包含这些文件的pull-request。但在某些情况下,自动配置可能会失败,需要手动设置。[heading3]9.3手动配置[heading4]Dockerfile配置[content]在仓库根目录创建Dockerfile定义MCP服务器的构建方式Docker镜像运行时应启动STDIO服务器注意:仅支持主流Linux Docker镜像(基于Alpine/Debian),且容器中需要可运行sh[heading4]smithery.yaml配置[content]在仓库根目录创建smithery.yaml文件,定义MCP服务器的启动方式。配置项说明:1.基本配置:type:stdio:指定仓库为标准I/O基础的MCP服务器configSchema:定义服务器配置选项的JSON SchemacommandFunction:返回启动服务器所需命令、参数和环境变量的JavaScript函数2.可选配置:build对象:dockerfile:Dockerfile路径(相对于配置文件)dockerBuildPath:docker构建上下文路径(相对于配置文件)

成峰: 从 0 开始,手把手教你开发第一个MCP服务!

复制下方指令,发送AI根据说明文件,开发一个MCP Server@说明文件[heading1]04让AI继续加油干![content]当你看到"Done"这个标记时,别慌!这只是说明AI的执行次数到了~只要告诉它"继续",它就会重新燃烧起来!?[heading1]05最后的配置[content]搞定之后,用这个口令召唤配置:给我对接的json复制这个代码[heading2]Windsurf[content]点击configure,把获得的代码粘贴进去,是不是很简单![heading2]Cursor[content]参考下方配置Name:随便你命名Type:选择commandCommand:把“args”后面的代码复制出来,如下图小贴士:记得把command里的引号去掉哦!就像这样:node/Users/chengfeng/Desktop/代码/MCP合集/教学3/mcp-server/build/index.js[heading1]06一个MCP就完成啦![content]看!你的第一个MCP服务诞生啦!是不是超级简单?![heading1]?下一步计划[content]学会了怎么开发一个MCP,下一步告诉大家,怎么部署一个MCP!

Others are asking
MCP是什么
模型上下文协议(Model Context Protocol,简称 MCP)是一种全新的开放协议,主要用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。 它就像 AI 领域的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。其具有以下特点和优势: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 MCP 最早由 Anthropic 公司开发,现已成为一个开放协议,越来越多的企业和开发者开始采用。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。而 MCP 提供了更简单的集成方式。 但如果应用场景需要精准且严格受控的交互方式,传统 API 可能更合适,比如在需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性等场景。 若要开始使用 MCP,可参考以下快速集成步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 是一个典型的客户端服务端架构,对于有编程基础的同学来说较容易理解。通过简单案例,如让 AI 根据输入自动规划并调用 MCP 服务端,给本地电脑创建文件并写入一句话,可对其有初步且正确的认知。
2025-04-18
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
MCP是什么
模型上下文协议(Model Context Protocol,简称 MCP)是一种全新的开放协议,专门用于标准化地为大语言模型(LLMs)提供应用场景和数据背景。 它就像为 AI 模型量身定制的“USBC 接口”,能让不同的 AI 模型与外部工具和数据源轻松连接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 MCP 最早由 Anthropic 公司开发,现在已成为一个开放协议,越来越多的企业和开发者开始采用。 MCP 是一个典型的客户端服务端架构,对于有编程基础的同学来说容易理解,就像开发中常见的 MySQL 一样。 与传统 API 相比,通常 AI 系统连接外部工具时,需要单独整合多个不同的 API,每个 API 都有独立的代码、文档、认证方式、错误处理和后续维护,极大地增加了开发复杂度。而 MCP 能简化这一过程。 在某些情况下,传统 API 更适合,比如应用场景需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制;更偏好紧耦合以提升性能;希望最大化交互的可预测性。 要开始使用 MCP,可按以下步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 总之,MCP 让 AI 与外部数据、工具的连接变得更加标准化和高效。
2025-04-14
mcp 的内容
MCP(模型上下文协议)是一种创新的开放协议,由 Anthropic 公司在 2024 年 11 月推出并开源。 其主要特点和功能包括: 统一了交互标准,是链接所有 AI 应用与工具的桥梁,兼容所有 AI 应用。 具有三大功能:工具(Tools),底层使用 Function call 实现,与 OpenAI 格式兼容;资源(Resources),为 AI 提供参考信息;提示词(Prompts),预设对话模板。 主要接口路径包括获取工具列表、调用工具、获取资源列表、读取资源内容、获取提示词列表、获取提示词内容等。 转换步骤包括客户端向 MCP 服务器请求工具列表,将 MCP 工具定义转换为 Function call 格式,发送 Function Call 定义给 LLM,接收 LLM 生成的 Function call,将 Function call 转为 MCP 工具调用,发送工具调用结果给 LLM。 MCP 就像一个“转接头”或“通用插座”,其核心作用是统一不同外部服务,通过标准化接口与 AI 模型对接。它与传统 API 的关键区别在于: 单一协议:MCP 像一个统一接口,只要一次整合,就能连接多个服务。 动态发现:AI 模型能自动识别并使用可用的工具,不用提前写死每个接口。 双向通信:MCP 支持类似 WebSockets 的实时双向通信,模型不仅能查询数据,还能主动触发操作。 MCP 最早由 Anthropic 公司开发,目的是帮助 AI 模型(如 Claude)更容易地连接工具和数据源,现在已成为一个开放协议,被越来越多的企业和开发者采用,逐渐成为 AI 与工具互动的新标准。 官方文档:https://modelcontextprotocol.io/
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
如何开发MCP
MCP(模型上下文协议)是由 Anthropic 在 2024 年 11 月推出并开源的一项创新标准。它就像一个“转接头”或“通用插座”,其核心作用是统一不同的外部服务(如 Google Drive、GitHub、Slack、本地文件系统等),通过标准化接口与 AI 模型对接。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 与传统 API 相比,MCP 更适合需要上下文理解的场景,而传统 API 更适合需要精准且严格受控的交互方式,如需要细粒度控制、功能严格限制,更偏好紧耦合以提升性能,希望最大化交互的可预测性的场景。 开发 MCP 的步骤如下: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 是一个典型的 CS 架构,对于有编程基础的同学来说容易理解。开发 MCP 前需要进行环境安装,包括下载并安装 Python(官网:https://www.python.org/),安装 uv(借助 uv 进行虚拟环境创建和依赖管理,它是一个 Python 依赖管理工具,采用 Rust 编写,兼有创建虚拟环境和包管理工具的功能,可以平替 pip,venv)。
2025-04-12
trae 推荐安装那个版本的 vscode插件
在 Trae 中安装 VS Code 插件可以通过以下方式: 1. 从 Trae 的插件市场安装: 在左侧导航栏中,点击插件市场图标,界面左侧显示插件市场面板。 搜索您想要的插件并在未安装列表中将其选中,界面上显示该插件的详情窗口,展示该插件的详细说明、变更日志等信息。 点击安装,Trae 开始安装该插件。安装完成后,该插件会出现在已安装列表中。 2. 从 VS Code 的插件市场安装: 前往。 搜索您想要的插件,例如:Pylance。 在搜索结果中,点击您所需的插件,您会前往该插件的详情页。 在详情页中,点击 Version History。 结合插件页的 URL 和 Version History 中的信息,提取出以下信息(以 Pylance 为例): itemName:URL Query 中的 itemName 字段,如截图中的 mspython.vscodepylance,并将小数点(.)前后的内容分成以下两个字段: fieldA:mspython fieldB:vscodepylance version:如截图中的 2025.1.102 使用提取出来的 3 个字段的值替换下方 URL 中的同名字段。 在浏览器中输入修改后的 URL,然后按下回车键,浏览器开始下载该插件。 下载完成后,返回 Trae 并打开插件市场。 将下载的.vsix 文件拖拽至插件市场面板中,Trae 开始自动安装该插件。安装完成后,该插件会出现在已安装列表中。 此外,如果 VS Code 插件市场中某个版本的插件依赖了新版 VS Code 中的某些接口,则可能会导致该插件与 Trae 不兼容。您可以查看该插件的 Version History,然后下载该插件的历史版本。 管理插件还包括禁用插件和卸载插件: 1. 禁用插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需禁用的插件。 鼠标悬浮至列表中的插件,然后点击设置>禁用。或点击该插件以打开其详情窗口,然后点击禁用。 2. 卸载插件: 在 Trae 中,打开插件市场。 在已安装列表中,找到需卸载的插件。 鼠标悬浮至该插件,然后点击卸载。或点击该插件以打开其详情窗口,然后点击卸载。
2025-04-19
trae的使用指南
以下是 Trae 的使用指南: 一、Trae 简介 Trae 是字节跳动推出的智能编程助手,提供基于 Agent 的 AI 自动编程能力,使用自然语言对话就能实现代码编写。 二、Trae 的功能 1. 提供传统的 IDE 功能,包括代码编写、项目管理、插件管理、源代码管理等。 2. 智能问答:在编写代码时,可随时与 AI 助手对话,获得代码解释、注释和错误修复等帮助。 3. 实时代码建议:AI 助手能理解当前代码并在编辑器中实时提供建议,提升编程效率。 4. 代码片段生成:通过自然语言描述需求,生成相应代码片段,甚至能编写项目级或跨文件的代码。 5. 从 0 到 1 开发项目:告诉 AI 助手想开发的程序,它将提供相关代码或自动创建所需文件。 三、下载 Trae 官网下载地址:https://www.trae.ai/download ,支持 Mac 系统、Windows 系统,未来支持 Linux 系统。 四、使用方法 1. 安装:下载完成后按照界面提示一步步安装。 2. 登录:安装完成后点击右侧登录按钮,程序会自动打开网页提示登录,无账号需先注册。登录完可能会出现“App Unavailable”,此时需要开启科学上网。 3. 网页登录成功后可关闭科学上网,再点击中间大按钮,自动进入 Trae 客户端。 五、模式选择 1. Chat 模式:根据描述进行代码生成、解释、分析问题或解决问题。 2. Builder 模式:可让 Trae 帮助从 0 开发一个完整的项目,对代码文件的任何更改都会自动保存。 六、使用案例 1. 生成一个贪吃蛇游戏 打开 Builder 模式,输入“使用 web 技术栈生成一个贪吃蛇游戏”,排队完成后,Trae 开始思考和代码编写,期间需手动接入进行文件审查,点击“全部接受”。 代码生成完成后,Trae 自动运行命令启动页面,点击运行,在 Webview 中可看到实现的游戏效果,试玩基本无 Bug。 Trae 会进行工作总结,说明已实现的功能,如游戏包含的特性、主要功能和游戏界面等。 2. 生成一个任务清单应用 在输入框中输入:使用 Web 技术开发一个任务清单应用。 3. 根据 UI 设计图自动生成项目代码 从站酷上找一张设计图,输入提示:使用 html 技术实现如图大屏页面。 七、总结 从实际体验来看,Trae 表现可圈可点。 1. 高效代码生成能力:能在几分钟内生成完整框架,代码结构清晰且功能齐全,甚至能自动处理依赖项和运行命令。 2. 多技术栈支持:对 Web 技术掌握远超预期,生成的代码可直接运行且无明显语法错误。 3. 动态调整潜力:能根据用户反馈快速调整样式,自适应布局的实现展现了 AI 的迭代能力。
2025-04-09
trae如何安装
以下是 Trae 的安装步骤: 1. 由于 Trae AI 官网部署在海外,且其本身需要使用海外的大模型,所以需要通过 VPN 等方式科学上网。 2. 在官网(https://www.trae.ai/download)直接点击下载,Trae 会自动识别您的电脑芯片。 3. 下载完成后,如果是 Mac 系统,将左侧的 Trae 应用拖动到右侧的文件夹内;如果是 Windows 系统,双击 Trae 图标,即可完成安装。 4. 安装完成后,点击图标启动,进行以下简单设置: 选择主题背景和默认语言,可选择中文。 对于提供的 Cursor、VS Code 等其他 AI 编程工具的配置和插件迁移,如果是第一次使用类似工具,可直接点“Skip”选项。 对于不理解意思的设置,直接点“Skip”选项。 5. 选择合适的登录方式,登录方式包括 Google 账号登录、Github 账号登录、邮箱登录。如果没有账号,可新注册一个账号。推荐有余力的用户访问 Github 官网(https://github.com/)注册。 注意:Trae 仅在部分地区可用,可能需要开启科学上网。登录完之后,若出现“App Unavailable”提示,可能是所在地区不可用,此时需要开启科学上网。网页登录成功之后可以把科学上网关掉。
2025-04-08
TRAE编程快速入门
以下是 Trae 编程的快速入门指南: 一、Trae 简介 Trae 是字节跳动推出的智能编程助手,提供基于 Agent 的 AI 自动编程能力,通过自然语言对话就能实现代码编写。 二、Trae 的功能 1. 传统 IDE 功能,如代码编写、项目管理、插件管理、源代码管理等。 2. 智能问答:在编写代码时可随时与 AI 助手对话,获得代码解释、注释和错误修复帮助。 3. 实时代码建议:AI 助手能理解当前代码并实时提供建议,提升编程效率。 4. 代码片段生成:通过自然语言描述需求生成相应代码片段,甚至能编写项目级或跨文件代码。 5. 从 0 到 1 开发项目:告知想开发的程序,AI 助手提供相关代码或自动创建所需文件。 三、下载 Trae 官网下载地址:https://www.trae.ai/download ,支持 Mac 系统、Windows 系统,未来支持 Linux 系统。 四、使用方法 1. 安装:下载完成后按界面提示一步步安装。 2. 登录:安装完成后点击右侧登录按钮,程序会自动打开网页提示登录,无账号需先注册。登录完若出现“App Unavailable”提示,因 Trae 仅在部分地区可用,此时需开启科学上网。网页登录成功后可关闭科学上网,再点击中间大按钮。 3. 进入客户端后,查看对话框右下角,有三种大模型可选:Claude3.5Sonnet、Claude3.7Sonnet、GPT4o。Trae 提供两种模式: Chat 模式:根据描述进行代码生成、解释、分析问题或解决问题。 Builder 模式:可让 Trae 从 0 开发完整项目,对代码文件的任何更改会自动保存。 五、使用案例 1. 生成一个贪吃蛇游戏:打开 Builder 模式,输入“使用 web 技术栈生成一个贪吃蛇游戏”,排队完成后,Trae 开始思考和代码编写,期间需手动接入进行文件审查,点击“全部接受”。代码生成完成后,Trae 自动运行命令启动页面,点击运行,在 Webview 中可看到实现的游戏效果,试玩基本无 Bug。Trae 还进行了工作总结,说明了已实现的功能,如游戏包含的特性、主要功能和游戏界面等。 2. 生成一个任务清单应用:输入“使用 Web 技术开发一个任务清单应用”,过程类似。 3. 根据 UI 设计图自动生成项目代码:从站酷上找设计图,输入提示生成,虽不完美但能根据反馈调整。 六、总结 从实际体验看,Trae 表现出色,具有高效代码生成能力、多技术栈支持和动态调整潜力。
2025-03-30
这里有trae的教程吗
以下是关于 Trae 的相关信息: 1. Claude 3.5 免费无限量!字节 AI 编程神器 Trae Win+Mac 版全量上线: Trae Windows 版本已于特定时间上线,即日起全系统可用。 Trae 标配 Claude3.5sonnet 模型免费不限量,而竞品工具同一模型每月收费且限量使用。 Trae 编辑器所有功能原生支持中文,上手门槛低。 Trae 是一款与 AI 深度集成,提供智能问答、代码自动补全以及基于 Agent 的 AI 自动编程能力的 IDE 工具。 2. 来了,AI 编程神器 Trae 的保姆级使用指南: 介绍了控制按钮和游戏说明。 展示了生成任务清单应用的过程和效果。 演示了根据 UI 设计图自动生成项目代码的操作及调整效果。 总结了 Trae 的高效代码生成能力、多技术栈支持和动态调整潜力。 3. AI 编程零门槛:Trae 国内版终于来了: 前段时间学习 AI 编程时发现的初学者前置问题,如今随着 Trae 国内版发布得到解决。 Trae 国内版是国内首个 AI IDE,自带特定模型,免费、快速、稳定。 Trae 是字节跳动旗下类似其他 IDE 工具的 AI 原生编程工具,具有国内用户友好、使用完全免费、内置预览插件等特性,适合新手入门也能提升资深程序员编程速度。
2025-03-27
trae国内版
Trae 国内版是国内首个 AI IDE,具有以下特点和优势: 1. 自带豆包 1.5 pro 和满血版 DeepSeek R1、V3 模型,免费、快速、稳定。 2. 解决了初学 AI 编程时的常见前置问题,如官网打不开、会员购买、中文和预览插件安装等,真正实现了 AI 编程零门槛。 3. 网址为 Trae.com.cn,或可点击文末【阅读原文】直接访问。 4. 是字节跳动旗下的 AI 原生编程工具,类似 Cursor、Windsurf 等 IDE 工具,用户可通过自然语言编写出网页、软件。 5. 具有国内用户友好、使用完全免费、内置预览插件等特性。 6. 相比 IDE 插件类的 AI 代码助手,Trae 这样的 AI 原生 IDE 有两个跨越式的突破:补全不限于向后追加,可多行全方位自动补全;具备 Agent 能力,能自动完成代码生成、调试、运行等工作。 7. 国外版与国内版的主要区别在于模型,国内版使用国内模型,连接稳定快速,界面根据国内用户习惯定制。如果想保留原有 IDE 并增加 AI 编程功能,可选择 MarsCode 插件;若想体验全新围绕 AI 设计的原生 IDE,则可选择 Trae。
2025-03-26
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出10个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您生成的 10 个业务价值高、具备可行性的 AI 应用场景介绍: 1. 人才招聘与筛选 What:利用 AI 技术对求职者的简历进行自动筛选和分析,评估其与岗位的匹配度。 Why:节省 HR 大量的时间和精力,提高招聘效率和准确性。 How:通过自然语言处理和机器学习算法,训练模型识别关键信息和技能。 2. 员工培训与发展 What:根据员工的技能水平和职业发展目标,定制个性化的培训计划。 Why:提升员工的能力和绩效,增强员工对企业的忠诚度。 How:利用大数据分析员工的工作表现和学习需求,推荐相关课程和学习资源。 3. 薪酬福利管理 What:运用 AI 预测市场薪酬趋势,为企业制定合理的薪酬策略。 Why:保持企业薪酬的竞争力,吸引和留住优秀人才。 How:收集和分析行业薪酬数据,结合企业的财务状况和战略目标进行优化。 4. 员工绩效评估 What:借助 AI 实时监测员工的工作表现,提供客观的绩效评估。 Why:减少人为偏差,确保评估的公正性和准确性。 How:利用工作流程数据和行为分析模型进行评估。 5. 员工关系管理 What:通过 AI 分析员工的情绪和满意度,及时发现问题并解决。 Why:营造良好的工作氛围,提高员工的工作积极性和创造力。 How:使用情感分析技术处理员工的反馈和交流信息。 6. 组织架构优化 What:利用 AI 分析企业的业务流程和人员配置,提供组织架构调整建议。 Why:提高企业的运营效率和灵活性,适应市场变化。 How:基于数据分析和模拟优化算法进行评估和推荐。 7. 人力资源规划 What:根据企业的战略目标和业务发展预测人力资源需求。 Why:提前做好人才储备和招聘计划,保障企业的正常运营。 How:运用数据分析和预测模型进行规划。 8. 企业文化传播 What:使用 AI 生成个性化的企业文化宣传内容,提高传播效果。 Why:增强员工对企业文化的认同感和归属感。 How:利用自然语言生成技术和个性化推荐算法。 9. 智能客服 What:在 HR 服务中引入 AI 客服,解答员工常见问题。 Why:快速响应员工需求,提高服务质量。 How:训练智能客服模型,涵盖常见的 HR 问题和解决方案。 10. 人才库管理 What:利用 AI 对人才库进行分类和更新,提高人才库的利用效率。 Why:方便快速找到合适的人才,降低招聘成本。 How:运用数据挖掘和分类算法进行管理。
2025-04-14
公共议题:AI如何助力HR业务? 研讨目标: 深入理解:深入探讨 AI在人力资源管理领域的应用、薪酬管理、员工关系、公司文化、包括人才获取与配置、学习与发展、组织与人才培、HR共享与HRIS等各模块的可应用场景 机会识别与场景落地:基于组织现状,识别出业务价值高、可落地的 A 应用场景; 研讨成果(输出物): 请输出3-5个业务价值高、具备可行性的AI应用场景介绍,并说明what(场景是什么)、why(为什么值得做)、How(如何落地);
以下是为您提供的 3 个业务价值高、具备可行性的 AI 应用场景介绍: 场景一:AI 在企业招聘中的应用 What:利用 AI 技术进行简历筛选、人才匹配和面试评估。 Why:能够快速处理大量简历,提高招聘效率和准确性,节省人力和时间成本,同时更精准地找到符合岗位需求的人才。 How:通过引入相关的 AI 招聘软件,与企业现有的招聘系统集成,对简历进行关键词提取和分析,利用机器学习算法进行人才匹配,并通过视频面试中的语音和表情分析辅助评估候选人。 场景二:AI 助力个性化人力资源管理 What:根据员工的个人特点和工作表现,提供个性化的培训计划、职业发展建议和绩效评估。 Why:能够充分发挥员工的潜力,提高员工满意度和忠诚度,促进企业的长期发展。 How:收集员工的工作数据、学习记录和绩效表现等信息,运用 AI 算法进行分析和预测,为员工制定专属的发展方案,并通过移动应用或内部系统向员工推送相关建议和培训课程。 场景三:AI 打造无人值守的 HR 平台 What:实现 HR 业务的自动化处理,如员工请假审批、薪酬计算和福利发放等。 Why:减少人工操作的错误和繁琐流程,提高 HR 工作的效率和准确性,使 HR 人员能够专注于更有价值的战略工作。 How:整合企业内部的各种 HR 系统和数据,利用 RPA 和 AI 技术实现流程的自动化,同时建立监控和预警机制,确保平台的稳定运行。
2025-04-14
AI服务器配置
以下是关于 AI 服务器配置的相关内容: 对于 Coze AI 机器人对接微信的服务器配置: 1. 如果按照上一篇教程操作,此次配置只需修改容器编排模板。最新的容器编排模板如下,同时提供无描述性的参考配置方便新手直接参考使用。 2. 若之前没有容器编排模板,新建一个即可,新建和修改逻辑类似。 3. 更新后的编排模板,若之前创建过相似机器人容器编排服务,建议先删除以防冲突,删除步骤如下。 4. 基于新的编排模板创建新的容器编排,然后启动服务。 5. 服务启动成功后,进入 COW 服务扫码绑定微信机器人,具体步骤参考上一篇入门教程。 对于视频相关的 AI 服务器配置: 1. 购买服务器:直接点击去购买:https://buy.cloud.tencent.com/lighthouse?blueprintType=APP_OS&blueprintOfficialId=lhbpr8j2ftq0&regionId=8&zone=apbeijing3&bundleId=bundle_rs_mc_med1_02&loginSet=AUTO&from=lhconsole ,并根据以下配置购买。 2. 购买并付款完成后,回到服务器“控制台”。 3. 点击服务器卡片空白处添加防火墙,添加 8887、8080 端口。 4. 点击右上角“登录”按钮,扫码验证后在命令行窗口中操作,注意复制粘贴代码的方式和命令执行完毕的标志。 5. 在命令行中依次输入相关命令。 6. 保存并打开外网面板地址,输入账号和密码。
2025-04-10
微信机器人如何配置
微信机器人的配置步骤如下: 1. sum4all 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 sum4all 插件目录下的 config.json.template,复制并粘贴重命名为:config.json 注册并获取 sum4all key:https://pro.sum4all.site/register?aff=T6rP ,新用户注册有送免费额度,大家先使用这个进行试用,后续可改为自己的 openAI key。 把复制的 key,粘贴到 sum4all 的 config.json 文件内。(上方有功能阐述,你想要哪个,就把哪个改成 ture) 2. Apilot 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 Apilot 文件下的 config.json.template,复制并粘贴重命名为:config.json 去 https://admin.alapi.cn/account/center 注册,并复制 key 把复制来的 key,粘贴进入。保存。 3. 分段对话配置替换 找到这个路径:/root/chatgptonwechat/channel/wechat,直接下载以下文件进行替换。 此外,微信的配置相对较简单,只需要主项目的 config.json 文件看看是否有"channel_type"参数,参数值为:"wx",即:"channel_type":"wx"。完成以上所有配置部分后,可以准备启动步骤了: 使用 nohup 命令在后台运行程序。 执行完启动脚本,等待 30s 左右,会看到终端有一个微信登录的二维码,微信扫码登录。 如果您想使用更多辅助功能,比如使用总结文件能力,总结网页内容能力,此时需要安装各种插件。这部分配置查看插件配置管理部分。
2025-04-10
有没有专门学习配置微信机器人和企业微信机器人的相关教学视频
以下是一些专门学习配置微信机器人和企业微信机器人的相关教学视频: 【共学最全版本】微信机器人共学教程: 日程安排: 6 月 19 日 20:00 开始:从零到一,搭建微信机器人,参与者要求为 0 基础小白,分享人为张梦飞,主持人为小元,助教为金永勋、奥伏。 6 月 20 日 20:00 开始:Coze 接入、构建你的智能微信助手,分享人为张梦飞,主持人为吕昭波,助教为安仔、阿飞。 6 月 23 日 20:00 开始:微信机器人插件拓展教学,要求完成第一课,分享人为张梦飞,主持人为安仔,助教为空心菜、AYBIAO、阿飞。 6 月 24 日 20:00 开始:虚拟女友“李洛云”开发者自述,要求完成第一课,分享人为皮皮,主持人为大雨。 6 月 25 日 20:00 开始:FastGPT:“本地版 coze"部署教学,要求完成第一课,分享人为张梦飞,主持人为银海,助教为金永勋、AYBIAO。 6 月 27 日 20:00 开始:Hook 机制的机器人使用和部署教学,要求 0 基础小白,有一台 Windows 10 以上系统的电脑,分享人为张梦飞,主持人为 Stuart,助教为阿飞、空心菜。 第二天教程内容: 修改配置:主要更改标黄的四行,可以直接清空原文件配置,把以下配置粘贴进你的 config.json 文件中。 获取 key 和 id:进入官网 https://www.coze.cn/home ,获取到的令牌就是"coze_api_key",像下方一样填入即可。"coze_api_key":"pat_diajdkasjdlksajdlksajdasdjlkasjdlas",获取 bot_id 并填入:"coze_bot_id":"86787989080"。 微信机器人大事件记录: 皇子:零成本、零代码搭建一个智能微信客服,保姆级教程 安仔:不用黑魔法,小白也能做一个对接 GPT 大模型的微信聊天机器人 张梦飞:【保姆级】一步一图,手把手教你把 AI 接入微信 张梦飞:FastGPT+OneAPI+COW 带有知识库的机器人完整教程 张梦飞:基于 Hook 机制的微信 AI 机器人,无需服务器,运行更稳定,风险更小 张梦飞:【保姆级教程】这可能是你在地球上能白嫖到的,能力最强的超级微信机器人!一步一图,小白友好 在自己的电脑上部署 COW 微信机器人项目
2025-04-04
本地部署大模型硬件配置
本地部署大模型的硬件配置如下: 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置可能运行速度非常慢。对于 SDXL 大模型的本地部署,其分为两个部分,base + refiner 是必须下载的,还有一个配套的 VAE 模型用于调节图片效果和色彩。要在 webUI 中使用 SDXL 的大模型,需在秋叶启动器中将 webUI 的版本升级到 1.5 以上,然后将模型放入对应的文件夹中。对于通义千问的 Qwen2.5 1M 模型的本地部署,使用以下命令启动服务时要根据硬件配置进行设置,如设置 GPU 数量、最大输入序列长度、Chunked Prefill 的块大小、限制并发处理的序列数量等。如果遇到问题,可参考相关的 Troubleshooting 内容。与模型交互可以使用 Curl 或 Python 等方法,对于更高级的使用方式,可以探索如 Qwen Agent 之类的框架。
2025-03-31