在 Cherry Studio 中,不能直接将 @ 作为 OpenRouter 的 API。OpenRouter 有一些特定的使用方式和条件。
例如,Zeabur 模版自带 one-api,支持一键部署。但想要同时使用 openrouter 和 simple-one-api 需安装 cline 插件,将 openrouter api 放到 cline,再把 Cursor 设置换成 simple-one-api,这样基本能在 Cursor 里使用全系大模型。
OpenRouter 新发布了 BYOK(Bring Your Own API Keys)功能,这是个第三方 Key 集成功能,能将 xAI、OpenAI、Mistral 等数十个平台的 Key 集中在一起,还能同时使用其他平台和 OpenRouter 的额度。目前支持白“赚”的平台包括 AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI 等。
在使用 OpenRouter 集成 API Key 时,不仅能整合免费额度,还能解放更多槽位。但在 Cursor 的设置里,deepseek 会与 gpt 的配置发生冲突,同一时间最多只能使用 4 个类型的模型。
如果觉得 OpenRouter 支持的模型不够,还可以使用 simple-one-api。不过 simple-one-api 不像 openrouter 支持直接在线配置多个 Key,熟悉代码的可以通过本地或者 Docker 启动。
另外,在进行相关实验时,需要准备本地安装好的 VS Code,在 VS Code 中安装 Cline(MCP 客户端之一),还需要注册 Cloudflare 和 Openrouter,在 Openrouter 注册后在 Keys 中申请一个 API key 并妥善保存。
Zeabur模版里面自带one-api,支持一键部署。不过也因为槽位有限,想要同时使用openrouter和simple-one-api也是有前提条件的,需要安装cline插件,这时候就可以将openrouter api放到cline,再把Cursor设置换成simple-one-api,到这一步基本上全系大模型都可以在Cursor里用到了。
这就要先提到API大户OpenRouter新发布的功能:BYOK(Bring Your Own API Keys)简单来说是个第三方Key集成功能,将xAI、OpenAI、Mistral等数十个平台的Key集中在一起。跟其他的集成项目最大的不同是可以同时使用其他平台和OpenRouter的额度。以gemini-2.0-flash为例,相当于可以同时使用OpenRouter和AI Studio的免费额度。目前支持白“赚”的平台:AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI模型太多也不是好事,虽然有快捷键,但编程过程中还是需要人脑判断用哪个模型,我理想的配置应该是:推理模型:o1、gemini-2.0-flash-thinking代码模型:claude-3.5-sonet(还是太能打了)、gpt-4o-mini(价格友好)多模态模型:gemini-2.0-flash常规模型:DeepSeek V3使用OpenRouter集成API Key的好处不仅是整合了免费额度,还解放了更多的槽位。毕竟在Cursor的设置里,deepseek就会跟gpt的配置发生冲突。也就是说虽然我有十几个key,但是我同一时间最多只能使用4个类型的模型。当然,如果觉得这些供应商支持的模型还不够,特别是对国产大模型支持比较少的话,我们还可以使用上古真神:simple-one-api不过simple-one-api不像openrouter,支持直接在线配置多个Key。熟悉代码的可以通过本地或者Docker启动。如果你想跟我一样,在其他环境也想用到配置好的大模型们,我觉得可以试试看Zeabu r:
本地安装好VS Code:https://code.visualstudio.com/VS Code中安装Cline(MCP客户端之一):VS code中选择扩展,搜索Cline,点击安装,最后可以用鼠标拖拽Cline这个小图标到右侧固定(方便对话)赛博菩萨1-Cloudflare:没有的小伙伴可以注册一个,大量免费的云端部署基础资源,本篇我们主要用到的是其中的AI Gateway功能,用于抓取MCP调用过程的日志赛博菩萨2-Openrouter:提供大量免费的大模型API,适合个人开发,测试(https://openrouter.ai/),比如下图中的Deepseek,Gemini,QwQ等。注册后请在Keys中申请一个API key并妥善保存