Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Cursor什么添加模型

Answer

在 Cursor 中添加模型的方法如下:

  1. 使用光标聊天、Ctrl/⌘K 和终端 Ctrl/⌘K,您可以轻松地在您选择的不同模型之间切换。
  2. 在 AI 输入框下方,您将看到一个下拉列表,允许您选择要使用的模型。默认情况下,Cursor 已准备好使用以下模型:
    • GPT-4o
    • GPT-4
    • Claude 3.5 Sonnet
    • cursor-small:cursor-small 是 Cursor 的自定义模型,它不如 GPT-4 智能,但速度更快,用户可以无限制地访问它。
  3. 您可以在 Cursor Settings>Models>Model Names 下添加其他模型。

此外,有人通过接入更多模型如 Qwen2.5-Coder、Llama3.3、deepseek v3、gemini-2.0-flash 等对 Cursor 进行配置,但接入再多的模型也无法完全填平 Cursor 免费版和 Cursor Pro 的差距。

Content generated by AI large model, please carefully verify (powered by aily)

References

Models 模型

With Cursor Chat,Ctrl/⌘K,and Terminal Ctrl/⌘K,you can easily switch between different models of your choice.使用光标聊天、Ctrl/⌘K和终端Ctrl/⌘K,您可以轻松地在您选择的不同模型之间切换。[heading3][heading3]Model Dropdown模型下拉列表[content]Underneath the AI input box,you will see a dropdown that allows you to select the model you want to use.By default,Cursor has these models ready to use:在AI输入框下方,您将看到一个下拉列表,允许您选择要使用的模型。默认情况下,Cursor已准备好使用这些模型:[GPT-4o](https://openai.com/index/hello-gpt-4o/)[](https://openai.com/index/hello-gpt-4o/)[GPT-4o](https://openai.com/index/hello-gpt-4o/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[GPT-4](https://openai.com/index/gpt-4/)[](https://openai.com/index/gpt-4/)[Claude 3.5 Sonnet](https://www.anthropic.com/news/claude-3-5-sonnet)cursor-smallcursor-small is Cursor’s custom model that isn’t as smart as GPT-4,but is faster and users have unlimited access to it.cursor-small是Cursor的自定义模型,它不如GPT-4智能,但速度更快,用户可以无限制地访问它。You can add additional models under Cursor Settings>Models>Model Names.您可以在Cursor Settings>Models>Model Names下添加其他模型。[heading3]

4款插件2个API,我把Cursor“迭代”成了满血超频版程序员

【前情提要】这是一篇囤了快三个月,迭代了近5个版本的Cursor配置教程。从穷👻套餐2.0开始,我对Cursor的配置主要集中在接入更多模型:Qwen2.5-Coder、Llama3.3、deepseek v3、gemini-2.0-flash等,大部分是为了省API费用,但这其实没有完全挖掘出Cursor的潜力。接入再多的模型也无法完全填平Cursor免费版和Cursor Pro的差距,Agent、Yolo、Composer、Tab代码补全这些都被ban了。那肯定不行啊,而且Pro版本有着明晃晃的次数限制,并不是每个月都够用,这也就给了我持续优化Cursor配置的空间。所以,这次我收集到了3个插件,2大API,和N个新的提示语用法,给Cursor装配上Tab代码补全、AI Agent、全系大模型接入、开发进度管理、状态回滚等功能,堪称史诗级加强。Here we go![heading1]

TAB-Overview 概述

Cursor Tab is our native autocomplete feature.It’s a more powerful Copilot that suggests entire diffs with especially good memory.Cursor Tab是我们的原生自动完成功能。它是一个更强大的Copilot,可以建议具有特别好内存的整个差异。[cpp-full-video.mp4](https://bytedance.feishu.cn/space/api/box/stream/download/all/VGuzbZ3t9owXZrxnhjacAiK9nZc?allow_redirect=1)Powered by a custom model,Cursor Tab can:Cursor Tab由自定义模型提供支持,可以:Suggest edits around your cursor,not just insertions of additional code.围绕光标建议编辑,而不仅仅是插入其他代码。Modify multiple lines at once.一次修改多行。Make suggestions based on your recent changes and linter errors.根据您最近的更改和linter错误提出建议。Free users receive 2000 suggestions at no cost.Pro and Business plans recieve unlimited suggestions.免费用户可免费获得2000条建议。Pro和Business计划会收到无限的建议。[heading3]

Others are asking
cursor
以下是关于 Cursor 的相关信息: Models 模型: 使用光标聊天、Ctrl/⌘K 和终端 Ctrl/⌘K,您可以轻松在您选择的不同模型之间切换。 在 AI 输入框下方有下拉列表,允许您选择要使用的模型。默认情况下,Cursor 已准备好使用的模型有:、cursorsmall。cursorsmall 是 Cursor 的自定义模型,不如 GPT4 智能,但速度更快,用户可无限制访问。您还可以在 Cursor Settings>Models>Model Names 下添加其他模型。 Ignore Files 忽略文件: 要忽略包含在 Cursor 功能(如中的文件,可在项目根目录中使用.cursorignore 文件,其工作方式与.gitignore 对 git 的工作方式相同。.cursorignore 遵循.gitignore,如果已有.gitignore,默认情况下将忽略相关文件。若要忽略其他文件,可添加到.cursorignore 文件中。 融资情况:我们组建了出色的初始团队,共同构建了包括 SOTA 次级编辑预测模型、数十亿个文件检索系统以及通过推测推理进行快速代码重写的系统。最后,我们从 Andreessen Horowitz、Thrive Capital、OpenAI、Jeff Dean、Noam Brown 以及 Stripe、Github、Ramp、Perplexity 和 OpenAI 的创始人以及许多其他出色的公司筹集了 6000 万美元的 A 轮融资。
2025-02-14
cursor怎么给微信小程序接dify的API?
要将 Dify 的 API 接入微信小程序,您可以参考以下内容: 1. GitHub 上的相关项目:https://github.com/zhayujie/chatgptonwechat 和 https://github.com/hanfangyuan4396/difyonwechat 。 2. API 扩展说明:https://docs.dify.ai/zhhans/guides/extension/apibasedextension ,但 0.8.3 版本可能不再使用(使用时可能需要自行修改或提交 PR)。 3. 接入企业微信的步骤: 创建聊天助手应用:在 Dify 平台创建基础编排聊天助手应用,获取 API 密钥和 API 服务器地址。 下载 Dify on WeChat 项目:下载并安装依赖。 填写配置文件:在项目根目录创建 config.json 文件,填写 API 密钥和服务器地址。 把基础编排聊天助手接入微信:快速启动测试,扫码登录,进行对话测试,可以选择源码部署或 Docker 部署。 把工作流编排聊天助手接入微信:创建知识库,导入知识库文件,创建工作流编排聊天助手应用,设置知识检索节点和 LLM 节点,发布更新并访问 API。 把 Agent 应用接入微信:创建 Agent 应用,设置对话模型和添加工具,生成 API 密钥,填写配置文件,启动程序并进行测试。更多内容请访问原文:https://docs.dify.ai/v/zhhans/learnmore/usecases/difyonwechat
2025-02-10
对于编程纯小白,如果我想使用cursor之类的AI软件进行编程,实现自己的一些想法,那么我需要具备哪些编程或者计算机方面的基础知识
对于编程纯小白,如果想使用 Cursor 之类的 AI 软件进行编程实现自己的想法,需要具备以下编程或计算机方面的基础知识: 1. 下载 Cursor:访问 https://www.cursor.com/ 进行下载。 2. 注册账号:可以使用自己的邮箱(如 google、github、163、qq 邮箱)直接登录,接受二维码登录。 3. 安装中文包插件。 4. 在设置中进行 Rule for AI 配置。 5. 清晰表达需求:例如做一个贪吃蛇游戏,在网页中玩。需要明确游戏的规则和逻辑,如游戏界面是在矩形网格上进行,玩家控制蛇的移动方向(上、下、左、右),游戏界面上会随机出现食物,蛇吃到食物身体增长,存在撞墙或撞自己的死亡条件,吃到食物可得分,游戏难度会递增,游戏结束时能看到得分等。 对于纯小白,如果需求远比 AI 直出的内容复杂,无法一次性直出,那就需要耐下性子,在 AI 的帮助下一步一步来,并在这个过程中学会一点点编程。
2025-02-08
怎么下载使用cursor
以下是关于下载和使用 Cursor 的详细步骤: 1. 下载 Cursor: 访问 Cursor 官网:https://www.cursor.com/ ,点击“Download”进行下载。 2. 注册账号: 可以使用自己的邮箱登录,包括 Google、GitHub、163、QQ 等邮箱,直接接受二维码登录。 3. 安装中文包插件(如有需要)。 4. 了解订阅模式: 普通用户注册后,可免费体验 14 天的 Pro 版本,拥有高级模型的 500 次对话机会,如 claude3.5sonnet、gpt4o,还可无限使用 gpt4omini 和 cursorsmall 模型。 免费用户一共可以使用 2000 次普通模型的问答。 Pro 模式:20 刀/月,500 次高级模型问答,不限次普通模型问答。 Business 模式:40 刀/月,全部不限制次数。 5. 在设置中进行相关配置(如 Rule for AI 配置)。 6. 对于不同系统的操作: Mac 用户使用 Command+i 唤醒 Composer,输入提示词后开始创建代码结构。其他系统的快捷键,可以从 Cursor>Setting>Keyboard Shortcuts 快捷指令清单中查看。
2025-02-08
cursorrules是个什么东西,为什么在做cursor需要用到它?
.cursorrules 是 Cursor 中的一个特殊文件,需放在打开文件夹的根目录。它具有以下重要作用: 1. 改变 Cursor 对于后台 LLM 的 prompt:文件中的所有内容都会作为 prompt 的一部分发给后端的 AI,如 GPT 或 Claude,为定制化带来极大灵活性。例如,可以把计划的内容放在这个文件里,让 Cursor 在对话时获取最新版计划,还能在文件中给予更详细的指令。 2. 实现闭环:Cursor 会自动读取该文件内容了解最新动态,经过思考后将更新后的进度和下一步计划写回文件。 3. 支持更多工具的使用:由于可以通过.cursorrules 直接控制给 Cursor 的 prompt,且 Cursor 有运行命令的能力,可事先在文件中向它介绍工具用法,使其学会使用工具完成任务。例如,对于网页浏览和搜索工具,可在文件中进行相关设置和说明。 4. 规范代码生成:就像给助手的“整理指南”,提前把编码规则、项目结构、注意事项写在这个文件里,AI 会自动按照要求写代码,避免生成混乱的代码。
2025-02-06
用cursor做网页采集文章插件总是报错怎么办
当使用 Cursor 做网页采集文章插件总是报错时,您可以参考以下内容: 1. 技术架构方面: 采用前后端分离架构,后端基于 Coze 工作流构建业务逻辑,前端为 Chrome 浏览器插件,提供轻量级交互界面。 2. 工作流搭建方面: 配置核心组件,包括插件大模型、工作流总览、大模型节点提示词、输出节点 markdown 排版(注意 markdown 里图片的渲染格式),注意输出图片的变量用的是 contentUrl。 3. 可视化界面和 chrome 插件开发方面: 使用 Cursor 开发时,要有架构思维,懂得如何向 AI 描述想要的东西,在实践中学习。 对于 Coze 关键数据,要获取授权令牌(Token),掌握工作流调用方法。查看 Coze 的 api 开发文档,查看执行工作流的实例,需要两个关键参数,即令牌密钥和工作流开发代码。在工作流界面获取工作流 id,让 Cursor 根据相关内容写一个调用 Coze 工作流的服务,注意声明入参为 article_url 以及让 Cursor 注意中文编码。 4. 报错处理方面: 如果报错、解析结果不对,可以点击 Raw Response,查看报错或者返回值,再根据返回值调整配置输出参数。 希望以上内容对您有所帮助。
2025-02-06
如何把AI添加到WPS中
要将 AI 添加到 WPS 中,您可以参考以下步骤: 1. 金山软件已宣布 WPS AI,并将大模型(LLM)能力嵌入四大组件:表格、文字、演示、PDF,支持桌面电脑和移动设备。 2. 申请 WPS AI 内测: 内测申请地址为:https://ai.wps.cn/ ,一般需要等待 1、2 天。 3. 下载软件或选择金山在线: 目前 WPS AI 只支持 Windows、安卓、IOS,Mac 用户可以点击金山文档在线使用,地址为:https://www.kdocs.cn/latest 。 4. 输入大纲和要点: 由于 WPS AI 只支持输入主题,不支持导入大纲,且在输入主题的地方有长度限制,输入内容较多的大纲时偶尔会被重新简化,所以可以简化后再输入。 简化后的大纲需要按照特定格式输入,二级标题前面有一个空格,列表前面有两个空格。 也可以选择输入主题自动生成大纲和要求,例如新建 PPT,选择空白 PPT 或者导入 PPT,进入 PPT 编辑页面等方式。
2025-02-12
我想设置一个情感陪伴的聊天智能体,我应该如何添加人设,才能让智能体的回复效果最接近真人效果?特别是真人聊天时那种文字回复的不同细节,长长短短,情绪起伏。应该注意哪些细节?或者如何定义一个人? 仅通过文字人设,不考虑其他外部功能。
要设置一个情感陪伴的聊天智能体并使其回复效果接近真人,通过文字人设可以从以下方面入手: 1. 基础信息:包括姓名、性别、年龄和职业等,这是构建角色的基础。 2. 背景和经历:与基础信息密切相关,相互影响。例如,设计一个从事低收入职业的角色,可能来自贫困背景,教育程度不高。 3. 爱好、特长、性格和价值观:由角色的生活经历和成长环境塑造,相互关联。如喜欢唱歌的角色可能梦想成为专业歌手。 4. 规划和目标:可以是短期或长期的愿景,会影响角色的行为和决策。 5. 性格和价值观:对人际关系、社交能力和语言风格有直接影响。如内向性格的角色可能不善言辞,社交圈子狭小。 此外,还可以参考以下具体示例,如“A.I.闺蜜”的人设: 适当询问对方昵称,自己的昵称可由对方定,兜底昵称为皮皮,英文昵称 copi。 以闺蜜口吻说话,模拟非线性对话模式,聊天氛围温馨有温度,真情实感。 增强情感模拟,使用口头化语言,顺着对方的话继续往下,禁止说教。 在安全前提下存储互动信息,使互动更个性化,模拟真人聊天长度。
2025-02-10
帮我生成一个小程序,功能涉及“个人多名片管理”“可以通过扫描纸质名片生成电子名片、手动填写信息生成电子名片、关键字词ai智能生成名片”“支持手动编辑名片信息”“每个信息都可以通过ai生成及润色”“支持添加案例”“支持客户名片管理”“分享客户后,客户打开名片,支持交换信息并生成自己的名片”
要开发您所描述的涉及“个人多名片管理”等功能的小程序,以下是一些参考步骤和相关信息: 微信小程序开发基础: 1. 注册小程序:登录微信公众号首页,选取小程序,用新邮箱绑定注册。 2. 小程序信息填写:注册验证通过后,填写小程序信息和类目,名称可根据功能设定,头像可网上获取或利用工具生成。 3. 开发者工具下载:回到发布流程页面,点击“普通小程序开发者工具”,选择“微信开发者工具”,下载 windows 64 位版本。 4. 创建小程序项目:打开下载好的微信开发者工具,选择创建小程序。注意获取账号信息中的 id,选择不使用云服务,并选择 javascript 基础模板。 相关案例: 1. 有“使用 GPT 的视觉功能和 TTS API 处理和讲述视频”的案例,演示了如何通过视频使用 GPT 的视觉功能。 2. “开发:GLM 等大模型外接数据库”的案例,可调整 prompt,匹配不同知识库,让 LLM 扮演不同角色,如财务分析师、智能客服等。 目前没有与您需求完全匹配的直接可用的开发案例,但您可以参考上述基础步骤和相关案例的思路,结合您的具体需求进行开发。
2024-11-25
我有一张图像,我要如何用stable Diffusion给它添加噪音。我是一个小白,请给出详细的步骤,用webui来操作。
以下是使用 WebUI 为图像添加噪音的详细步骤: 1. 首先,了解 Stable Diffusion 的加噪原理。从数据集中选择一张干净样本,然后用 random 函数生成 0 3 共 4 种强度的噪声,在每次迭代中随机选择一种强度的噪声添加到干净图片上,完成图片的加噪流程。 2. 在训练过程中,对干净样本进行加噪处理,采用多次逐步增加噪声的方式,直至干净样本转变成为纯噪声。 3. 加噪过程中,每次增加的噪声量级可以不同,假设存在 5 种噪声量级,每次都可以选取一种量级的噪声,以增加噪声的多样性。 4. 与图片生成图片的过程相比,在预处理阶段,先把噪声添加到隐空间特征中。通过设置去噪强度(Denoising strength)控制加入噪音的量。如果去噪强度为 0 ,则不添加噪音;如果为 1 ,则添加最大数量的噪声,使潜像成为一个完整的随机张量。若将去噪强度设置为 1 ,就完全相当于文本转图像,因为初始潜像完全是随机的噪声。
2024-11-18
我有一张图像,我要如何用stable Diffusion给它添加噪音
要使用 Stable Diffusion 给一张图像添加噪音,以下是相关的原理和过程: 在 Stable Diffusion 中,与 GAN 等生成式模型一样,它学习拟合训练集分布,并能够生成与训练集分布相似的输出结果。但与 GAN 相比,SD 模型训练过程更稳定,且具备更强的泛化性能,这归功于其核心的前向扩散过程和反向扩散过程。 在前向扩散过程中,SD 模型持续对一张图像添加高斯噪声直至变成随机噪声矩阵。而在反向扩散过程中,SD 模型进行去噪声过程,将一个随机噪声矩阵逐渐去噪声直至生成一张图像。 Stable Diffusion 的整个训练过程在最高维度上可以看成是如何加噪声和如何去噪声的过程,并在针对噪声的“对抗与攻防”中学习到生成图片的能力。 其训练逻辑为: 1. 从数据集中随机选择一个训练样本。 2. 从 K 个噪声量级随机抽样一个 timestep t。 3. 将 timestep t 对应的高斯噪声添加到图片中。 4. 将加噪图片输入 UNet 中预测噪声。 5. 计算真实噪声和预测噪声的 L2 损失。 6. 计算梯度并更新 SD 模型参数。 在训练时,需要把加噪的数据集输入模型中,每一次迭代用 random 函数生成从强到弱各个强度的噪声,通常会生成 0 1000 一共 1001 种不同的噪声强度,通过 Time Embedding 嵌入到训练过程中。Time Embedding 由 Timesteps(时间步长)编码而来,引入 Timesteps 能够模拟一个随时间逐渐向图像加入噪声扰动的过程。每个 Timestep 代表一个噪声强度(较小的 Timestep 代表较弱的噪声扰动,而较大的 Timestep 代表较强的噪声扰动),通过多次增加噪声来逐渐改变干净图像的特征分布。 以下是一个简单的加噪声流程示例:首先从数据集中选择一张干净样本,然后再用 random 函数生成 0 3 一共 4 种强度的噪声,然后每次迭代中随机一种强度的噪声,增加到干净图片上,完成图片的加噪流程。 在训练过程中,首先对干净样本进行加噪处理,采用多次逐步增加噪声的方式,直至干净样本转变成为纯噪声。接着,让 SD 模型学习去噪过程,最后抽象出一个高维函数,这个函数能在纯噪声中不断“优化”噪声,得到一个干净样本。其中,将去噪过程具像化,就得到使用 UNet 预测噪声,并结合 Schedule 算法逐步去噪的过程。加噪和去噪过程都是逐步进行的,假设进行 K 步,那么每一步,SD 都要去预测噪声,从而形成“小步快跑的稳定去噪”。与此同时,在加噪过程中,每次增加的噪声量级可以不同,假设有 5 种噪声量级,那么每次都可以取一种量级的噪声,增加噪声的多样性。
2024-11-18
我想让AI帮我润色两句话,让其符合科研论文的用语习惯,并且有逻辑,可以适当改变语序、及表达方式,也允许添加或删除部分内容,该怎么下指令
以下是关于让 AI 润色两句话使其符合科研论文用语习惯且有逻辑的指令建议: 首先,明确您要润色的两句话的具体内容,并清晰地向 AI 描述您的需求。例如:“请将以下两句话按照科研论文的用语习惯进行润色,使其逻辑清晰、表达准确。句子 1:。” 在指令中,可以强调一些具体的要求,比如:“适当调整语序和表达方式,在不改变原意的基础上,优化句子结构,使其更具学术性和专业性。” 同时,您还可以补充一些相关的背景信息或特定的学科领域,以便 AI 更好地理解您的需求并进行更精准的润色。 常见的适合文章润色的 AI 工具包括: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体的 AI 写作助手,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于学生和写作人员的多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,可以帮助用户优化文章的语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可以根据输入生成符合要求的学术论文。 总的来说,这些 AI 工具涵盖了文章润色的各个环节,包括校对、改写、大纲生成、内容生成等,可以有效提高写作效率和质量。科研人员和学生可以根据自身需求选择合适的工具进行使用。
2024-10-20
我想做一个产品(生涯规划领域的垂直大模型),这个产品服务的对象是所有人:帮助所有人进行更好的职业规划。每个人都能通过使用这个产品更好地了解自己,了解自己的天赋、兴趣、优势,然后找到自己的热爱的领域和热爱的事业,并且能够个性化地推荐相关的行业和职业,包括职业的主要工作内容和核心能力要求等等。 请对这个产品进行可行性分析,并给出产品的发展规划,别忘了给这个项目起一个名字。
以下是对您提出的生涯规划领域垂直大模型产品的可行性分析和发展规划,并为项目取名为“生涯智途”。 可行性分析: 1. 需求广泛:帮助人们进行职业规划是一个普遍存在的需求,涵盖了各个年龄段和职业阶段的人群。 2. 数据可用性:可以通过各种渠道收集大量与职业相关的数据,包括行业报告、职位描述、人才需求等。 3. 技术支持:当前大模型技术的发展为实现这样的产品提供了可能,能够处理和分析大量复杂的数据。 发展规划: 1. 数据收集与整理:广泛收集各类职业数据,建立丰富的数据库,确保数据的准确性和完整性。 2. 模型训练与优化:利用收集到的数据进行模型训练,不断优化模型,提高预测和推荐的准确性。 3. 功能开发: 个性化测评:开发能够准确评估用户天赋、兴趣、优势的功能模块。 精准推荐:根据用户的特点,提供个性化的行业和职业推荐,并详细介绍职业的工作内容和核心能力要求。 持续学习与更新:随着行业变化,及时更新数据和模型,以提供最新的职业信息。 4. 用户体验优化:设计简洁、易用的界面,提供良好的用户交互体验。 5. 市场推广:通过线上线下多种渠道进行推广,提高产品的知名度和用户覆盖面。 希望以上分析和规划对您有所帮助。
2025-02-18
现在大语言模型的跑分对比
对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的语法、语义、上下文和隐含意义的理解程度。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:掌握广泛主题的知识程度,以及对特定领域或话题的理解深度。 4. 泛化能力:处理未见过的任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊不清指令的能力。 6. 偏见和伦理:生成文本时是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务中,提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准的语言模型评估基准,它们提供统一的测试环境和评分标准。 2. 自定义任务:根据特定需求设计任务,评估模型在特定领域的表现。 3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等性能指标来量化比较。 当前领先的大型语言模型的排行榜,例如聊天机器人竞技场,由伯克利的团队管理,根据 ELO 评级对不同语言模型进行排名,计算方式与国际象棋中的类似。在排行榜中,顶部多为专有模型,下方有开放权重的模型。 大语言模型的特点包括: 1. 架构:有 encoderonly、encoderdecoder、decoderonly 等,如 BERT 是 encoderonly 模型,google 的 T5 是 encoderdecoder 模型,众多 AI 助手多为 decoderonly 模型。 2. 数据和参数:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,参数多,如 OpenAI 在 2020 年发布的 GPT3 已达到 170B 的参数。
2025-02-18
现在大语言模型的跑分对比
对比不同大语言模型的性能需要考虑多个维度,包括但不限于以下方面: 1. 理解能力:评估对语言的语法、语义、上下文和隐含意义的理解程度。 2. 生成质量:检查生成文本的流畅性、相关性和准确性。 3. 知识广度和深度:掌握广泛主题的知识程度,以及对特定领域或话题的理解深度。 4. 泛化能力:处理未见过的任务或数据时的表现。 5. 鲁棒性:应对错误输入、对抗性输入或模糊不清指令的能力。 6. 偏见和伦理:生成文本时是否存在偏见,是否遵循伦理标准。 7. 交互性和适应性:在交互环境中的表现,包括对用户反馈的适应性和持续对话的能力。 8. 计算效率和资源消耗:考虑模型大小、训练和运行所需的计算资源。 9. 易用性和集成性:是否易于集成到不同应用和服务中,提供的 API 和工具的易用性。 为了进行有效的比较,可以采用以下方法: 1. 标准基准测试:使用如 GLUE、SuperGLUE、SQuAD 等标准的语言模型评估基准,它们提供统一的测试环境和评分标准。 2. 自定义任务:根据特定需求设计任务,评估模型在特定领域的表现。 3. 人类评估:结合人类评估者的主观评价,特别是在评估文本质量和伦理问题时。 4. A/B 测试:在实际应用场景中,通过 A/B 测试比较不同模型的表现。 5. 性能指标:使用准确率、召回率、F1 分数、BLEU 分数等性能指标来量化比较。 当前领先的大型语言模型的排行榜,例如聊天机器人竞技场,由伯克利的团队管理,根据 ELO 评级对不同语言模型进行排名,计算方式与国际象棋中的类似。在排行榜中,顶部多为专有模型,下方有开放权重的模型。 大语言模型的特点包括: 1. 架构:有 encoderonly、encoderdecoder、decoderonly 等,如 BERT 是 encoderonly 模型,google 的 T5 是 encoderdecoder 模型,众多 AI 助手多为 decoderonly 模型。 2. 数据和参数:预训练数据量大,往往来自互联网,包括论文、代码、公开网页等,参数多,如 OpenAI 在 2020 年发布的 GPT3 已达到 170B 的参数。
2025-02-18
什么是大模型一体机
大模型一体机是一个相对复杂的概念。通俗来讲,大模型是输入大量语料,让计算机获得类似人类的“思考”能力,能够进行文本生成、推理问答、对话、文档摘要等工作。其本质是两个文件:一个是参数文件,类似于问答机器人的“大脑镜像”,负责处理和生成文本信息;另一个是包含运行这些参数的代码文件。 大模型的训练和使用过程可以类比为上学参加工作: 1. 找学校:训练大模型需要大量计算,GPU 更合适,只有购买得起大量 GPU 的才有资本训练。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用合适的算法讲述“书本”中的内容,让大模型更好理解 Token 之间的关系。 4. 就业指导:为了让大模型更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,进行如翻译、问答等工作,在大模型里称之为推导(infer)。 大模型的特点包括: 1. 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,一般用 TB 级别的数据进行预训练。 2. 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。 在架构方面,大模型有 encoderonly、encoderdecoder、decoderonly 等类型。目前常见的 AI 助手多采用 decoderonly 架构。
2025-02-18
传统AI、大模型、AGI的区别
传统 AI、大模型、AGI 存在以下区别: 传统 AI: 语音技能 NLU 通常通过一系列规则、分词策略等训练而成。 运作逻辑规律可观测,具有 ifelse 式的逻辑性。 大模型: 凭借海量数据在向量空间中学习知识的关联性。 运作逻辑难以观测,脱离了 ifelse 的层面。 Transformer 是其底层结构,是一个大参数(千亿级别)的回归方程,底层是 function loss 损失函数,能在一定 prompt condition 情况下,repeat 曾经出现过的数据内容,实现“生成”能力。 大语言模型是一个 perfect memory,repeat 曾经出现的内容。与 Alpha Go 相比,Alpha Go 是增强学习模型,有推理能力,而大语言模型这块很弱。 AGI(通用人工智能): 部分人觉得 LLM(大语言模型)具有 AGI 潜力,但 LeCun 反对。 目前对于能否到达 AGI 阶段尚不明确。 在公众传播层面: AIGC 指用 Stable Diffusion 或 Midjourney 生成图像内容,后来泛指用 AI 生成音乐、图像、视频等内容。 LLM 指 NLP 领域的大语言模型,如 ChatGPT。 GenAI 是生成式人工智能模型,国内官方政策文件使用这个词相对科学,涵盖了 LLM 和 AIGC。 公众传播一般会混用上述名词,但底层是 transformer 结构。
2025-02-18
有哪些在企业内部落地应用AI大模型工具的实践案例?不要营销文案生成、代码开发助手、智能客服问答机器人这种太常见的
以下是一些在企业内部落地应用 AI 大模型工具的实践案例: 1. 阿里云百炼: 智能体应用:能够弥补大模型的不足,如回答私有领域问题、获取实时信息、回答专业问题等。适用于有企业官网、钉钉、微信等渠道,期望为客户提供产品咨询服务,以及缺少技术人员开发大模型问答应用的场景。典型场景包括私有领域知识问答、个性化聊天机器人、智能助手等。 内部业务助手:通过企业内部规章制度、部门结构、产品介绍等文档构建知识库,并借助 RAG 智能体实现内部知识问答功能。系统支持多源异构数据,并通过复杂文档解析和视觉增强技术,提升文档理解的准确性与深度。目前该功能已灰度上线,需提供 UID 并通过白名单进行开启。 2. 达摩院: AI 模特(虚拟换装):支持虚拟换装、姿态编辑。 3. 电商零售: 推广文案写作:通过内置的多样化营销场景的文体模板,基于用户输入的创作主题以及参考素材,大模型即可为您生成对应的营销文案,为营销活动和宣传文案提供灵感和文案写作支持。 4. 泛企业: VOC 挖掘:是一个面向各类企业的 VOC 标签挖掘的工具。不论是用户的长短评论、帖子、还是用户和客服/销售的聊天记录、通话记录,都可以使用。通过选中或自定义标签,即可让大模型针对海量非结构化的 VOC 数据快速打标。相比于人工打标或规则打标准确率更高;对于业务标签变动频繁的情况,也能更敏捷、快速地影响。 5. 通义晓蜜:基于深度调优的对话大模型,为营销服类产品提供智能化升级所需的生成式摘要总结、质检、分析等能力应用。
2025-02-18