Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Claude3/grok3/Gemini使用API调用时消耗token的价格是?

Answer

Claude 3 的 API 调用价格为:每百万输入 token 0.25 美元,每百万输出 token 1.25 美元。可以处理和分析 400 起最高法院案件或 2500 张图片只需 1 美元。相关链接:https://x.com/imxiaohu/status/1768284259792691366?s=20

Content generated by AI large model, please carefully verify (powered by aily)

References

XiaoHu.AI日报

🔔Xiaohu.AI日报「3月14日」✨✨✨✨✨✨✨✨1⃣️🤖Claude 3 Haiku API发布:最快、性价比最高的型号。每百万输入token 0.25美元,每百万输出token 1.25美元。可以处理和分析400起最高法院案件或2500张图片只需1美元。🔗https://x.com/imxiaohu/status/1768284259792691366?s=202⃣️🚀Starship第三次飞行测试:SpaceX星际飞船成功发射进入预定轨道。重达5000吨,成为有史以来最大的飞行器。🔗https://x.com/imxiaohu/status/1768273741262520394?s=203⃣️🚫Midjourney禁止生成拜登和特朗普的图片:以应对美国总统选举,禁止生成拜登和特朗普的虚假图片。测试发现尝试生成特定图片时会收到警告。CEO David Holz强调不想在政治言论上花费太多时间。🔗https://x.com/imxiaohu/status/1768258401518362625?s=204⃣️💻零一万物大模型开放API接口:1000,000 tokens最低6元。🔗https://x.com/imxiaohu/status/1768253143098540518?s=205⃣️🎨Muse Pro:一款专为iPad设计的AI实时画图应用:实现实时绘画,每一笔触即时转化为数字画面。支持图像快速增强和放大,适合直接打印。主要特色包括实时绘画、图像增强、直观设计与高级图层、自定义画笔。

XiaoHu.AI日报

🔔Xiaohu.AI日报「3月14日」✨✨✨✨✨✨✨✨1⃣️🤖Claude 3 Haiku API发布:最快、性价比最高的型号。每百万输入token 0.25美元,每百万输出token 1.25美元。可以处理和分析400起最高法院案件或2500张图片只需1美元。🔗https://x.com/imxiaohu/status/1768284259792691366?s=202⃣️🚀Starship第三次飞行测试:SpaceX星际飞船成功发射进入预定轨道。重达5000吨,成为有史以来最大的飞行器。🔗https://x.com/imxiaohu/status/1768273741262520394?s=203⃣️🚫Midjourney禁止生成拜登和特朗普的图片:以应对美国总统选举,禁止生成拜登和特朗普的虚假图片。测试发现尝试生成特定图片时会收到警告。CEO David Holz强调不想在政治言论上花费太多时间。🔗https://x.com/imxiaohu/status/1768258401518362625?s=204⃣️💻零一万物大模型开放API接口:1000,000 tokens最低6元。🔗https://x.com/imxiaohu/status/1768253143098540518?s=205⃣️🎨Muse Pro:一款专为iPad设计的AI实时画图应用:实现实时绘画,每一笔触即时转化为数字画面。支持图像快速增强和放大,适合直接打印。主要特色包括实时绘画、图像增强、直观设计与高级图层、自定义画笔。

不懂代码,也能 3 小时打造并上架一款 AI 插件

纯靠词生卡Prompt完成卡片样式输出,固然是非常灵活的AI智能体方案。但倘若在最终落地产品中,还是每次都依赖大模型重新生成卡片的样式代码,反而会消耗大量的输出token,耗时且不经济。此外,在实际使用中,用户通常只固定使用一到两个常用模板,对自定义样式的需求并不频繁。所以在开发AI Share Card插件的过程中,我选择将模板生成功能设计为固定的代码组件,而让大模型专注于内容总结的功能。如果用户需要选择其他模板,则通过增加更多模板选项or自定义模板代码功能实现。如此一来,对AI大模型的要求就不会动辄需要像Claude 3.5 sonnet那样高不可攀的顶级模型。处理纯文本总结任务,仅需13B或更小参数的模型,加上精调的提示词,就能产生很好的结果。一旦明确模型的任务,AI API服务的选型要求就清晰了:1.较长的上下文窗口:内容总结类任务需要较大的上下文长度;2.响应速度要快、并发支持要高:以便在多人使用插件时,保持良好的性能表现;3.免费或尽量低价:减少模型token费用。经过简单调研后,AI Share Card选用的是GLM-4-flash(没恰饭。截至2024-12,长达128k的上下文窗口,完全免费的调用价格,200 RPM高并发支持,还要什么自行车🚲~)

Others are asking
claude3.7
Claude 3.7 Sonnet 深夜上线,在 AI 编程领域带来了重大突破。 其文笔在推理能力加持下表现出色,写出的内容更具真人感,剧情逻辑更顺畅。编程能力是其最突出的优势,非推理模型加持下的 Claude 3.5 已能与 o1 抗衡,Claude 3.7 更是远超其他模型。在遵循指令、一般推理、多模态能力和自主编码方面表现优异,加推理后在数学和科学方面进步显著。 让 Claude 3.7 Sonnet 玩宝可梦红这款经典游戏,它展现出很强的 AI 代理能力,成功挑战三个道馆馆主并赢得徽章,相比之前版本有质的飞跃。 此外,还有类似于 Cursor 的 Claude Code 这一 AI 编程工具,可搜索和阅读代码、编辑文件、编写和运行测试、提交并推送代码到 GitHub 及使用命令行工具,其手册详细,限量预览可查看:https://docs.anthropic.com/en/docs/agentsandtools/claudecode/overview 。对于初涉 AI 编程或无代码知识者,建议选择 Trae 或 Cursor 。 AI 圈进化迅速,Claude 3.7 Sonnet 再次拔高模型上限,这是 AI 时代令人兴奋又充满挑战的部分。 作者:卡兹克 投稿或爆料,请联系邮箱:wzglyay@gmail.com
2025-03-03
如何免费使用claude3.7
Claude 3.7 Sonnet 目前已经在 Claude.ai 平台上线,Web、iOS 和 Android 用户皆可免费体验。对于希望构建自定义 AI 解决方案的开发者,可以通过 Anthropic API、Amazon Bedrock 以及 Google Cloud 的 Vertex AI 进行访问。目前“扩展思考”模式还没有上线,所有人均可免费使用。此外,tree 接入 Claude 3.7 可免费使用,国内版 Claude 3.7 下周上线。在标准模式和扩展思考模式下,Claude 3.7 Sonnet 的价格与其前代产品相同:3 美元/百万输入 token,15 美元/百万输出 token——这其中包括了思考 token 的费用。
2025-02-28
Claude3.5免费的模型和付费的模型有什么区别
Claude 3.5 的免费模型和付费模型主要有以下区别: 1. 功能与性能:付费的 Opus 模型在某些方面可能具有更强大的功能和更出色的性能。 2. 访问权限:所有新用户有 14 天的 Pro 试用期,可访问所有 Pro 功能。14 天后未升级的用户将恢复为 Hobby 计划。 3. 快速请求:默认情况下,服务器会尝试给所有用户快速的高级模型请求,但高峰期时,用完快速高级积分的用户可能会被移到慢速池等待。若不想等待,可在设置页面添加更多请求。 4. 对话轮次:免费版本每小时的对话轮次有限制。 5. 费用:Pro 版本每月 20 美刀。 6. 注册要求:注册需要海外手机号。 7. 模型种类:免费用户可用 Claude 3 Sonnet 模型,订阅后可用 Opus 模型。
2024-10-26
Claude3 入口
Claude 3 是由 Anthropic 公司发布的 AI 模型系列,域名是 http://claude.ai ,包括 Haiku、Opus、Sonnet 三款模型。其具有高性能、多语言能力、突破性速度、视觉识别、减少错误率等特点。Opus 和 Sonnet 模型已上线,向全球 159 国开放,Haiku 模型即将推出。该系列模型提供实时反应,出色的多语言处理能力,减少错误拒绝并提升准确率,具有长期记忆能力。模型根据功能分别注重智能(Opus)、平衡(Sonnet)和速度(Haiku),并有明确的成本和适用场景。Claude 3 模型设计注重安全可靠,努力减少偏见,提高公正性和中立性,并已被评定为 AI 安全等级 2。在多个基准测试中取得了最先进的结果,在非英语语言的流畅度上有所提高,更适合全球受众。Claude 3 Opus 在推理、数学和编码方面设定了新的标准,Haiku 则是市场上最快速且成本最低的模型,同时具备视觉能力。通过多模态输入能力(文本输出)和工具使用(功能调用)提供了丰富的上下文和扩展用例。相关文档有简体中文版,且可编辑,但不要随便改动他人内容。Anthropic 公司宣称 Claude 3 全面超越 GPT4,具有多模态能力,推理能力和人类相当,速度更快更准确。其元数据包括标题、作者、链接、标签等。其核心观点与亮点在于介绍了模型家族在多方面的出色表现,并在安全性和社会影响方面进行了深入分析,致力于开发安全、负责任的 AI 系统,以支持多种应用场景。 您可以通过以下链接获取更多详细信息:https://wwwcdn.anthropic.com/de8ba9b01c9ab7cbabf5c33b80b7bbc618857627/Model_Claude_3.pdf
2024-09-28
grok3 有什么特点
Grok 3 具有以下特点: 1. 包含两个模型版本:Grok 3 和 Grok 3mini。 2. 在 AIME 和 GPQA 在内的基准测试中显著优于其他模型,在数学推理、代码处理、科学问题方面表现优秀。 3. 具备推理能力,在提供更多测试计算时间的情况下,优于 o1 和 R1。 4. 新增“Deep Search”能力,能深入了解用户目的,访问并交叉验证多个信息源,确保研究内容更准确,并公开执行搜索所采取的步骤。 5. 可以调用 Big Brain 功能,加强计算来解决问题。 6. 现场演示中能生成游戏设计方案。 7. 语音模式在大约一周内推出。 8. API 几周后推出。 9. 今天向所有 Premium+订阅者推出(IOS、网页版都有),完整版在网页版,APP 上的 Grok 3 有一定削弱。(还有单独会员叫:SuperGrok)今天所有该类用户都能用上。 10. Grok 2 将在 Grok 3 正式可用后开源,xAI 计划也会开源 Grok 3 。 在评测方面,Grok 3 在基准测试中领先,但与竞争模型差距不大,整体表现比其他模型高出约 1 2%。Andrej Karpathy 认为 Grok 3 + Thinking 比 DeepSeek R1 强一些,接近 OpenAI 顶级模型,在测试中成功解决了多个复杂问题,但“DeepSearch”能进行高质量的检索类问题回答,尚需改进。 地址:https://huggingface.co/smirki/UIGENT1Qwen7b
2025-02-26
grok3 ai什么时候可用
Grok 3 已于今天向所有 Premium+ 订阅者推出(包括 IOS 和网页版),完整版在网页版,APP 上的 Grok 3 有一定削弱。(还有单独会员叫:SuperGrok)今天所有该类用户都能用上。Grok 3 语音模式在大约一周内推出,Grok 3 API 几周后推出,Grok 2 将在 Grok 3 正式可用后开源,xAI 计划也会开源 Grok 3 。
2025-02-19
grok3 发布会亮点内容
Grok 3 发布会的亮点内容包括: 1. 包含两个模型版本:Grok 3 和 Grok 3mini。 2. 在 AIME 和 GPQA 在内的基准测试中显著优于其他模型,在数学推理、代码处理、科学问题方面表现优秀。 3. 具备推理能力,在提供更多测试计算时间的情况下,优于 o1 和 R1。 4. 今天向所有 Premium+订阅者推出(IOS、网页版都有),完整版在网页版,APP 上的 Grok 3 有一定削弱。 5. 新增“Deep Search”能力,能深入了解用户目的,访问并交叉验证多个信息源,确保研究内容准确,并公开执行搜索步骤。 6. 可以调用 Big Brain 功能加强计算来解决问题。 7. 现场演示中,Grok 3 可以生成游戏设计方案。 8. Grok 3 语音模式在大约一周内推出。 9. Grok 3 API 几周后推出。 10. Grok 2 将在 Grok 3 正式可用后开源,xAI 计划也会开源 Grok 3。
2025-02-19
API是什么意思有什么用
API 是应用程序编程接口(Application Programming Interface)的缩写。它是软件之间进行交互和数据交换的接口,使得开发者能够访问和使用另一个程序或服务的功能,而无需了解其内部实现的详细信息。 API 就像是一个信差,接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。 APIKey 是一种实现对 API 访问控制的方法,通常是一串字符串,用于身份验证和访问控制。当开发者或应用程序尝试通过 API 与另一个程序或服务交互时,APIKey 作为请求的一部分被发送,以证明请求者具有调用该 API 的权限。APIKey 帮助服务提供商识别调用者身份,监控和控制 API 的使用情况,以及防止未经授权的访问。 要使用 API,通常需要去官网寻找 API 文档,API 的规则一般会写在网站的开发者相关页面或 API 文档里。例如,TMDB 的搜索电影 API 文档的网址是:https://developer.themoviedb.org/reference/searchmovie 。在 API 文档中,会详细告知如何使用相应的 API,包括请求方法、所需的查询参数等。您可以在文档中进行相关配置和操作。 登录网站寻找 Apikeys 创建新的密钥(记得保存好、不要泄露)。使用 APIKEY 可能需要单独充值,一共有两种模式可以使用: 1. 使用官方的 key 网站:https://platform.openai.com/apikeys 创建好您的 key 后记得复制保存。 2. 如果觉得充值比较麻烦可以考虑用第三方的网站:https://www.gptapi.us/register?aff=WLkA ,这个充值起来方便一些,模型选择也可以多一些。
2025-03-29
哪个大模型的API接口免费?
以下是一些提供免费 API 接口的大模型: 1. Silicon 硅基接口:有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,还赠送 14 元体验金,有效期未知。注册和使用地址为,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。它支持多种大模型,也支持文生图、图生图、文生视频。 2. 智普 GLM4 接口:在 BigModel.cn 上通过专属邀请链接注册即可获得额外 GLM4Air 2000 万 Tokens 好友专属福利。进入个人中心,先完成实名认证,再单击左边栏 API KEYS 或右上角的 API 密钥,进入后单击右上角的添加 API,鼠标移至密钥上方,单击复制即可得到智普的 API key。 3. 阿里的通义千问大模型:打开链接,创建个 API key。 4. 智谱 AI(ChatGLM):有免费接口。 5. 科大讯飞(SparkDesk):有免费接口。 此外,谷歌的 Gemini 大模型(gemini 1.5)和海外版 Coze 的 GPT4 模型是免费的,但需要给服务器挂梯子。
2025-03-28
扣子api的调用流程
扣子 API 的调用流程如下: 1. 传递请求的相关部分: Body:用于传递请求的主体部分,可以是 JSON、XML 或其他类型的数据。在 GET 方法中通常不用于传递参数,因为 GET 方法的 URL 已包含必要参数。 Path:用于定义请求的路径部分,通常以“/”开头,后面跟着一系列段落。在 GET 方法中可传递参数,但常编码为 URL 一部分。 Query:用于定义请求的查询部分,通常以“?”开头,后跟一系列键值对。在 GET 方法中是常用的参数传递方式。 Header:用于定义 HTTP 请求的头信息部分,包括各种头部字段。在 GET 方法中通常不用于传递参数,而是定义请求头部信息。 2. 配置输出参数: 如果填写无误,可直接点击自动解析,会自动调用一次 API 给出对应的输出参数。 例如填入汉字“张”,点击自动解析。解析成功会显示成功,输出参数填好后点击保存并继续。参数描述可根据需求填写。 3. 调试与校验: 测试工具是否能正常运行。 运行后查看输出结果,Request 为输入的传参,Response 为返回值,点击 Response 可看到解析后的参数。 此外,创建扣子的令牌步骤如下: 在扣子官网左下角选择扣子 API,在 API 令牌中选择“添加新令牌”,为令牌起名,选择过期时间(如永久有效),选择指定团队空间(个人空间或团队空间),勾选所有权限,保存好令牌的 Token,切勿向他人泄露。 让 Coze 智能体机器人连上微信和微信群的配置: 1. 获取机器人 ID:在个人空间中找到要接入微信的机器人,如画小二智能小助手,点击进入编辑界面,浏览器地址栏 bot/之后的数据即为机器人的 Bot ID。 2. API 授权:点击右上角发布,会出现 Bot as API,勾选并确定应用已成功授权 Bot as API。
2025-03-25
什么是API
API 是应用组件之间进行交互和数据交换的接口。简单来说,它是软件之间相互交流的方式,使得开发者能够在不了解另一程序或服务内部实现细节的情况下,访问和使用其功能。 APIKey 是用于实现对 API 访问控制的方法,通常是一串字符串,用于身份验证和访问控制。当开发者或应用程序通过 API 与另一程序或服务交互时,APIKey 作为请求的一部分被发送,以证明请求者具有调用该 API 的权限。它帮助服务提供商识别调用者身份,监控和控制 API 的使用情况,并防止未经授权的访问。 API 就像一个信差,接受一端的请求,告诉那边的系统您想要做的事情,然后把返回的信息发回给您。其数据格式通常为 JSON。 对于使用 API,首先要明确想要做什么样的 GPT 以及是否需要外部数据,然后寻找 API 文档或开发 API 以及可用的 Action,最后基于 API 文档编写 Action 里的 Schema 和 Prompt 来处理取回的信息。 您可以通过以下方式进一步学习 API 相关知识: 1. 系统地了解和学习 API 相关的知识。 2. 去网上寻找可以用的 API 来练习。 3. 发掘 GPT Action 更多的潜力。 创建 APIKey 时,登录网站寻找并创建新的密钥,记得保存好且不要泄露。使用 APIKEY 可能需要单独充值,有两种模式可以使用: 1. 使用官方的 key 网站:https://platform.openai.com/apikeys,创建好您的 key 后记得复制保存。 2. 如果觉得充值麻烦,可以考虑用第三方的网站:https://www.gptapi.us/register?aff=WLkA,这个充值起来方便一些,模型选择也可以多一些。
2025-03-24
@ 在cherry studio可以是你openrouter的API吗?
在 Cherry Studio 中,不能直接将 @ 作为 OpenRouter 的 API。OpenRouter 有一些特定的使用方式和条件。 例如,Zeabur 模版自带 oneapi,支持一键部署。但想要同时使用 openrouter 和 simpleoneapi 需安装 cline 插件,将 openrouter api 放到 cline,再把 Cursor 设置换成 simpleoneapi,这样基本能在 Cursor 里使用全系大模型。 OpenRouter 新发布了 BYOK(Bring Your Own API Keys)功能,这是个第三方 Key 集成功能,能将 xAI、OpenAI、Mistral 等数十个平台的 Key 集中在一起,还能同时使用其他平台和 OpenRouter 的额度。目前支持白“赚”的平台包括 AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI 等。 在使用 OpenRouter 集成 API Key 时,不仅能整合免费额度,还能解放更多槽位。但在 Cursor 的设置里,deepseek 会与 gpt 的配置发生冲突,同一时间最多只能使用 4 个类型的模型。 如果觉得 OpenRouter 支持的模型不够,还可以使用 simpleoneapi。不过 simpleoneapi 不像 openrouter 支持直接在线配置多个 Key,熟悉代码的可以通过本地或者 Docker 启动。 另外,在进行相关实验时,需要准备本地安装好的 VS Code,在 VS Code 中安装 Cline(MCP 客户端之一),还需要注册 Cloudflare 和 Openrouter,在 Openrouter 注册后在 Keys 中申请一个 API key 并妥善保存。
2025-03-24
有哪些国外免费的大模型API可以使用
以下是一些国外免费的大模型 API 可供使用: 1. 谷歌的 Gemini 大模型(https://ai.google.dev/)(gemini 1.5),但使用可能需要给服务器挂梯子。 2. 海外版 Coze(https://www.coze.com/)的 GPT4 模型,能图片识别,使用可能需要给服务器挂梯子。 此外,还有以下相关信息: 1. 阿里的通义千问大模型接口(https://dashscope.console.aliyun.com/),创建 API key 即可使用。 2. 智谱 AI(ChatGLM)(https://open.bigmodel.cn/)、科大讯飞(SparkDesk)(https://xinghuo.xfyun.cn/sparkapi)也有免费接口,但国内的大模型大多限制一定免费额度的 Token。 对于 OpenRouter 新发布的功能 BYOK(Bring Your Own API Keys),它是个第三方 Key 集成功能,将 xAI、OpenAI、Mistral 等数十个平台的 Key 集中在一起,目前支持白“赚”的平台包括 AI Studio/Cohere/DeepSeek/Mistral/SambaNova/Together/xAI 等。 以 silicon 为例,其有众多开源模型(Yi、Qwen、Llama、Gemma 等)免费使用,另赠送 14 元体验金,有效期未知,是个人认为 API 接口方便实惠的选择。注册和使用地址为:,邀请码:ESTKPm3J。注册登录后,单击左边栏的 API 密钥,单击新建 API 密钥,单击密钥即可完成 API 密钥的复制。
2025-03-19
飞书多维表格如何接入gemini?
要将飞书多维表格接入 Gemini,以下是一些相关的操作步骤和说明: 首先,请注意部分操作需要搭配 Google 云服务或自备 API 才可以正常练习,具体内容)。友情提示,从这一部分及以后内容,多数都会是配合代码完成的,如果您是 0 代码学习者,尝试看懂提示词,并在一些 AI 产品上尝试使用。 接下来,课程将深入探讨代码部分。为了运行这个笔记本,需要执行一些设置代码。首先,需要导入 utils 并进行身份验证,这意味着需要设置一些凭证和项目 ID,以便能够从笔记本环境调用云端的 Gemini API。项目包含在云中使用的资源和 Gemini API。这个设置过程确保了笔记本能够正确连接和使用 Gemini 模型。 对于本课程,还需要指定一个区域,即代码将在哪里执行。在这种情况下,使用的是 uscentral1。 接下来,课程将导入 Vertex AI SDK。Vertex AI SDK 可以看作是一个 Python 工具包,帮助用户与 Gemini 交互。通过这个 SDK,可以使用 Python 调用 Gemini API 并获得响应。 在笔记本中,需要初始化 Vertex SDK。这意味着需要告诉 SDK 以下信息: 1. 使用的项目 2. 想要使用 Gemini 模型的区域 3. 用户凭证 通过提供这些信息,Gemini API 就能识别用户身份,并确认用户有权使用 API。 为了使用 Gemini API,需要从 SDK 中导入 generative_model。设置完成后,需要指定具体的模型。这可以通过设置 model 变量来完成,使用刚刚导入的 generative_model,并选择特定的 Gemini 模型。在这个案例中,课程将使用 Gemini 1.0 Pro 版本。这个选择反映了对于当前任务,Gemini Pro 可能是最合适的平衡点,提供了良好的性能和效率。 此外,Gemini 不仅是单一模型,而是一个模型系列,包含不同大小的模型,每种大小都针对特定的计算限制和应用需求而定制。首先是 Gemini Ultra,这是系列中最大和最强大的模型。Gemini Pro 被设计为多功能的主力模型,平衡了模型性能和速度。还有 Gemini Flash,这是一个专门为高容量任务设计的最快、最具成本效益的模型。最后是 Gemini Nano,它是 Gemini 家族中的轻量级成员,专门设计用于直接在用户设备上运行。
2025-03-28
Gemini是用什么训练的
Gemini 是在 Google 的 TPU AI 加速器上训练的,似乎没有使用英伟达的 GPU。Google 还推出了全新的 Cloud TPU v5p 和 AI Hypercomputer 超级计算机,将加速 Gemini 的开发,使 AI 模型的训练更快。 Cloud TPU v5p 是目前 Google 最强大、可扩展和灵活的 AI 加速器。它在 TPU v4 的基础上提供了超过 2 倍的 FLOPS(浮点运算次数/秒)和 3 倍的高带宽内存(HBM)。TPU v5p 可以比前一代 TPU v4 更快地训练大型语言模型(LLM),对于嵌入密集型模型,其训练速度比 TPU v42 快 1.9 倍。TPU v5p 的可扩展性是 TPU v4 的 4 倍。 AI Hypercomputer 是一个突破性的超级计算机架构,它采用了集成的系统,包括性能优化的硬件、开放软件、领先的机器学习框架,以及灵活的消费模型。通过系统级协同设计来提高 AI 训练、调优和服务的效率和生产力。具有性能优化的计算、存储和网络硬件,建立在超大规模数据中心基础设施之上,利用高密度占地面积、液体冷却和 Jupiter 数据中心网络技术。通过开放软件使开发者能够调整、管理和动态编排 AI 训练和推理工作负载。提供了一系列灵活和动态的消费选择,包括传统的承诺使用折扣(CUD)、按需定价和现货定价,以及为 AI 工作负载量身定制的消费模型。 Gemini 模型是在一个既包含多模态又包含多语言的数据集上进行训练的。预训练数据集使用来自网络文档、书籍和代码的数据,并包括图像、音频和视频数据。使用 SentencePiece 分词器,发现在整个训练语料库的大样本上训练分词器可以改善推断的词汇,并进而提高模型性能。对所有数据集进行过滤,使用启发式规则和基于模型的分类器,还进行安全过滤以删除有害内容。从训练语料库中筛选出评估集。在训练过程中进行分阶段训练,通过增加领域相关数据的权重来改变混合组合,直到训练结束。
2025-03-26
gemini
Google 的多模态大模型叫 Gemini。Gemini 是由 Google DeepMind 团队开发的,它不仅支持文本、图片等提示,还支持视频、音频和代码提示。能够理解和处理几乎任何输入,结合不同类型的信息,并生成几乎任何输出。被称为 Google 迄今为止最强大、最全面的模型,是一种“原生多模态大模型”,从设计之初就支持多模态,能够处理语言、视觉、听觉等不同形式的数据。 Gemini report 有中文翻译,翻译贡献者为林夕,源文档为 https://storage.googleapis.com/deepmindmedia/gemini/gemini_1_report.pdf 。本报告介绍了一种新的多模态模型 Gemini,它在图像、音频、视频和文本理解方面具有卓越的能力。Gemini 系列包括 Ultra、Pro 和 Nano 三种尺寸,适用于从复杂的推理任务到设备内存受限的应用场景。 可以使用 Gemini 拆解视频,例如使用 Gemini 1.5 Pro 进行视频分析和拆解。有测试者如阿强、张余、Ling、洋洋等进行了相关测试,反馈效果较好,准确度很高。
2025-03-24
OpenAI o1、Claude Sonnet 3.7、Gemini 2.0 pro 哪个 AI 搜索能力更强?
OpenAI o1、Claude Sonnet 3.7 和 Gemini 2.0 pro 在不同方面具有各自的优势,难以简单地比较哪个的搜索能力更强。 OpenAI o1 推理能力强,适合作为架构师或算法顾问。 Claude Sonnet 3.7 擅长长上下文任务,在快速生成代码与网页设计方面表现出色。 Gemini 2.0 pro 长上下文支持较好(2M Tokens),适合代码反编译与混淆代码分析。 具体的搜索能力表现还会受到应用场景和具体任务的影响。
2025-03-21
Gemini现在的表现怎么样?
目前谷歌的 Gemini 多模态模型表现如下: 包括 Ultra、Pro 和 Nano 三种型号,能够处理图像、音频、视频和文本。 原生多模态能力是其优势,一个模型即可完成多种任务。 多模态能力有限,存在幻觉问题和多语言表现不佳的情况。 对中文的理解能力较弱,体验不如 ChatGPT,但在生成质量和与搜索生态结合方面有显著进步,体验比 Bing 和 GPT 好。 Gemini Ultra 在 MMLU(大规模多任务语言理解)上的表现超过了人类专家。 被设计为天生的多模态模型,从一开始就在不同模态上进行预训练,然后通过额外的多模态数据进行微调,以进一步提高其有效性。 在文生图方面,能一次性生成多套不同风格的设计,例如在 20 秒内生成 12 张;在抠图、换背景、打光影等方面也有出色表现,能在 10 秒内取得相当稳定的预期结果。 但目前开启条件存疑,例如使用美国加州 IP 和默认英语语言进入 Bard 可能无法找到模型选项进行修改。
2025-03-19
gemini本地部署
Gemini 相关信息如下: Mistral Small 3 仅 24B 参数,但性能媲美 70B 级别模型,适合本地部署。 Gemini 2.0 Flash 正式上线,高级用户支持 100 万 token(1M)上下文窗口,可处理 1500 页文件,新增 Deep Research&Gems 等高级功能,提升任务深度理解能力,图像生成功能升级至 Imagen 3,优化细节与指令解析,Gemini 1.5 Flash&Pro 将继续提供数周支持,助用户平稳过渡。 AlphaCode 团队构建了基于 Gemini 的 AlphaCode 2,将 Gemini 的推理能力与搜索和工具使用相结合,在解决竞争性编程问题方面表现出色。同时,Gemini Nano 提升了效率,在设备上的任务中表现出色,如摘要、阅读理解、文本补全等,在推理、STEM、编码、多模态和多语言任务中展示出令人印象深刻的能力。在评估方面,涵盖了良好的研究 Benchmark 和人类偏好的评估,包括文本、代码、图像、音频和视频,包括英语性能和多语言能力。还讨论了部署方法,包括影响评估、制定模型策略、评估和减轻危害的过程。最后探讨了 Gemini 的更广泛影响、局限性和潜在应用。
2025-03-18