Skip to main content

模型与定价


Cursor中提供的模型及其定价

Cursor提供多种先进模型,包括最新的前沿模型。


定价

所有模型使用均按请求计数和计费。Cursor提供两种使用模式:

标准模式

每模型/消息的请求数
适用于日常编码任务,推荐大多数用户使用。

Max模式 --- 每百万令牌(MTok)请求数 最适合复杂推理、疑难问题解决和代理任务

请求

一个请求代表发送给模型的单条消息,包含您的消息、代码库相关上下文以及模型响应。
每条请求费用:$0.04

免费请求

当标准请求用尽时自动激活。处理优先级较低,响应可能稍慢,但完全免费。
Max模式不提供免费请求。

标准模式

在标准模式下,每条消息的成本仅基于所用模型固定计算请求数,不受上下文影响。我们优化上下文管理且不影响请求计数。

例如使用Claude 3.5 Sonnet的对话(每条消息成本1请求):

角色消息每条消息成本
用户为此变更创建计划(使用更昂贵模型)1
Cursor我将分析需求并制定详细实施计划...0
用户用TypeScript实现变更并添加错误处理1
Cursor这是包含类型安全和错误处理的实现...0
总计2请求

Max模式

Max模式下,定价基于令牌计算,Cursor按模型提供商API价格加收20%费用。包含消息、代码文件、文件夹、工具调用等所有提供给模型的令牌。

我们使用与模型提供商相同的分词器(如GPT模型用OpenAI分词器,Claude模型用Anthropic分词器)确保计数准确。可参考OpenAI分词器示例

Max模式定价示例:

角色消息令牌数备注每条消息成本
用户为此变更创建计划(使用更昂贵模型)135k无缓存输入令牌2.7请求
Cursor我将分析需求并制定详细实施计划...82k1.23请求
用户用TypeScript实现变更并添加错误处理135k大部分输入令牌已缓存2.7请求
Cursor这是包含类型安全和错误处理的实现...82k1.23请求
总计434k7.86请求

模型

  • 概览
  • 定价

MAX模式

  • [x]
名称上下文长度能力
AnthropicAnthropicClaude 3.5 Sonnet75kM
AnthropicAnthropicClaude 3.7 Sonnet120kM
AnthropicAnthropicClaude 4 OpusM
AnthropicAnthropicClaude 4 Sonnet120kM
GoogleGemini 2.5 Flash128k
GoogleGemini 2.5 Pro120kM
OpenAIOpenAIGPT 4.1128kM
OpenAIOpenAIGPT-4o60kM
xAIxAIGrok 3 Beta60kM
xAIxAIGrok 3 Mini60kM
OpenAIOpenAIo3M
OpenAIOpenAIo4-mini128kM

显示更多模型

MAX模式

  • [x]
名称每条消息成本(请求数)
AnthropicAnthropicClaude 3.5 Sonnet1
AnthropicAnthropicClaude 3.7 Sonnet Thinking1 2
AnthropicAnthropicClaude 4 Opus
AnthropicAnthropicClaude 4 Sonnet Thinking1 2
GoogleGemini 2.5 Flash免费
GoogleGemini 2.5 Pro1
OpenAIOpenAIGPT 4.11
OpenAIOpenAIGPT-4o1
xAIxAIGrok 3 Beta1
xAIxAIGrok 3 Mini免费
OpenAIOpenAIo3
OpenAIOpenAIo4-mini1

显示更多模型


模型列表

Claude 4 Sonnet

标准模式

  • 提供商:Anthropic
  • 链接:Claude 4 Sonnet
  • 上下文窗口:120k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 成本:0.5请求/消息
  • 备注:当前慢速池不可用
变体
  • 推理
    • 成本:0.75请求/消息

Max模式

  • 提供商:Anthropic
  • 链接:Claude 4 Sonnet
  • 上下文窗口:200k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 输入成本:90请求/MTok
  • 缓存输入成本:9请求/MTok
  • 输出成本:450请求/MTok

Claude 4 Opus

标准模式

  • 提供商:Anthropic
  • 链接:Claude 4 Opus
  • 上下文窗口:120k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 成本:0.375请求/消息

Max模式

  • 提供商:Anthropic
  • 链接:Claude 4 Opus
  • 上下文窗口:200k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 输入成本:450请求/MTok
  • 缓存输入成本:45请求/MTok
  • 输出成本:2250请求/MTok

Claude 3.7 Sonnet

标准模式

  • 提供商:Anthropic
  • 链接:Claude 3.7 Sonnet
  • 上下文窗口:120k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 特性:功能强大但倾向频繁修改
  • 成本:1请求/消息
变体
  • 推理
    • 成本:2请求/消息
    • 备注:因令牌密集导致请求数增加

Max模式

  • 提供商:Anthropic
  • 链接:Claude 3.7 Sonnet
  • 上下文窗口:200k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 特性:功能强大但倾向频繁修改
  • 输入成本:90请求/MTok
  • 缓存输入成本:9请求/MTok
  • 输出成本:450请求/MTok

Claude 3.5 Sonnet

标准模式

  • 提供商:Anthropic
  • 链接:Claude 3.5 Sonnet
  • 上下文窗口:75k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 特性:全能型,适合多数任务
  • 成本:1请求/消息

Max模式

  • 提供商:Anthropic
  • 链接:Claude 3.5 Sonnet
  • 上下文窗口:200k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 特性:全能型,适合多数任务
  • 输入成本:90请求/MTok
  • 缓存输入成本:9请求/MTok
  • 输出成本:450请求/MTok

Gemini 2.5 Pro

标准模式

  • 提供商:Google
  • 链接:Gemini 2.5 Pro
  • 上下文窗口:120k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 特性:谨慎精准
  • 成本:1请求/消息
  • 备注:价格随令牌数浮动

Max模式

  • 提供商:Google
  • 链接:Gemini 2.5 Pro
  • 上下文窗口:1M
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 特性:谨慎精准
  • 输入成本:37.5请求/MTok
  • 缓存输入成本:9.3请求/MTok
  • 输出成本:300请求/MTok
变体
  • 长上下文(>200k)
    • 输入成本:75请求/MTok
    • 缓存输入成本:18.75请求/MTok
    • 输出成本:450请求/MTok

Gemini 2.5 Flash

标准模式

  • 提供商:Google
  • 链接:Gemini 2.5 Flash
  • 上下文窗口:128k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 成本:0请求/消息

GPT-4o

标准模式

  • 提供商:OpenAI
  • 链接:GPT-4o
  • 上下文窗口:60k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 成本:1请求/消息

Max模式

  • 提供商:OpenAI
  • 链接:GPT-4o
  • 上下文窗口:128k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 输入成本:75请求/MTok
  • 缓存输入成本:37.5请求/MTok
  • 输出成本:300请求/MTok

GPT 4.1

标准模式

  • 提供商:OpenAI
  • 链接:GPT 4.1
  • 上下文窗口:128k
  • 能力:代理(可使用工具)
  • 成本:1请求/消息

Max模式

  • 提供商:OpenAI
  • 链接:GPT 4.1
  • 上下文窗口:1M
  • 能力:代理(可使用工具)
  • 输入成本:60请求/MTok
  • 缓存输入成本:15请求/MTok
  • 输出成本:240请求/MTok

o3

标准模式

  • 提供商:OpenAI
  • 链接:o3
  • 上下文窗口:128k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 成本:7.5请求/消息
  • 备注:高推理强度

Max模式

  • 提供商:OpenAI
  • 链接:o3
  • 上下文窗口:200k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 输入成本:300请求/MTok
  • 缓存输入成本:75请求/MTok
  • 输出成本:1200请求/MTok

o4-mini

标准模式

  • 提供商:OpenAI
  • 链接:o4-mini
  • 上下文窗口:128k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 成本:1请求/消息
  • 备注:高推理强度

Max模式

  • 提供商:OpenAI
  • 链接:o4-mini
  • 上下文窗口:200k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 输入成本:33请求/MTok
  • 缓存输入成本:8.25请求/MTok
  • 输出成本:132请求/MTok

Grok 3 Beta

标准模式

  • 提供商:xAI
  • 链接:Grok 3 Beta
  • 上下文窗口:60k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 成本:1请求/消息

Max模式

  • 提供商:xAI
  • 链接:Grok 3 Beta
  • 上下文窗口:132k
  • 能力:代理(可使用工具)、推理(使用推理令牌)
  • 输入成本:90请求/MTok
  • 输出成本:450请求/MTok

Grok 3 Mini

标准模式

  • 提供商:xAI
  • 链接:Grok 3 Mini
  • 上下文窗口:60k
  • 能力:代理(可使用工具)
  • 成本:0请求/消息

Max模式

  • 提供商:xAI
  • 链接:Grok 3 Mini
  • 上下文窗口:132k
  • 能力:代理(可使用工具)
  • 输入成本:9请求/MTok
  • 缓存输入成本:9请求/MTok
  • 输出成本:30请求/MTok

OpenAIOpenAIAnthropicAnthropicGoogleDeepSeekxAIxAICursor

自动选择

启用自动选择后,Cursor将根据当前任务需求和实时可靠性自动选用最优高端模型。该功能可检测输出质量下降并自动切换模型解决。
推荐大多数用户使用

自动选择界面


能力

推理

启用推理功能将限定模型列表为具备分步思考能力的推理模型,这些模型能深度检查自身推理过程并修正错误。
此类模型在复杂推理任务中表现更优,但响应时间可能更长。

代理

代理模型可与聊天的代理模式配合使用,擅长执行工具调用。
包含最多25个工具调用的代理提示消耗1次请求。若超过25个工具调用,Cursor将询问是否继续,继续操作将消耗第二次请求。

Max模式

部分模型支持Max模式,专为最复杂的挑战性任务设计。了解Max模式


上下文窗口

上下文窗口指LLM单次处理的最大令牌跨度(文本与代码),包含输入提示和模型输出内容。
Cursor中每个聊天保持独立上下文窗口。会话中的提示、附件和响应越多,上下文窗口越大。

随着聊天进行,Cursor会主动优化上下文窗口,智能裁剪非必要内容,同时保留关键代码和对话要素。
建议采用基于任务的聊天管理方式,每个独立任务开启新会话。


托管

模型托管在模型提供商、可信合作伙伴或Cursor位于美国的基础设施上。
在设置中启用隐私模式后,Cursor和模型提供商均不会存储数据,所有数据在处理请求后删除。详见隐私隐私政策安全页面。


常见问题解答

什么是请求?

请求是发送给模型的消息。

什么是令牌?

令牌是模型可处理的最小文本单位。

365/年

CursorAI编程知识星球

我的cursor教学视频已经超100万人观看,可能是中文互联网最佳了

立即查看800+人已加入
免费

通过Monica免费使用满血可联网DeepSeek R1

Monica接入DeepSeek R1、OpenAI o1、GPT-4o、Claude 3.5 和 Gemini 1.5,来提升您的聊天、搜索、写作和编程体验。

立即查看一站式 AI 助手