模型与定价
Cursor中提供的模型及其定价
Cursor提供多种先进模型,包括最新的前沿模型。
定价
所有模型使用均按请求计数和计费。Cursor提供两种使用模式:
标准模式
每模型/消息的请求数
适用于日常编码任务,推荐大多数用户使用。
Max模式 --- 每百万令牌(MTok)请求数 最适合复杂推理、疑难问题解决和代理任务
请求
一个请求代表发送给模型的单条消息,包含您的消息、代码库相关上下文以及模型响应。
每条请求费用:$0.04
免费请求
当标准请求用尽时自动激活。处理 优先级较低,响应可能稍慢,但完全免费。
Max模式不提供免费请求。
标准模式
在标准模式下,每条消息的成本仅基于所用模型固定计算请求数,不受上下文影响。我们优化上下文管理且不影响请求计数。
例如使用Claude 3.5 Sonnet的对话(每条消息成本1请求):
角色 | 消息 | 每条消息成本 |
---|---|---|
用户 | 为此变更创建计划(使用更昂贵模型) | 1 |
Cursor | 我将分析需求并制定详细实施计划... | 0 |
用户 | 用TypeScript实现变更并添加错误处理 | 1 |
Cursor | 这是包含类型安全和错误处理的实现... | 0 |
总计 | 2请求 |
Max模式
在Max模式下,定价基于令牌计算,Cursor按模型提供商API价格加收20%费用。包含消息、代码文件、文件夹、工具调用等所有提供给模型的令牌。
我们使用与模型提供商相同的分词器(如GPT模型用OpenAI分词器,Claude模型用Anthropic分词器)确保计数准确。可参考OpenAI分词器示例。
Max模式定价示例:
角色 | 消息 | 令牌数 | 备注 | 每条消息成本 |
---|---|---|---|---|
用户 | 为此变更创建计划(使用更昂贵模型) | 135k | 无缓存输入令牌 | 2.7请求 |
Cursor | 我将分析需求并制定详细实施计划... | 82k | 1.23请求 | |
用户 | 用TypeScript实现变更并添加错误处理 | 135k | 大部分输入令牌已缓存 | 2.7请求 |
Cursor | 这是包含类型安全和错误处理的实现... | 82k | 1.23请求 | |
总计 | 434k | 7.86请求 |
模型
- 概览
- 定价
MAX模式
- [x]
名称 | 上下文长度 | 能力 |
---|---|---|
75k | M | |
120k | M | |
M | ||
120k | M | |
128k | ||
120k | M | |
128k | M | |
60k | M | |
60k | M | |
60k | M | |
M | ||
128k | M |
显示更多模型
MAX模式
- [x]
名称 | 每条消息成本(请求数) |
---|---|
1 | |
1 2 | |
1 2 | |
免费 | |
1 | |
1 | |
1 | |
1 | |
免费 | |
1 |
显示更多模型
模型列表
Claude 4 Sonnet
标准模式
- 提供商:Anthropic
- 链接:Claude 4 Sonnet
- 上下文窗口:120k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 成本:0.5请求/消息
- 备注:当前慢速池不可用
变体
- 推理:
- 成本:0.75请求/消息
Max模式
- 提供商:Anthropic
- 链接:Claude 4 Sonnet
- 上下文窗口:200k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 输入成本:90请求/MTok
- 缓存输入成本:9请求/MTok
- 输出成本:450请求/MTok
Claude 4 Opus
标准模式
- 提供商:Anthropic
- 链接:Claude 4 Opus
- 上下文窗口:120k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 成本:0.375请求/消息
Max模式
- 提供商:Anthropic
- 链接:Claude 4 Opus
- 上下文窗口:200k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 输入成本:450请求/MTok
- 缓存输入成本:45请求/MTok
- 输出成本:2250请求/MTok
Claude 3.7 Sonnet
标准模式
- 提供商:Anthropic
- 链接:Claude 3.7 Sonnet
- 上下文窗口:120k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 特性:功能强大但倾向频繁修改
- 成本:1请求/消息
变体
- 推理:
- 成本:2请求/消息
- 备注:因令牌密集导致请求数增加
Max模式
- 提供商:Anthropic
- 链接:Claude 3.7 Sonnet
- 上下文窗口:200k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 特性:功能强大但倾向频繁修改
- 输入成本:90请求/MTok
- 缓存输入成本:9请求/MTok
- 输出成本:450请求/MTok
Claude 3.5 Sonnet
标准模式
- 提供商:Anthropic
- 链接:Claude 3.5 Sonnet
- 上下文窗口:75k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 特性:全能型,适合多数任务
- 成本:1请求/消息
Max模式
- 提供商:Anthropic
- 链接:Claude 3.5 Sonnet
- 上下文窗口:200k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 特性:全能型,适合多数任务
- 输入成本:90请求/MTok
- 缓存输入成本:9请求/MTok
- 输出成本:450请求/MTok
Gemini 2.5 Pro
标准模式
- 提供商:Google
- 链接:Gemini 2.5 Pro
- 上下文窗口:120k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 特性:谨慎精准
- 成本:1请求/消息
- 备注:价格随令牌数浮动
Max模式
- 提供商:Google
- 链接:Gemini 2.5 Pro
- 上下文窗口:1M
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 特性:谨慎精准
- 输入成本:37.5请求/MTok
- 缓存输入成本:9.3请求/MTok
- 输出成本:300请求/MTok
变体
- 长上下文(>200k):
- 输入成本:75请求/MTok
- 缓存输入成本:18.75请求/MTok
- 输出成本:450请求/MTok
Gemini 2.5 Flash
标准模式
- 提供商:Google
- 链 接:Gemini 2.5 Flash
- 上下文窗口:128k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 成本:0请求/消息
GPT-4o
标准模式
- 提供商:OpenAI
- 链接:GPT-4o
- 上下文窗口:60k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 成本:1请求/消息
Max模式
- 提供商:OpenAI
- 链接:GPT-4o
- 上下文窗口:128k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 输入成本:75请求/MTok
- 缓存输入成本:37.5请求/MTok
- 输出成本:300请求/MTok
GPT 4.1
标准模式
- 提供商:OpenAI
- 链接:GPT 4.1
- 上下文 窗口:128k
- 能力:代理(可使用工具)
- 成本:1请求/消息
Max模式
- 提供商:OpenAI
- 链接:GPT 4.1
- 上下文窗口:1M
- 能力:代理(可使用工具)
- 输入成本:60请求/MTok
- 缓存输入成本:15请求/MTok
- 输出成本:240请求/MTok
o3
标准模式
- 提供商:OpenAI
- 链接:o3
- 上下文窗口:128k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 成本:7.5请求/消息
- 备注:高推理强度
Max模式
- 提供商:OpenAI
- 链接:o3
- 上下文窗口:200k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 输入成本:300请求/MTok
- 缓存输入成本:75请求/MTok
- 输出成本:1200请求/MTok
o4-mini
标准模式
- 提供商:OpenAI
- 链接:o4-mini
- 上下文窗口:128k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 成本:1请求/消息
- 备注:高推理强度
Max模式
- 提供商:OpenAI
- 链接:o4-mini
- 上下文窗口:200k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 输入成本:33请求/MTok
- 缓存输入成本:8.25请求/MTok
- 输出成本:132请求/MTok
Grok 3 Beta
标准模式
- 提供商:xAI
- 链接:Grok 3 Beta
- 上下文窗口:60k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 成本:1请求/消息
Max模式
- 提供商:xAI
- 链接:Grok 3 Beta
- 上下文窗口:132k
- 能力:代理(可使用工具)、推理(使用推理令牌)
- 输入成本:90请求/MTok
- 输出成本:450请求/MTok
Grok 3 Mini
标准模式
- 提供商:xAI
- 链接:Grok 3 Mini
- 上下文窗口:60k
- 能力:代理(可使用工具)
- 成本:0请求/消息
Max模式
- 提供商:xAI
- 链接:Grok 3 Mini
- 上下文窗口:132k
- 能力:代理(可使用工具)
- 输入成本:9请求/MTok
- 缓存输入成本:9请求/MTok
- 输出成本:30请求/MTok
自动选择
启用自动选择后,Cursor将根据当前任务需求和实时可靠性自动选用最优高端模型。该功能可检测输出质量下降并自动切换模型解决。
推荐大多数用户使用
能力
推理
启用推理功能将限定模型列表为具备分步思考能力的推理模型,这些模型能深度检查自身推理过程并修正错误。
此类模型在复杂推理任务中表现更优,但响应时间可能更长。
代理
代理模型可与聊天的代理模式配合使用,擅长执行工具调用。
包含最多25个工具调用的代理提示消耗1次请求。若超过25个工具调用,Cursor将询问是否继续,继续操作将消耗第二次请求。
Max模式
部分模型支持Max模式,专为最复杂的挑战性任务设计。了解Max模式
上下文窗口
上下文窗口指LLM单次处理的最大令牌跨度(文本与代码),包含输入提示和模型输出内容。
Cursor中每个聊天保持独立上下文窗口。会话中的提示、附件和响应越多,上下文窗口越大。
随着聊天进行,Cursor会主动优化上下文窗口,智能裁剪非必要内容,同时保留关键代码和对话要素。
建议采用基于任务的聊天管理方式,每个独立任务开启 新会话。
托管
模型托管在模型提供商、可信合作伙伴或Cursor位于美国的基础设施上。
在设置中启用隐私模式后,Cursor和模型提供商均不会存储数据,所有数据在处理请求后删除。详见隐私、隐私政策和安全页面。
常见问题解答
什么是请求?
请求是发送给模型的消息。
什么是令牌?
令牌是模型可处理的最小文本单位。