模型与定价
Cursor 提供多种模型选择,包括最新的前沿 AI 模型。
定价
所有模型的使用都以“请求数”计费。Pro 计划每月包含 500 次请求。Cursor 提供两种使用模式:
请求(Request)
一次请求代表向模型发送的一条消息,包括你的输入、代码库的相关上下文以及模型的回复。
- 每次请求费用为 $0.04
慢速请求(Slow requests)
当你的普通请求用完后,会自动启用慢速请求。这些请求优先级较低,处理速度较慢,可能会有更长的等待时间。
慢速请求不适用于 Max 模式。
普通模式(Normal mode)
在普通模式下,每条消息的费用仅取决于所用模型,与上下文无关。我们会优化上下文管理,不会影响你的请求计数。
例如,使用 Claude 3.5 Sonnet 进行对话时,每条消息消耗 1 次请求:
角色 | 消息内容 | 每条消息费用 |
---|---|---|
用户 | 为此更改创建一个方案(使用更昂贵的模型) | 1 |
Cursor | 我会分析需求并创建详细的实现方案…… | 0 |
用户 | 用 TypeScript 实现更改并添加错误处理 | 1 |
Cursor | 这是带有类型安全和错误处理的实现…… | 0 |
总计 | 2 次请求 |
Max 模式
在 Max 模式下,定价基于 token 数量计算,Cursor 收取模型提供商 API 价格加 20% 利润。计费包括你发送的消息、代码文件、文件夹、工具调用以及提供给模型的所有其他上下文所消耗的所有 token。
我们使用与模型提供商相同的分词器(例如 GPT 模型用 OpenAI 的分词器,Claude 模型用 Anthropic 的分词器),以确保 token 计数的准确性。你可以参考 OpenAI 的分词器演示来查看示例。
以下是 Max 模式下定价的一个示例:
角色 | 消息内容 | Token 数 | 备注 | 每条消息费用 |
---|---|---|---|---|
用户 | 为此更改创建一个方案(使用更昂贵的模型) | 135k | 无缓存输入 token | 2.7 次请求 |
Cursor | 我会分析需求并创建详细的实现方案…… | 82k | 1.23 次请求 | |
用户 | 用 TypeScript 实现更改并添加错误处理 | 135k | 大部分输入 token 已缓存 | 2.7 次请求 |
Cursor | 这是带有类型安全和错误处理的实现…… | 82k | 1.23 次请求 | |
总计 | 434k | 7.86 次请求 |
模型
名称 | 上下文长度 | 能力说明 |
---|---|---|
claude-3.7-sonnet | 200k | Agent T M |
claude-3.5-sonnet | 200k | Agent T M |
Google Gemini 2.5 Pro | 1M | Agent T M |
OpenAI GPT 4.1 | 1M | Agent T M |
OpenAI GPT-4o | 128k | Agent T M |
OpenAI o3 | 200k | Agent T M |
xAI Grok 3 Beta | 132k | Agent T M |
xAI Grok 3 Mini Beta | 132k | Agent M |
OpenAI o4-mini | 200k | M |
Anthropic Claude 3 Opus | - | |
Anthropic Claude 3.5 Haiku | 200k | |
Cursor Cursor Small | - | |
DeepSeek Deepseek R1 | - | |
DeepSeek Deepseek V3 | - | |
Google Gemini 2.0 Pro (exp) | 60k | |
Google Gemini 2.5 Flash | 128k | |
OpenAI GPT 4.5 Preview | 60k | |
OpenAI GPT-4o mini | 60k | |
xAI Grok 2 | 60k | |
OpenAI o1 | 200k | |
OpenAI o1 Mini | 128k | |
OpenAI o3-mini | 200k |
每 100 万 token(MTok)对应的请求成本(由模型提供商决定)
名称 | 输入 (MTok) | 缓存输入 (MTok) | 输出 (MTok) |
---|---|---|---|
Anthropic Claude 3.5 Sonnet | 90 | 9 | 450 |
Anthropic Claude 3.7 Sonnet | 90 | 9 | 450 |
Google Gemini 2.5 Pro | 37.5 | 9.3 | 300 |
Google Gemini 2.5 Pro(长上下文 >200k) | 75 | 18.75 | 450 |
OpenAI GPT 4.1 | 60 | 15 | 240 |
OpenAI GPT-4o | 75 | 37.5 | 300 |
xAI Grok 3 Beta | 90 | 450 | |
xAI Grok 3 Mini Beta | 9 | 9 | 30 |
OpenAI o3 | 300 | 75 | 1200 |
OpenAI o4-mini | 33 | 8.25 | 132 |
Anthropic Claude 3 Opus | |||
Anthropic Claude 3.5 Haiku | |||
Cursor Cursor Small | |||
DeepSeek Deepseek R1 | |||
DeepSeek Deepseek V3 | |||
Google Gemini 2.0 Pro (exp) | |||
Google Gemini 2.5 Flash | |||
OpenAI GPT 4.5 Preview | |||
OpenAI GPT-4o mini | |||
xAI Grok 2 | |||
OpenAI o1 | |||
OpenAI o1 Mini | |||
OpenAI o3-mini |
自动选择
启用自动选择后,Cursor 会根据当前任务和需求,自动选择最适合且可靠性最高的高级模型。该功能能够检测到输出性能下降的情况,并自动切换模型以解决问题。
推荐大多数用户使用

能力说明
思考(Thinking)
启用 Thinking 后,模型列表将仅限于具备推理能力的模型,这些模型能够逐步思考问题,并具备更强的自我检查和纠错能力。
这些模型在处理复杂推理任务时通常表现更好,但生成回复可能需要更长时间。
Agentic
Agentic 模型可用于 Chat 的 Agent 模式。这类模型非常擅长调用工具,并且在 Agent 模式下表现最佳。
提交包含最多 25 次工具调用的 Agent 请求会消耗一次请求。如果请求超过 25 次工具调用,Cursor 会询问你是否继续,继续则会消耗第二次请求。
Max 模式
部分模型支持 Max 模式,专为最复杂和最具挑战性的任务设计。了解更多关于 Max 模式 的信息。
上下文窗口(Context windows)
上下文窗口是指大语言模型(LLM)一次能处理的最大 token(文本和代码)范围,包括输入提示和模型生成的输出。
Cursor 中的每个聊天会话都有自己的上下文窗口。会话中包含的提示、附加文件和回复越多,所需的上下文窗口就越大。
Cursor 会在会话过程中主动优化上下文窗口,智能地剔除非必要内容,同时保留关键代码和对话内容。
为了获得最佳效果,建议你以任务为单位管理聊天,每个独立任务开启一个新会话。
托管(Hosting)
模型由模型提供商、可信合作伙伴或 Cursor 在美国本地基础设施上托管。
当你在设置中启用隐私模式时,Cursor 和模型提供商都不会存储你的数据,所有数据会在每次请求处理后被删除。详情请参阅我们的隐私、隐私政策和安全页面。
常见问题
什么是请求?
请求是你发送给模型的消息。
什么是 token?
token 是模型可以处理的最小文本单元。