支持 100+ 模型 · 实时更新价格

302.AI LLM Token 计算器

即时估算 GPT、Claude、Gemini 及 100+ AI 模型的 API 费用。精准规划您的 AI 预算 — 完全免费,无需注册。

100+
AI 模型
4
支持货币
3
输入模式
免费
无需注册

Token Calculator

OpenAI模型
gpt-5.2-codex Input:1.75 / Output:14
gpt-5.2 Input:1.75 / Output:14
gpt-5.2-chat-latest Input:1.75 / Output:14
gpt-5.1-thinking-plus Input:1.25 / Output:10
gpt-5.1-plus Input:1.25 / Output:10
gpt-5.1-chat-latest Input:1.25 / Output:10
gpt-5.1 Input:1.25 / Output:10
gpt-5-pro Input:15 / Output:120
gpt-5-pro-2025-10-06 Input:15 / Output:120
gpt-5 Input:1.25 / Output:10
gpt-5-mini Input:0.25 / Output:2
gpt-5-nano Input:0.05 / Output:0.4
gpt-5-chat-latest Input:1.25 / Output:10
gpt-5-codex Input:1.25 / Output:10
gpt-5-codex-low Input:1.25 / Output:10
gpt-5-codex-medium Input:1.25 / Output:10
gpt-5-codex-high Input:1.25 / Output:10
gpt-4o-search-preview Input:2.5 / Output:10
gpt-4o-mini-search-preview Input:0.15 / Output:0.6
gpt-4.1 Input:2 / Output:8
gpt-4.1-mini Input:0.4 / Output:1.6
gpt-4.1-nano Input:0.1 / Output:0.4
o4-mini-2025-04-16 Input:1.1 / Output:4.4
o4-mini Input:1.1 / Output:4.4
o3 Input:2 / Output:8
o3-mini Input:1.1 / Output:4.4
o3-mini-2025-01-31 Input:1.1 / Output:4.4
o1-plus Input:0 / Output:0.1
o1-preview Input:15 / Output:60
o1-mini Input:3 / Output:12
gpt-4 Input:30 / Output:60
gpt-4-plus Input:30 / Output:60
gpt-4o-plus Input:5 / Output:15
gpt-4o Input:2.5 / Output:10
gpt-4o-mini-2024-07-18 Input:0.15 / Output:0.6
gpt-4o-2024-05-13 Input:5 / Output:15
gpt-4o-2024-08-06 Input:2.5 / Output:10
gpt-4o-2024-11-20 Input:2.5 / Output:10
chatgpt-4o-latest Input:5 / Output:15
gpt-4o-image-generation Input:0 / Output:0.03
gpt-4-turbo Input:10 / Output:30
gpt-3.5-turbo-0125 Input:0.5 / Output:1.5
Anthropic模型
claude-opus-4-6-thinking Input:5 / Output:25
claude-opus-4-6-thinking Input:10 / Output:37.5
claude-opus-4-6 Input:10 / Output:37.5
claude-opus-4-6 Input:5 / Output:25
claude-opus-4-5-20251101 Input:5 / Output:25
claude-haiku-4-5-20251001 Input:1 / Output:5
claude-sonnet-4-5-20250929 Input:3 / Output:15
claude-sonnet-4-5-20250929 Input:6 / Output:22.5
claude-sonnet-4-5-20250929-thinking Input:3 / Output:15
claude-sonnet-4-5-20250929-thinking Input:6 / Output:22.5
claude-opus-4-1-20250805 Input:15 / Output:75
claude-sonnet-4-20250514 Input:3 / Output:15
claude-opus-4-20250514 Input:15 / Output:75
claude-3-7-sonnet-20250219 Input:3 / Output:15
claude-3-5-sonnet-20241022 Input:3 / Output:15
claude-3-5-sonnet-20240620 Input:3 / Output:15
claude-3-opus-20240229 Input:15 / Output:75
claude-3-5-haiku-20241022 Input:0.8 / Output:4
claude-3-haiku-20240307 Input:0.25 / Output:1.25
Google模型
gemini-3-flash-preview Input:0.5 / Output:3
gemini-3-pro-image-preview Input:2 / Output:120
gemini-3-pro-preview Input:2 / Output:12
gemini-3-pro-preview Input:4 / Output:18
gemini-2.5-flash-image Input:0.3 / Output:30
gemini-2.0-flash-preview-image-generation Input:2 / Output:5
gemini-2.0-pro-exp-02-05 Input:1.25 / Output:5
gemini-2.5-pro-exp-03-25 Input:1.25 / Output:10
gemini-2.5-flash-preview-04-17 Input:0.15 / Output:3.5
gemini-exp-1121 Input:5 / Output:20
gemini-2.0-flash-exp Input:0.2 / Output:0.6
gemini-1.5-pro Input:7 / Output:21
gemini-1.5-pro-0801 Input:3.5 / Output:10.5
gemini-2.5-pro Input:1.25 / Output:10
gemini-2.5-pro Input:2.5 / Output:15
gemini-2.5-flash Input:0.3 / Output:2.5
gemini-2.5-flash-lite Input:0.1 / Output:0.4
国产模型
DeepSeek-R1-0528 Input:0.6 / Output:2.3
deepseek-r1-aliyun Input:0.6 / Output:2.3
deepseek-v3-aliyun Input:0.3 / Output:1.2
deepseek-r1-huoshan-250528 Input:0.6 / Output:2.3
deepseek-r1-huoshan Input:0.6 / Output:2.3
deepseek-v3-huoshan Input:0.3 / Output:1.2
deepseek-r1-baidu Input:0.6 / Output:2.3
deepseek-v3-baidu Input:0.3 / Output:1.2
M2-her Input:0.3 / Output:1.2
MiniMax-M2.1-lightning Input:0.3 / Output:2.4
MiniMax-M2.1 Input:0.3 / Output:1.2
MiniMax-M2 Input:0.33 / Output:1.32
MiniMax-Text-01 Input:0.154 / Output:1.232
qwen3-max-2026-01-23 Input:0.36 / Output:1.43
qwen3-max-2026-01-23 Input:0.572 / Output:2.29
qwen3-max-2026-01-23 Input:1 / Output:4
qwen3-max-preview Input:0.86 / Output:3.43
qwen3-max-preview Input:1.43 / Output:5.72
qwen3-max-preview Input:2.15 / Output:8.58
qwen3-max-2025-09-23 Input:0.86 / Output:3.43
qwen3-max-2025-09-23 Input:1.43 / Output:5.72
qwen3-max-2025-09-23 Input:2.15 / Output:8.58
qwen3-max Input:0.46 / Output:1.83
qwen3-max Input:0.92 / Output:3.66
qwen3-max Input:1.372 / Output:5.49
qwen3-vl-flash Input:0.022 / Output:0.22
qwen3-vl-flash Input:0.043 / Output:0.43
qwen3-vl-flash Input:0.086 / Output:0.86
qwen3-vl-flash-2025-10-15 Input:0.022 / Output:0.22
qwen3-vl-flash-2025-10-15 Input:0.043 / Output:0.43
qwen3-vl-flash-2025-10-15 Input:0.086 / Output:0.86
qwen3-vl-plus Input:0.143 / Output:1.43
qwen3-vl-plus Input:0.2143 / Output:2.143
qwen3-vl-plus Input:0.43 / Output:4.3
qwen3-vl-plus-2025-09-23 Input:0.143 / Output:1.43
qwen3-vl-plus-2025-09-23 Input:0.2143 / Output:2.143
qwen3-vl-plus-2025-09-23 Input:0.43 / Output:4.3
qwen3-vl-plus-2025-12-19 Input:0.143 / Output:1.43
qwen3-vl-plus-2025-12-19 Input:0.2143 / Output:2.143
qwen3-vl-plus-2025-12-19 Input:0.43 / Output:4.3
qwen3-coder-flash-2025-07-28 Input:0.143 / Output:0.58
qwen3-coder-flash-2025-07-28 Input:0.22 / Output:0.86
qwen3-coder-flash-2025-07-28 Input:0.36 / Output:1.43
qwen3-coder-flash-2025-07-28 Input:0.72 / Output:3.58
qwen3-coder-flash Input:0.143 / Output:0.58
qwen3-coder-flash Input:0.22 / Output:0.86
qwen3-coder-flash Input:0.36 / Output:1.43
qwen3-coder-flash Input:0.72 / Output:3.58
qwen3-coder-plus-2025-07-22 Input:0.572 / Output:2.29
qwen3-coder-plus-2025-07-22 Input:0.86 / Output:3.43
qwen3-coder-plus-2025-07-22 Input:1.43 / Output:5.72
qwen3-coder-plus-2025-07-22 Input:2.86 / Output:28.58
qwen3-coder-plus-2025-09-23 Input:0.572 / Output:2.29
qwen3-coder-plus-2025-09-23 Input:0.86 / Output:3.43
qwen3-coder-plus-2025-09-23 Input:1.43 / Output:5.72
qwen3-coder-plus-2025-09-23 Input:2.86 / Output:28.58
qwen3-coder-plus Input:0.572 / Output:2.29
qwen3-coder-plus Input:0.86 / Output:3.43
qwen3-coder-plus Input:1.43 / Output:5.72
qwen3-coder-plus Input:2.86 / Output:28.58
qwen-coder-plus-2024-11-06 Input:0.5 / Output:1
qwen-coder-plus-latest Input:0.5 / Output:1
qwen-coder-plus Input:0.5 / Output:1
qwen-coder-turbo-2024-09-19 Input:0.286 / Output:0.86
qwen-coder-turbo-latest Input:0.286 / Output:0.86
qwen-coder-turbo Input:0.286 / Output:0.86
qwen-vl-ocr Input:0.72 / Output:0.72
qwen-vl-ocr-latest Input:0.043 / Output:0.072
qwen-vl-ocr-2025-11-20 Input:0.043 / Output:0.072
qwen-vl-ocr-2025-08-28 Input:0.72 / Output:0.72
qwen-vl-ocr-2025-04-13 Input:0.72 / Output:0.72
qwen-vl-ocr-2024-10-28 Input:0.72 / Output:0.72
qwen-vl-plus-2024-08-09 Input:0.22 / Output:0.65
qwen-vl-plus-2025-01-02 Input:0.22 / Output:0.65
qwen-vl-plus-2025-01-25 Input:0.22 / Output:0.65
qwen-vl-plus-2025-05-07 Input:0.22 / Output:0.65
qwen-vl-plus-2025-07-10 Input:0.022 / Output:0.22
qwen-vl-plus-2025-08-15 Input:0.12 / Output:0.3
qwen-vl-plus-latest Input:0.12 / Output:0.3
qwen-vl-plus Input:0.12 / Output:0.286
qwen-vl-max Input:0.23 / Output:0.58
qwen-vl-max-latest Input:0.23 / Output:0.572
qwen-vl-max-2025-08-13 Input:0.23 / Output:0.58
qwen-vl-max-2025-04-08 Input:0.43 / Output:1.29
qwen-vl-max-2025-04-02 Input:0.43 / Output:1.29
qwen-vl-max-2025-01-25 Input:0.43 / Output:1.29
qwen-vl-max-2024-12-30 Input:0.43 / Output:1.29
qwen-vl-max-2024-11-19 Input:0.43 / Output:1.29
qwen-vl-max-2024-10-30 Input:2.86 / Output:2.86
qwen-vl-max-2024-08-09 Input:2.86 / Output:2.86
qwen-flash Input:0.022 / Output:0.22
qwen-flash Input:0.086 / Output:0.86
qwen-flash Input:0.172 / Output:1.72
qwen-flash-2025-07-28 Input:0.022 / Output:0.22
qwen-flash-2025-07-28 Input:0.086 / Output:0.86
qwen-flash-2025-07-28 Input:0.172 / Output:1.72
qwen-turbo Input:0.05 / Output:0.43
qwen-turbo-latest Input:0.05 / Output:0.43
qwen-turbo-2025-07-15 Input:0.05 / Output:0.43
qwen-turbo-2025-04-28 Input:0.05 / Output:0.43
qwen-turbo-2025-02-11 Input:0.05 / Output:0.09
qwen-turbo-2024-11-01 Input:0.05 / Output:0.09
qwen-turbo-2024-09-19 Input:0.05 / Output:0.09
qwen-turbo-2024-06-24 Input:0.29 / Output:0.86
qwen-long-2025-01-25 Input:0.072 / Output:0.286
qwen-long-latest Input:0.072 / Output:0.286
qwen-long Input:0.072 / Output:0.286
qwen-plus Input:0.12 / Output:1.2
qwen-plus Input:0.35 / Output:3.5
qwen-plus Input:0.69 / Output:9.15
qwen-plus-latest Input:0.12 / Output:1.2
qwen-plus-latest Input:0.35 / Output:3.5
qwen-plus-latest Input:0.69 / Output:9.15
qwen-plus-2025-12-01 Input:0.12 / Output:1.2
qwen-plus-2025-12-01 Input:0.35 / Output:3.5
qwen-plus-2025-12-01 Input:0.69 / Output:9.15
qwen-plus-2025-09-11 Input:0.12 / Output:1.2
qwen-plus-2025-09-11 Input:0.35 / Output:3.5
qwen-plus-2025-09-11 Input:0.69 / Output:9.15
qwen-plus-2025-07-28 Input:0.12 / Output:1.2
qwen-plus-2025-07-28 Input:0.35 / Output:3.5
qwen-plus-2025-07-28 Input:0.69 / Output:9.15
qwen-plus-2025-07-14 Input:0.12 / Output:1.2
qwen-plus-2025-04-28 Input:0.12 / Output:1.2
qwen-plus-2025-01-25 Input:0.12 / Output:0.286
qwen-plus-2025-01-12 Input:0.12 / Output:0.286
qwen-plus-2024-12-20 Input:0.12 / Output:0.286
qwen-plus-2024-11-27 Input:0.12 / Output:0.286
qwen-plus-2024-11-25 Input:0.12 / Output:0.286
qwen-plus-2024-09-19 Input:0.12 / Output:0.286
qwen-plus-2024-08-06 Input:0.572 / Output:1.72
qwen-plus-2024-07-23 Input:0.572 / Output:1.72
qwen-max-2024-04-03 Input:5.72 / Output:17.143
qwen-max-2024-04-28 Input:5.72 / Output:17.143
qwen-max-2024-09-19 Input:2.86 / Output:8.86
qwen-max-2025-01-25 Input:0.343 / Output:1.372
qwen-max-latest Input:0.343 / Output:1.372
qwen-max Input:0.343 / Output:1.372
qwen-math-turbo Input:0.29 / Output:0.86
qwen-math-plus Input:0.572 / Output:1.72
qwq-plus-2025-03-05 Input:0.23 / Output:0.58
qwq-plus-latest Input:0.23 / Output:0.58
qwq-plus Input:0.23 / Output:0.58
qvq-plus-2025-05-15 Input:0.29 / Output:0.72
qvq-plus-latest Input:0.29 / Output:0.72
qvq-plus Input:0.29 / Output:0.72
qvq-max-2025-03-25 Input:1.15 / Output:4.58
qvq-max-2025-05-15 Input:1.15 / Output:4.58
qvq-max-latest Input:1.15 / Output:4.58
qvq-max Input:1.15 / Output:4.58
glm-5 Input:0.6 / Output:2.6
glm-5 Input:0.6 / Output:2.6
glm-4.7 Input:0.572 / Output:2.29
glm-4.7 Input:0.43 / Output:2
glm-4.7 Input:0.286 / Output:1.142
glm-4.7-flashx Input:0.072 / Output:0.429
glm-4.6v-flash Input:0 / Output:0
glm-4.6v Input:0.145 / Output:0.43
glm-4.6v Input:0.29 / Output:0.86
glm-4.6 Input:0.286 / Output:1.142
glm-4.6 Input:0.43 / Output:2
glm-4.6 Input:0.572 / Output:2.29
glm-4.5 Input:0.286 / Output:1.142
glm-4.5 Input:0.428 / Output:2
glm-4.5 Input:0.5714 / Output:2.29
glm-4.5-x Input:1.142 / Output:2.286
glm-4.5-x Input:1.714 / Output:4.571
glm-4.5-x Input:2.286 / Output:9.143
glm-4.5-air Input:0.114 / Output:0.286
glm-4.5-air Input:0.1143 / Output:0.858
glm-4.5-air Input:0.1715 / Output:1.143
glm-4.5-airx Input:0.572 / Output:1.714
glm-4.5-airx Input:0.5714 / Output:2.286
glm-4.5-airx Input:1.143 / Output:4.57
glm-4.5-flash Input:0 / Output:0
glm-zero-preview Input:1.5 / Output:1.5
glm-4-0520 Input:14 / Output:14
glm-4-long Input:0.14 / Output:0.14
glm-4-plus Input:7 / Output:7
glm-4-air Input:0.07 / Output:0.07
glm-4-airx Input:1.4 / Output:1.4
glm-z1-air Input:0.07 / Output:0.07
glm-z1-airx Input:0.7 / Output:0.7
codegeex-4 Input:0.014 / Output:0.014
glm-4v Input:7 / Output:7
glm-4v-plus Input:1.4 / Output:1.4
Baichuan3-Turbo Input:1.87 / Output:1.87
Baichuan-M2 Input:0.319 / Output:3.19
Baichuan-M2-Plus Input:1.573 / Output:4.719
Baichuan4 Input:15.73 / Output:15.73
kimi-k2.5 Input:0.627 / Output:3.3
kimi-k2-thinking-turbo Input:1.15 / Output:8.29
kimi-k2-thinking Input:0.575 / Output:2.3
kimi-k2-0905-preview Input:0.633 / Output:2.53
kimi-k2-250711 Input:0.633 / Output:2.53
kimi-k2-0905-turbo-preview Input:2.515 / Output:10.057
kimi-k2-turbo-preview Input:1.257 / Output:9.119
kimi-k2-0711-preview Input:0.633 / Output:2.53
kimi-thinking-preview Input:31.46 / Output:31.46
kimi-latest Input:1.573 / Output:4.719
kimi-latest Input:0.792 / Output:3.146
kimi-latest Input:0.315 / Output:1.573
moonshot-v1-8k Input:2.09 / Output:2.09
yi-lightning Input:0.15 / Output:0.15
yi-large Input:3.19 / Output:3.19
yi-vision-v2 Input:0.946 / Output:0.946
step-3.5-flash Input:0.11 / Output:0.33
step-3 Input:0.236 / Output:0.629
step-3 Input:0.2356 / Output:1.2573
step-3 Input:0.6286 / Output:1.572
step-1o-vision-32k Input:2.42 / Output:11
step-1v-8k Input:0.792 / Output:3.146
step-2-16k Input:6.05 / Output:18.7
step-r1-v-mini Input:2.42 / Output:11
ernie-x1.1-preview Input:0.156 / Output:0.627
ernie-5.0-thinking-preview Input:0.946 / Output:1.573
ernie-5.0-thinking-preview Input:1.573 / Output:6.281
ernie-5.0-thinking-latest Input:0.946 / Output:1.573
ernie-5.0-thinking-latest Input:1.573 / Output:6.281
ernie-x1-32k-preview Input:0.33 / Output:1.32
ernie-x1-turbo-32k Input:0.165 / Output:0.66
ernie-4.5-8k-preview Input:0.66 / Output:2.53
ernie-4.5-turbo-128k Input:0.132 / Output:0.55
ernie-4.0-8k Input:5.5 / Output:14.3
ernie-4.0-turbo-8k Input:3.3 / Output:9.46
deepseek-reasoner Input:0.29 / Output:0.43
deepseek-v3.2 Input:0.29 / Output:0.43
deepseek-v3.2-thinking Input:0.29 / Output:0.43
deepseek-v3.2-exp Input:0.29 / Output:0.43
deepseek-v3.2-exp-thinking Input:0.29 / Output:0.43
deepseek-vl2 Input:0.165 / Output:0.165
deepseek-chat Input:0.29 / Output:0.43
deepseek-v3-0324 Input:0.55 / Output:1.32
doubao-seed-1-8-251215 Input:0.1143 / Output:0.286
doubao-seed-1-8-251215 Input:0.1143 / Output:1.143
doubao-seed-1-8-251215 Input:0.1715 / Output:2.286
doubao-seed-1-8-251215 Input:0.343 / Output:3.43
doubao-seed-code-preview-251028 Input:0.1715 / Output:1.1429
doubao-seed-code-preview-251028 Input:0.2 / Output:1.7143
doubao-seed-code-preview-251028 Input:0.4 / Output:2.2858
doubao-seed-1-6-vision-250815 Input:0.1143 / Output:1.143
doubao-seed-1-6-vision-250815 Input:0.1715 / Output:2.286
doubao-seed-1-6-vision-250815 Input:0.343 / Output:3.43
doubao-1.5-ui-tars-250328 Input:0.5 / Output:1.7
Doubao-1.5-vision-pro-32k Input:0.43 / Output:1.3
Doubao-vision-pro-32k Input:3 / Output:3
Doubao-Vision-Lite-32k Input:1.5 / Output:1.5
Doubao-1.5-pro-256k Input:0.88 / Output:1.43
Doubao-1.5-pro-32k Input:0.132 / Output:0.319
Doubao-pro-32k Input:0.12 / Output:0.31
doubao-1-5-thinking-pro-250415 Input:0.6 / Output:2.3
doubao-1-5-thinking-vision-pro-250428 Input:0.55 / Output:1.43
doubao-seededit Input:0 / Output:0.05
generalv3.5 Input:4.73 / Output:4.73
SenseNova-V6-Pro Input:0.55 / Output:1.43
SenseNova-V6-Turbo Input:0.275 / Output:0.715
SenseNova-V6-Reasoner Input:0.66 / Output:2.53
SenseChat-5 Input:6.6 / Output:15.4
SenseChat-Turbo Input:0.33 / Output:0.77
abab7-chat-preview Input:1.54 / Output:1.54
abab6.5s-chat Input:0.154 / Output:0.154
hunyuan-turbos-20250226 Input:0.132 / Output:0.33
hunyuan-lite Input:0.11 / Output:0.11
hunyuan-standard Input:0.704 / Output:0.792
hunyuan-pro Input:4.73 / Output:15.73
hunyuan-code Input:0.627 / Output:1.254
hunyuan-vision Input:28.6 / Output:28.6
hunyuan-t1-latest Input:0.165 / Output:0.66
doubao-seed-1-6-250615 Input:0.121 / Output:0.33
doubao-seed-1-6-250615 Input:0.19 / Output:2.53
doubao-seed-1-6-250615 Input:0.187 / Output:2.5
doubao-seed-1-6-250615 Input:0.37 / Output:3.7
doubao-seed-1-6-thinking-250615 Input:0.121 / Output:1.21
doubao-seed-1-6-thinking-250615 Input:0.19 / Output:2.53
doubao-seed-1-6-thinking-250615 Input:0.37 / Output:3.7
doubao-seed-1-6-flash-250615 Input:0.023 / Output:0.231
doubao-seed-1-6-flash-250615 Input:0.047 / Output:0.47
doubao-seed-1-6-flash-250615 Input:0.095 / Output:0.95
MiniMax-M1 Input:0.132 / Output:1.254
doubao-1.5-vision-pro-250328 Input:0.43 / Output:1.29
doubao-1.5-vision-lite-250315 Input:0.21 / Output:0.64
glm-4.1v-thinking-flash Input:0 / Output:0
glm-4.1v-thinking-flashx Input:0.3 / Output:0.3
KAT-Coder-Air-V1 Input:0 / Output:0
KAT-Coder-Exp-72B-1010 Input:0 / Output:0
KAT-Coder-Pro-V1 Input:0.57 / Output:2.28
KAT-Coder-Pro-V1 Input:0.86 / Output:3.43
KAT-Coder-Pro-V1 Input:1.43 / Output:5.715
硅基流动
ascend-tribe/pangu-pro-moe Input:0.143 / Output:0.572
deepseek-ai/DeepSeek-R1-0528-Qwen3-8B Input:0 / Output:0
THUDM/GLM-4.1V-9B-Thinking Input:0 / Output:0
Qwen/Qwen3-30B-A3B-Instruct-2507 Input:0.1 / Output:0.4
Qwen/Qwen3-30B-A3B-Thinking-2507 Input:0.1 / Output:0.4
tencent/Hunyuan-MT-7B Input:0 / Output:0
Qwen/Qwen3-VL-8B-Thinking Input:0.072 / Output:0.715
Qwen/Qwen3-VL-32B-Thinking Input:0.143 / Output:1.429
Qwen/Qwen3-VL-32B-Instruct Input:0.143 / Output:0.572
Kwaipilot/KAT-Dev Input:0.143 / Output:0.572
Pro/moonshotai/Kimi-K2-Thinking Input:0.572 / Output:2.286
Pro/deepseek-ai/DeepSeek-V3.2 Input:0.286 / Output:0.429
deepseek-ai/DeepSeek-V3.2 Input:0.286 / Output:0.429
Pro/zai-org/GLM-4.7 Input:0.572 / Output:2.286
Pro/moonshotai/Kimi-K2-Instruct-0905 Input:0.572 / Output:2.286
ByteDance-Seed/Seed-OSS-36B-Instruct Input:0.214 / Output:0.572
deepseek-ai/DeepSeek-OCR Input:0 / Output:0
Pro/deepseek-ai/DeepSeek-V3.1 Input:0.572 / Output:1.715
deepseek-ai/DeepSeek-R1 Input:0.6 / Output:2.3
deepseek-ai/DeepSeek-V3 Input:0.3 / Output:1.2
deepseek-ai/DeepSeek-R1-Distill-Qwen-14B Input:0.1 / Output:0.1
deepseek-ai/DeepSeek-R1-Distill-Qwen-32B Input:0.18 / Output:0.18
deepseek-ai/DeepSeek-R1-Distill-Qwen-7B Input:0 / Output:0
deepseek-ai/DeepSeek-V2.5 Input:0.15 / Output:0.3
Qwen/Qwen2-7B-Instruct Input:0.16 / Output:0.22
deepseek-ai/deepseek-vl2 Input:0.142 / Output:0.142
Qwen/Qwen2.5-Coder-32B-Instruct Input:0.18 / Output:0.18
Qwen/Qwen2-VL-72B-Instruct Input:0.59 / Output:0.59
Qwen/Qwen2.5-72B-Instruct-128K Input:0.59 / Output:0.59
Qwen/Qwen2.5-32B-Instruct Input:0.18 / Output:0.18
Qwen/Qwen2.5-14B-Instruct Input:0.1 / Output:0.1
Qwen/Qwen2.5-7B-Instruct Input:0 / Output:0
Qwen/Qwen2.5-Coder-7B-Instruct Input:0 / Output:0
internlm/internlm2_5-7b-chat Input:0 / Output:0
THUDM/glm-4-9b-chat Input:0 / Output:0
Pro/Qwen/Qwen2.5-Coder-7B-Instruct Input:0.05 / Output:0.05
Pro/Qwen/Qwen2.5-7B-Instruct Input:0.05 / Output:0.05
Pro/Qwen/Qwen2-7B-Instruct Input:0.05 / Output:0.05
Pro/THUDM/glm-4-9b-chat Input:0.086 / Output:0.086
Qwen/Qwen3-32B Input:0.14 / Output:0.6
Qwen/Qwen3-14B Input:0.07 / Output:0.3
Qwen/Qwen3-8B Input:0 / Output:0
Qwen/Qwen2.5-VL-32B-Instruct Input:0.3 / Output:0.3
Pro/Qwen/Qwen2.5-VL-7B-Instruct Input:0.05 / Output:0.05
baidu/ERNIE-4.5-300B-A47B Input:0.3 / Output:1.14
tencent/Hunyuan-A13B-Instruct Input:0.14 / Output:0.6
Pro/moonshotai/Kimi-K2-Instruct Input:0.57 / Output:2.29
Qwen/Qwen3-235B-A22B-Thinking-2507 Input:0.36 / Output:1.43
Qwen/Qwen3-235B-A22B-Instruct-2507 Input:0.36 / Output:1.43
Qwen/Qwen3-Coder-30B-A3B-Instruct Input:0.1 / Output:0.4
PPIO
qwen/qwen3-vl-8b-instruct Input:0.072 / Output:0.286
qwen/qwen3-coder-next Input:0.2 / Output:1.5
qwen/qwen3-coder-480b-a35b-instruct Input:2.14 / Output:2.14
deepseek/deepseek-ocr-2 Input:0.031 / Output:0.031
deepseek/deepseek-v3.2 Input:0.286 / Output:0.429
deepseek/deepseek-r1-0528 Input:0.6 / Output:2.3
deepseek/deepseek-v3-0324 Input:0.3 / Output:1.2
qwen/qwen3-235b-a22b-fp8 Input:0.2 / Output:0.8
qwen/qwen3-30b-a3b-fp8 Input:0.1 / Output:0.5
qwen/qwen3-32b-fp8 Input:0.1 / Output:0.5
deepseek/deepseek-prover-v2-671b Input:0.6 / Output:2.3
deepseek/deepseek-r1-turbo Input:0.6 / Output:2.3
deepseek/deepseek-v3-turbo Input:0.3 / Output:1.1
meta-llama/llama-4-maverick-17b-128e-instruct-fp8 Input:0.2 / Output:0.9
deepseek/deepseek-v3/community Input:0.3 / Output:1
deepseek/deepseek-r1/community Input:0.6 / Output:2
deepseek/deepseek-r1-distill-llama-70b Input:0.8 / Output:0.8
qwen/qwen-2.5-72b-instruct Input:0.4 / Output:0.4
qwen/qwen2.5-vl-72b-instruct Input:0.6 / Output:0.6
baichuan/baichuan2-13b-chat Input:0.3 / Output:0.3
meta-llama/llama-3.1-8b-instruct Input:0.06 / Output:0.06
meta-llama/llama-3.2-3b-instruct Input:0 / Output:0
qwen/qwen3-4b-fp8 Input:0 / Output:0
moonshotai/kimi-k2.5 Input:0.572 / Output:3
moonshotai/kimi-k2-thinking Input:0.572 / Output:2.286
moonshotai/kimi-k2-0905 Input:0.572 / Output:2.286
moonshotai/kimi-k2-instruct Input:0.57 / Output:2.29
minimax/minimax-m2.1 Input:0.3 / Output:1.2
minimax/minimax-m2 Input:0.3 / Output:1.2
baidu/ernie-4.5-300b-a47b-paddle Input:0.286 / Output:1
baidu/ernie-4.5-vl-28b-a3b Input:0.143 / Output:0.572
baidu/ernie-4.5-21B-a3b Input:0.072 / Output:0.286
baidu/ernie-4.5-21b-a3b-thinking Input:0.072 / Output:0.286
baidu/ernie-4.5-0.3b Input:0 / Output:0
baidu/ernie-4.5-vl-424b-a47b Input:0.429 / Output:1.29
zai-org/glm-4.7-flash Input:0.072 / Output:0.429
zai-org/glm-4.7 Input:0.572 / Output:2.286
zai-org/glm-4.6v Input:0.143 / Output:0.429
zai-org/glm-4.6v Input:0.286 / Output:0.858
zai-org/glm-4.6 Input:0.57 / Output:2.286
xiaomimimo/mimo-v2-flash Input:0.1 / Output:0.3
zai-org/autoglm-phone-9b-multilingual Input:0.036 / Output:0.143
kat-coder Input:0.3 / Output:1.2
SophNet
sophnet/DeepSeek-V3.2-Fast Input:2.286 / Output:6.858
sophnet/DeepSeek-V3.2-Fast Input:1.715 / Output:5.143
sophnet/DeepSeek-V3.2-Fast Input:1.143 / Output:3.429
sophnet/DeepSeek-V3.2 Input:0.286 / Output:0.429
sophnet/DeepSeek-Math-V2 Input:0.572 / Output:2.286
sophnet/DeepSeek-V3.1-Fast Input:1.143 / Output:3.429
sophnet/DeepSeek-V3.1 Input:0.572 / Output:1.714
sophnet/Qwen3-30B-A3B-Instruct-2507 Input:0.1 / Output:0.4
sophnet/Qwen3-30B-A3B-Thinking-2507 Input:0.1 / Output:0.4
sophnet/Seed-OSS-36B-Instruct Input:0.171 / Output:1.715
sophnet/LongCat-Flash-Thinking Input:0.143 / Output:1.429
sophnet/LongCat-Flash-Chat Input:0.143 / Output:0.714
sophnet/Kimi-K2-0905 Input:0.572 / Output:2.286
sophnet/DeepSeek-R1-0528 Input:0.57 / Output:2.29
sophnet/DeepSeek-R1 Input:0.57 / Output:2.29
sophnet/DeepSeek-V3-0324 Input:0.286 / Output:1.143
sophnet/DeepSeek-V3-Fast Input:0.571 / Output:2.28
sophnet/DeepSeek-v3 Input:0.29 / Output:1.14
sophnet/DeepSeek-Prover-V2 Input:0.57 / Output:2.29
sophnet/Qwen3-14B Input:0.07 / Output:0.29
sophnet/Qwen3-235B-A22B Input:0.57 / Output:1.71
sophnet/QwQ-32B Input:0.29 / Output:0.86
sophnet/Qwen2.5-72B-Instruct Input:0.57 / Output:1.71
sophnet/Qwen2.5-32B-Instruct Input:0.29 / Output:0.86
sophnet/Qwen2.5-7B-Instruct Input:0.07 / Output:0.14
sophnet/DeepSeek-R1-Distill-Llama-70B Input:0.14 / Output:0.43
sophnet/DeepSeek-R1-Distill-Qwen-32B Input:0.29 / Output:0.86
sophnet/DeepSeek-R1-Distill-Qwen-7B Input:0.07 / Output:0.14
sophnet/Qwen2.5-VL-72B-Instruct Input:2.29 / Output:6.86
sophnet/Qwen2.5-VL-32B-Instruct Input:1.14 / Output:3.43
sophnet/Qwen2.5-VL-7B-Instruct Input:0.29 / Output:0.86
sophnet/Qwen2-VL-72B-Instruct Input:2.29 / Output:6.86
sophnet/Qwen2-VL-7B-Instruct Input:0.29 / Output:0.71
sophnet/Kimi-K2-Thinking Input:0.572 / Output:2.286
sophnet/Kimi-K2 Input:0.57 / Output:2.29
sophnet/Qwen3-Coder Input:2.2 / Output:8.6
sophnet/Qwen3-Coder Input:1.29 / Output:5.2
sophnet/Qwen3-Coder Input:0.86 / Output:3.43
sophnet/Qwen3-32B Input:0.143 / Output:0.572
sophnet/Qwen3-235B-A22B-Instruct-2507 Input:0.286 / Output:1.14
sophnet/Qwen3-Next-80B-A3B-Instruct Input:0.143 / Output:0.572
sophnet/Qwen3-Next-80B-A3B-Thinking Input:0.143 / Output:1.43
sophnet/MiMo-V2-Flash Input:0.1 / Output:0.3
sophnet/MiniMax-M2.1 Input:0.3 / Output:1.2
sophnet/MiniMax-M2 Input:0.3 / Output:1.2
sophnet/GLM-4.6V Input:0.286 / Output:0.858
sophnet/GLM-4.6V Input:0.143 / Output:0.429
sophnet/GLM-4.7 Input:0.572 / Output:2.286
sophnet/GLM-4.7 Input:0.429 / Output:2
sophnet/GLM-4.7 Input:0.286 / Output:1.143
sophnet/GLM-4.5 Input:0.286 / Output:1.14
专业模型
Baichuan-M3 Input:1.573 / Output:4.719
zzkj Input:18.7 / Output:75.9
farui-plus Input:2.9 / Output:2.9
qwen2.5-math-1.5b-instruct Input:0 / Output:0
qwen2.5-math-7b-instruct Input:0.143 / Output:0.286
qwen2.5-math-72b-instruct Input:0.572 / Output:1.72
sonar-deep-research Input:2.2 / Output:8.8
sonar-reasoning-pro Input:2.2 / Output:8.8
sonar-reasoning Input:2.2 / Output:8.8
sonar-pro Input:3.3 / Output:16.5
sonar Input:1.1 / Output:1.1
pplx-405b-online Input:5.5 / Output:5.5
开源模型
LongCat-Flash-Chat Input:0.2 / Output:1
gpt-oss-120b Input:0.2 / Output:1
gpt-oss-20b Input:0.1 / Output:0.5
Phi-4-reasoning Input:1 / Output:2
Phi-4-mini-reasoning Input:0.1 / Output:0.5
devstral-small-2505 Input:0.11 / Output:0.33
MAI-DS-R1 Input:0.66 / Output:2.53
deepseek-ai/DeepSeek-Prover-V2-671B Input:0.15 / Output:0.6
qwen3-next-80b-a3b-instruct Input:0.143 / Output:0.572
qwen3-coder-480b-a35b-instruct Input:2.15 / Output:8.58
qwen3-coder-480b-a35b-instruct Input:1.29 / Output:5.15
qwen3-coder-480b-a35b-instruct Input:0.86 / Output:3.43
qwen3-coder-30b-a3b-instruct Input:0.54 / Output:2.143
qwen3-coder-30b-a3b-instruct Input:0.322 / Output:1.29
qwen3-coder-30b-a3b-instruct Input:0.22 / Output:0.86
qwen3-235b-a22b-thinking-2507 Input:0.286 / Output:2.86
qwen3-235b-a22b-instruct-2507 Input:0.29 / Output:1.143
qwen3-30b-a3b-thinking-2507 Input:0.11 / Output:1.1
qwen3-30b-a3b-instruct-2507 Input:0.11 / Output:0.43
qwen3-vl-30b-a3b-instruct Input:0.11 / Output:0.43
qwen3-vl-30b-a3b-thinking Input:0.11 / Output:1.1
qwen3-vl-235b-a22b-instruct Input:0.286 / Output:1.143
qwen3-vl-235b-a22b-thinking Input:0.286 / Output:2.86
qwen3-vl-32b-instruct Input:0.29 / Output:1.143
qwen3-vl-32b-thinking Input:0.29 / Output:2.86
qwen3-235b-a22b Input:0.29 / Output:2.86
qwen3-32b Input:0.29 / Output:2.86
qwen3-30b-a3b Input:0.11 / Output:1.08
qwen3-14b Input:0.143 / Output:1.43
qwen3-8b Input:0.072 / Output:0.72
qwen3-4b Input:0.05 / Output:0.5
qwen3-1.7b Input:0.05 / Output:0.5
qwen3-0.6b Input:0.05 / Output:0.5
qwen2.5-vl-72b-instruct Input:2.3 / Output:6.9
qwen2.5-vl-7b-instruct Input:0.3 / Output:0.8
qwen2.5-vl-3b-instruct Input:0.2 / Output:0.6
qwen2.5-omni-7b Input:2.3 / Output:6.9
QVQ-72B-Preview Input:1.72 / Output:5.143
qwq-32b-preview Input:0.29 / Output:0.86
qwq-32b Input:0.29 / Output:0.86
qwen2-7b-instruct Input:0.143 / Output:0.29
qwen2-0.5b-instruct Input:0 / Output:0
qwen2-1.5b-instruct Input:0 / Output:0
qwen2-vl-72b-instruct Input:2.29 / Output:6.86
qwen2-vl-2b-instruct Input:0 / Output:0
qwen2-57b-a14b-instruct Input:0.5 / Output:1
mistral-large-2512 Input:1.1 / Output:3.3
ministral-3b-2512 Input:0.33 / Output:0.33
ministral-8b-2512 Input:0.33 / Output:0.33
ministral-14b-2512 Input:0.33 / Output:0.33
devstral-2512 Input:1.1 / Output:3.3
pixtral-large-2411 Input:2.2 / Output:6.6
mistral-large-2411 Input:2.2 / Output:6.6
llama-4-maverick Input:1 / Output:1
llama-4-scout Input:0.5 / Output:0.5
llama3.3-70b Input:0.9 / Output:0.9
llama3.2-90b Input:2 / Output:2
llama3.2-11b Input:0.5 / Output:0.5
qwen2.5-72b-instruct Input:0.58 / Output:1.72
qwen2.5-vl-32b-instruct Input:1.2 / Output:3.5
llama3.1-405b Input:5 / Output:5
llama3.1-70b Input:1.5 / Output:1.5
llama3.1-8b Input:0.5 / Output:0.5
qwen2.5-coder-32b-instruct Input:0.29 / Output:0.86
qwen2.5-coder-14b-instruct Input:0.286 / Output:0.86
qwen2.5-coder-7b-instruct Input:0.143 / Output:0.29
qwen2.5-coder-3b-instruct Input:0 / Output:0
qwen2.5-coder-1.5b-instruct Input:0 / Output:0
qwen2.5-coder-0.5b-instruct Input:0 / Output:0
mistral-large-2 Input:5 / Output:10
command-r-plus Input:3 / Output:15
command-r Input:1 / Output:3
其他模型
grok-4-1-fast-non-reasoning Input:0.2 / Output:0.5
grok-4-1-fast-reasoning Input:0.2 / Output:0.5
grok-4-fast-non-reasoning Input:0.2 / Output:0.5
grok-4-fast-reasoning Input:0.2 / Output:0.5
mistral-medium-latest Input:0.44 / Output:6.6
grok-4 Input:3 / Output:15
grok-4 Input:3 / Output:15
grok-4 Input:6 / Output:30
grok-3 Input:3 / Output:15
grok-3-reasoner Input:2 / Output:10
grok-3-deepsearch Input:2 / Output:10
grok-3-beta Input:3 / Output:15
grok-3-fast-beta Input:5 / Output:25
grok-3-mini-beta Input:0.3 / Output:0.5
grok-3-mini-fast-beta Input:0.6 / Output:4
grok-2-vision-1212 Input:2 / Output:10
grok-2-1212 Input:2 / Output:10
grok-vision-beta Input:5 / Output:15
grok-beta Input:5 / Output:15
nova-micro Input:0.035 / Output:0.14
nova-lite Input:0.06 / Output:0.24
nova-pro Input:0.8 / Output:3.2
v0-1.5-md Input:3.3 / Output:16.5
v0-1.5-lg Input:16.5 / Output:82.5
v0-1.0-md Input:3.3 / Output:16.5
unifuncs-deepresearch Input:1.2 / Output:1.2
对比其他模型
预估费用
知识库

了解 LLM Token 与费用

帮助您有效规划 AI API 用量预算所需了解的全部知识。

什么是 Token?

Token 是 LLM 处理文本的最小单位。在英文中,1 token ≈ 4 个字符,约为 ¾ 个单词。"Hello world!" 大约是 3 个 token。Token 不等同于单词,标点符号和空格也会消耗 Token。

中文与英文的 Token 差异

中文字符密度更高。每个中文字符通常使用 1–2 个 token,而 1 个英文单词平均约 1.3 个 token。这意味着中文文本在每个语义单位上通常比英文更节省 token。

输入与输出费用

大多数服务商对输入和输出 token 分别计费。输出 token 通常比输入 token 贵 2–4 倍,因为文本生成在计算上比读取更耗资源。预算时两者都需考虑。

上下文窗口

上下文窗口是模型在单次请求中能处理的 token 总数(输入 + 输出)。更大的窗口(如 128K、1M)支持更长的文档,但若充分利用,每次调用的费用也更高。

LLM API 费用如何计算?

LLM API 费用 = (输入 Token × 输入价格 + 输出 Token × 输出价格) ÷ 1,000,000。输入和输出 Token 分别计费,输出 Token 通常贵 2–4 倍,因为文本生成在计算上更耗资源。

选择合适的模型

并非每项任务都需要最顶尖的模型。对于分类、摘要或简单问答,小型模型在质量相当的情况下成本低 10–50 倍。根据任务复杂度匹配模型能力。

📊 Word-to-Token 转换指南

不同类型内容的 Token 估算各有差异,使用本指南更精准预测您的 Token 用量。

内容类型Token 比率1,000 词估算说明
🇺🇸 英文文本~1.3 tokens/word≈ 1,300–1,500标准散文、文章、邮件
💻 代码(Python/JS)~2–3 tokens/word≈ 2,000–3,000关键字、运算符、符号都会增加 Token
🀄 中文 / 日文~2+ tokens/char≈ 2,000+每个中日文字符消耗 1–2 个 Token
📝 技术写作~1.5 tokens/word≈ 1,500–1,800专业术语、缩写、数字会增加 Token 数
🗃️ JSON / XML 数据~3–4 tokens/word≈ 3,000–4,000括号、引号、键名均消耗 Token
FAQ

常见问题

关于 LLM API Token 和费用计算的常见问题。

Token 是语言模型处理文本的基本单位。在英文中,1 个 token 大约等于 4 个字符或 ¾ 个单词。例如,"ChatGPT is great!" 大约包含 6 个 token。中文字符通常每个占用 1–2 个 token。大多数 LLM 提供商按每次 API 调用中处理的输入和输出 token 总量收费。
LLM API 费用遵循以下公式:

总费用 = (输入 Token ÷ 1,000,000 × 输入价格) + (输出 Token ÷ 1,000,000 × 输出价格)

输入 token 是您的提示词(指令 + 上下文),输出 token 是模型生成的响应。输出 token 的价格通常比输入高 2–4 倍。302.AI Token 计算器会针对每个所选模型自动完成计算。
302.AI Token 计算器支持 100+ 个模型,包括:
  • OpenAI:GPT-4o、GPT-4o mini、GPT-4 Turbo、o1、o3
  • Anthropic:Claude 3.5 Sonnet、Claude 3 Opus、Claude 3 Haiku
  • Google:Gemini 1.5 Pro、Gemini 1.5 Flash、Gemini 2.0
  • Meta:LLaMA 3.1(8B、70B、405B)
  • Mistral AI:Mistral Large、Mistral Medium、Codestral
  • 以及通过 302.AI 统一 API 接入的更多模型
计算器支持四种货币:
  • USD — 美元(默认)
  • CNY — 人民币
  • JPY — 日元(日本円)
  • RUB — 卢布(Российский рубль)
汇率会定期更新。实际计费时,最终金额以 API 调用时 302.AI 当前汇率为准。
输入 token 是您发送给模型的所有内容:系统提示词、对话历史、用户消息以及任何注入的上下文(如 RAG 文档等)。

输出 token 是模型在响应中生成的 token。由于文本生成在计算上比处理输入更耗资源,输出 token 通常每个 token 费用为输入的 2–4 倍

对于拥有长对话历史的聊天机器人,由于每轮对话都需要重新发送完整上下文,输入 token 会迅速累积。
302.AI 通过单一统一 API 提供 100+ 个模型的访问权限,定价与直接提供商价格持平或更优。额外优势包括:
  • 按需付费,无月度最低消费
  • 无需为每个模型提供商单独开户
  • 所有模型统一 API 格式(兼容 OpenAI)
  • 可访问在您所在地区无法直接使用的模型
  • 内置用量面板和费用追踪
可以。对于 RAG 工作负载,您的输入 token 包括:
  • 系统提示词(通常 200–500 个 token)
  • 检索到的文档片段(每次查询通常 1K–10K 个 token)
  • 用户问题(50–200 个 token)
输入总估算的输入 token(系统 + 上下文 + 查询),以及预期的输出长度。对于批量文档处理,将其乘以预期的查询次数即可。
Token 计算器完全免费使用,无需账号。它是一个规划工具,帮助开发者和团队在构建前估算 API 费用。

当您准备好开始使用 API 时,可以免费注册 302.AI,即可按需付费访问所有支持的模型。

准备好使用 302.AI API 了吗?

一个账号即可访问 100+ AI 模型。按需付费,无月度承诺,无供应商锁定。

无月费
100+ 模型统一接入
OpenAI 兼容 API
即时激活