完整的模型列表和参考价格已迁移到 支持模型 页面。
计费项目
| 计费项 | 说明 | 成本 |
|---|---|---|
| 输入 | 你发给模型的内容(prompt) | 基准价 |
| 输出 | 模型生成的内容 | 输入的 3-5 倍 |
| 缓存写入 | 首次缓存 prompt | 输入的 1.25 倍 |
| 缓存读取 | 命中缓存 | 输入的 0.1 倍 |
如何省钱
- 选对模型 — 简单任务用便宜模型(DeepSeek-V3.2、GLM-5.1),复杂任务才用贵的
- 精简 prompt — 更短的输入 = 更少的 token = 更低的费用
- 控制输出长度 — 设置
max_tokens限制输出 - 利用缓存 — 固定的 system prompt 会自动缓存,缓存读取只收 10% 的价格
- 减少上下文 — 不需要的历史消息别全带上

