模型列表
Anyone 目前支持以下主流 AI 模型,通过统一的 OpenAI 兼容接口调用。
价格以控制台模型广场实时标价为准,下表仅供参考。单位:美元 / 百万 token。
OpenAI
| 模型 | 输入 | 输出 | 上下文 | 特点 |
|---|
gpt-5.4 | $0.10 | $0.60 | 1M | 旗舰通用模型,推理/代码/创作全能 |
gpt-5.3-codex | $0.08 | $0.64 | 1M | 代码专精,编程/调试/重构首选 |
Anthropic Claude
| 模型 | 输入 | 输出 | 上下文 | 特点 |
|---|
claude-opus-4-6 | $1.00 | $5.00 | 1M | 最强推理,复杂分析/长文本 |
claude-opus-4-6-fast | $20.00 | $100.00 | 1M | Opus 快速版,降低延迟优先 |
claude-sonnet-4-6 | $0.45 | $2.25 | 1M | 性能与价格平衡,日常首选 |
Google Gemini
| 模型 | 输入 | 输出 | 上下文 | 特点 |
|---|
gemini-3.1-pro-preview | $1.20 | $9.00 | 1M | 多模态+超长上下文,性价比高 |
DeepSeek
| 模型 | 输入 | 输出 | 上下文 | 特点 |
|---|
DeepSeek-V3.2 | $0.10 | $0.15 | 128K | 极致性价比,中文能力强 |
智谱 GLM
| 模型 | 输入 | 输出 | 上下文 | 特点 |
|---|
GLM-5.1 | $1.00 | $3.00 | 128K | 国产大模型,中文理解优秀 |
xAI Grok
| 模型 | 输入 | 输出 | 上下文 | 特点 |
|---|
grok-4.20 | $1.20 | $4.00 | 256K | 实时信息+推理,推特生态集成 |
MiniMax
| 模型 | 输入 | 输出 | 上下文 | 特点 |
|---|
MiniMax-M2.5 | $0.14 | $0.75 | 256K | 长上下文+多模态,国产新势力 |
月之暗面 Kimi
| 模型 | 输入 | 输出 | 上下文 | 特点 |
|---|
Kimi-K2.5 | $0.15 | $2.00 | 128K | 超长文档处理,中文顶级 |
计费说明
| 计费项 | 说明 | 成本 |
|---|
| 输入 | 你发给模型的内容(prompt) | 基准价 |
| 输出 | 模型生成的内容 | 输入的 3-5 倍 |
| 缓存写入 | 首次缓存 prompt | 输入的 1.25 倍 |
| 缓存读取 | 命中缓存 | 输入的 0.1 倍 |
- 价格可能随上游服务商调整,以控制台模型广场实时显示为准
- 失败请求不计费
省钱技巧
- 选对模型 — 简单任务用便宜模型(DeepSeek-V3.2、GLM-5.1),复杂任务才用贵的
- 精简 prompt — 更短的输入 = 更少的 token = 更低的费用
- 控制输出长度 — 设置
max_tokens 限制输出
- 利用缓存 — 固定的 system prompt 会自动缓存,缓存读取只收 10% 的价格
- 减少上下文 — 不需要的历史消息别全带上
如何查看实时价格
登录 Anyone 控制台 → 模型广场,每个模型卡片上标注了当前的输入/输出价格。
调用示例
所有模型都通过相同的 OpenAI 兼容接口调用,只需切换 model 参数:
from openai import OpenAI
client = OpenAI(
base_url="https://api.anyone.ai/v1",
api_key="your-anyone-token",
)
# GPT-5.4
response = client.chat.completions.create(
model="gpt-5.4",
messages=[{"role": "user", "content": "Hello!"}]
)
# Claude Opus 4.6
response = client.chat.completions.create(
model="claude-opus-4-6",
messages=[{"role": "user", "content": "Hello!"}]
)
# DeepSeek V3.2
response = client.chat.completions.create(
model="DeepSeek-V3.2",
messages=[{"role": "user", "content": "你好!"}]
)