跳转到主要内容

模型列表

Anyone 目前支持以下主流 AI 模型,通过统一的 OpenAI 兼容接口调用。
价格以控制台模型广场实时标价为准,下表仅供参考。单位:美元 / 百万 token。

OpenAI

模型输入输出上下文特点
gpt-5.4$0.10$0.601M旗舰通用模型,推理/代码/创作全能
gpt-5.3-codex$0.08$0.641M代码专精,编程/调试/重构首选

Anthropic Claude

模型输入输出上下文特点
claude-opus-4-6$1.00$5.001M最强推理,复杂分析/长文本
claude-opus-4-6-fast$20.00$100.001MOpus 快速版,降低延迟优先
claude-sonnet-4-6$0.45$2.251M性能与价格平衡,日常首选

Google Gemini

模型输入输出上下文特点
gemini-3.1-pro-preview$1.20$9.001M多模态+超长上下文,性价比高

DeepSeek

模型输入输出上下文特点
DeepSeek-V3.2$0.10$0.15128K极致性价比,中文能力强

智谱 GLM

模型输入输出上下文特点
GLM-5.1$1.00$3.00128K国产大模型,中文理解优秀

xAI Grok

模型输入输出上下文特点
grok-4.20$1.20$4.00256K实时信息+推理,推特生态集成

MiniMax

模型输入输出上下文特点
MiniMax-M2.5$0.14$0.75256K长上下文+多模态,国产新势力

月之暗面 Kimi

模型输入输出上下文特点
Kimi-K2.5$0.15$2.00128K超长文档处理,中文顶级

计费说明

计费项说明成本
输入你发给模型的内容(prompt)基准价
输出模型生成的内容输入的 3-5 倍
缓存写入首次缓存 prompt输入的 1.25 倍
缓存读取命中缓存输入的 0.1 倍
  • 价格可能随上游服务商调整,以控制台模型广场实时显示为准
  • 失败请求不计费

省钱技巧

  1. 选对模型 — 简单任务用便宜模型(DeepSeek-V3.2、GLM-5.1),复杂任务才用贵的
  2. 精简 prompt — 更短的输入 = 更少的 token = 更低的费用
  3. 控制输出长度 — 设置 max_tokens 限制输出
  4. 利用缓存 — 固定的 system prompt 会自动缓存,缓存读取只收 10% 的价格
  5. 减少上下文 — 不需要的历史消息别全带上

如何查看实时价格

登录 Anyone 控制台模型广场,每个模型卡片上标注了当前的输入/输出价格。

调用示例

所有模型都通过相同的 OpenAI 兼容接口调用,只需切换 model 参数:
from openai import OpenAI

client = OpenAI(
    base_url="https://api.anyone.ai/v1",
    api_key="your-anyone-token",
)

# GPT-5.4
response = client.chat.completions.create(
    model="gpt-5.4",
    messages=[{"role": "user", "content": "Hello!"}]
)

# Claude Opus 4.6
response = client.chat.completions.create(
    model="claude-opus-4-6",
    messages=[{"role": "user", "content": "Hello!"}]
)

# DeepSeek V3.2
response = client.chat.completions.create(
    model="DeepSeek-V3.2",
    messages=[{"role": "user", "content": "你好!"}]
)