Providers de modelos

Esta página cubre providers de LLM/modelos (no canales de chat como WhatsApp/Telegram). Para las reglas de selección de modelos, consulta /concepts/models.

Reglas rápidas

  • Las referencias de modelo usan provider/model (ejemplo: opencode/claude-opus-4-6).
  • Si configuras agents.defaults.models, se convierte en la lista permitida.
  • Helpers de CLI: openclaw onboard, openclaw models list, openclaw models set <provider/model>.

Rotación de claves API

  • Soporta rotación genérica de providers para providers seleccionados.
  • Configura múltiples claves vía:
    • OPENCLAW_LIVE_<PROVIDER>_KEY (sobrescritura live única, máxima prioridad)
    • <PROVIDER>_API_KEYS (lista separada por coma o punto y coma)
    • <PROVIDER>_API_KEY (clave principal)
    • <PROVIDER>_API_KEY_* (lista numerada, ej. <PROVIDER>_API_KEY_1)
  • Para providers de Google, GOOGLE_API_KEY también se incluye como fallback.
  • El orden de selección de claves preserva la prioridad y deduplica valores.
  • Las solicitudes se reintentan con la siguiente clave solo en respuestas de límite de tasa (por ejemplo 429, rate_limit, quota, resource exhausted).
  • Los fallos que no son por límite de tasa fallan inmediatamente; no se intenta rotación de claves.
  • Cuando todas las claves candidatas fallan, se devuelve el error final del último intento.

Providers integrados (catálogo pi-ai)

OpenClaw incluye el catálogo pi-ai. Estos providers no requieren ninguna configuración de models.providers; solo configura la autenticación + elige un modelo.

OpenAI

  • Provider: openai
  • Autenticación: OPENAI_API_KEY
  • Rotación opcional: OPENAI_API_KEYS, OPENAI_API_KEY_1, OPENAI_API_KEY_2, más OPENCLAW_LIVE_OPENAI_KEY (sobrescritura única)
  • Modelos de ejemplo: openai/gpt-5.4, openai/gpt-5.4-pro
  • CLI: openclaw onboard --auth-choice openai-api-key
  • El transporte por defecto es auto (WebSocket primero, fallback a SSE)
  • Sobrescribir por modelo vía agents.defaults.models["openai/<model>"].params.transport ("sse", "websocket" o "auto")
  • El calentamiento WebSocket de OpenAI Responses está habilitado por defecto vía params.openaiWsWarmup (true/false)
  • El procesamiento prioritario de OpenAI puede habilitarse vía agents.defaults.models["openai/<model>"].params.serviceTier
  • El modo rápido de OpenAI puede habilitarse por modelo vía agents.defaults.models["<provider>/<model>"].params.fastMode
  • openai/gpt-5.3-codex-spark está intencionalmente suprimido en OpenClaw porque la API live de OpenAI lo rechaza; Spark se trata como exclusivo de Codex
{
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

Anthropic

  • Provider: anthropic
  • Autenticación: ANTHROPIC_API_KEY o claude setup-token
  • Rotación opcional: ANTHROPIC_API_KEYS, ANTHROPIC_API_KEY_1, ANTHROPIC_API_KEY_2, más OPENCLAW_LIVE_ANTHROPIC_KEY (sobrescritura única)
  • Modelo de ejemplo: anthropic/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice token (pegar setup-token) o openclaw models auth paste-token --provider anthropic
  • Los modelos con API key directa soportan el toggle compartido /fast y params.fastMode; OpenClaw los mapea al service_tier de Anthropic (auto vs standard_only)
  • Nota de política: el soporte de setup-token es compatibilidad técnica; Anthropic ha bloqueado algunos usos de suscripción fuera de Claude Code en el pasado. Verifica los términos actuales de Anthropic y decide según tu tolerancia al riesgo.
  • Recomendación: la autenticación con clave API de Anthropic es la ruta más segura y recomendada sobre la autenticación con setup-token de suscripción.
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Code (Codex)

  • Provider: openai-codex
  • Autenticación: OAuth (ChatGPT)
  • Modelo de ejemplo: openai-codex/gpt-5.4
  • CLI: openclaw onboard --auth-choice openai-codex o openclaw models auth login --provider openai-codex
  • El transporte por defecto es auto (WebSocket primero, fallback a SSE)
  • Sobrescribir por modelo vía agents.defaults.models["openai-codex/<model>"].params.transport ("sse", "websocket" o "auto")
  • Comparte el mismo toggle /fast y configuración params.fastMode que openai/* directo
  • openai-codex/gpt-5.3-codex-spark sigue disponible cuando el catálogo OAuth de Codex lo expone; depende del derecho
  • Nota de política: OAuth de OpenAI Codex está explícitamente soportado para herramientas/flujos de trabajo externos como OpenClaw.
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

OpenCode

  • Autenticación: OPENCODE_API_KEY (o OPENCODE_ZEN_API_KEY)
  • Provider de runtime Zen: opencode
  • Provider de runtime Go: opencode-go
  • Modelos de ejemplo: opencode/claude-opus-4-6, opencode-go/kimi-k2.5
  • CLI: openclaw onboard --auth-choice opencode-zen o openclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini (clave API)

  • Provider: google
  • Autenticación: GEMINI_API_KEY
  • Rotación opcional: GEMINI_API_KEYS, GEMINI_API_KEY_1, GEMINI_API_KEY_2, GOOGLE_API_KEY como fallback y OPENCLAW_LIVE_GEMINI_KEY (sobrescritura única)
  • Modelos de ejemplo: google/gemini-3.1-pro-preview, google/gemini-3-flash-preview
  • Compatibilidad: la configuración heredada de OpenClaw usando google/gemini-3.1-flash-preview se normaliza a google/gemini-3-flash-preview
  • CLI: openclaw onboard --auth-choice gemini-api-key

Google Vertex, Antigravity y Gemini CLI

  • Providers: google-vertex, google-antigravity, google-gemini-cli
  • Autenticación: Vertex usa gcloud ADC; Antigravity/Gemini CLI usan sus respectivos flujos de autenticación
  • Precaución: Antigravity y Gemini CLI OAuth en OpenClaw son integraciones no oficiales. Algunos usuarios han reportado restricciones de cuenta de Google tras usar clientes de terceros. Revisa los términos de Google y usa una cuenta no crítica si decides continuar.
  • Antigravity OAuth se incluye como plugin empaquetado (google-antigravity-auth, deshabilitado por defecto).
    • Habilitar: openclaw plugins enable google-antigravity-auth
    • Iniciar sesión: openclaw models auth login --provider google-antigravity --set-default
  • Gemini CLI OAuth se incluye como plugin empaquetado (google-gemini-cli-auth, deshabilitado por defecto).
    • Habilitar: openclaw plugins enable google-gemini-cli-auth
    • Iniciar sesión: openclaw models auth login --provider google-gemini-cli --set-default
    • Nota: no necesitas pegar un client id o secret en openclaw.json. El flujo de login CLI almacena tokens en perfiles de autenticación en el host del gateway.

Z.AI (GLM)

  • Provider: zai
  • Autenticación: ZAI_API_KEY
  • Modelo de ejemplo: zai/glm-5
  • CLI: openclaw onboard --auth-choice zai-api-key
    • Aliases: z.ai/* y z-ai/* se normalizan a zai/*

Vercel AI Gateway

  • Provider: vercel-ai-gateway
  • Autenticación: AI_GATEWAY_API_KEY
  • Modelo de ejemplo: vercel-ai-gateway/anthropic/claude-opus-4.6
  • CLI: openclaw onboard --auth-choice ai-gateway-api-key

Kilo Gateway

  • Provider: kilocode
  • Autenticación: KILOCODE_API_KEY
  • Modelo de ejemplo: kilocode/anthropic/claude-opus-4.6
  • CLI: openclaw onboard --kilocode-api-key <key>
  • URL base: https://api.kilo.ai/api/gateway/
  • El catálogo integrado expandido incluye GLM-5 Free, MiniMax M2.5 Free, GPT-5.2, Gemini 3 Pro Preview, Gemini 3 Flash Preview, Grok Code Fast 1 y Kimi K2.5.

Consulta /providers/kilocode para detalles de configuración.

Otros providers integrados

  • OpenRouter: openrouter (OPENROUTER_API_KEY)
  • Modelo de ejemplo: openrouter/anthropic/claude-sonnet-4-5
  • Kilo Gateway: kilocode (KILOCODE_API_KEY)
  • Modelo de ejemplo: kilocode/anthropic/claude-opus-4.6
  • xAI: xai (XAI_API_KEY)
  • Mistral: mistral (MISTRAL_API_KEY)
  • Modelo de ejemplo: mistral/mistral-large-latest
  • CLI: openclaw onboard --auth-choice mistral-api-key
  • Groq: groq (GROQ_API_KEY)
  • Cerebras: cerebras (CEREBRAS_API_KEY)
    • Los modelos GLM en Cerebras usan ids zai-glm-4.7 y zai-glm-4.6.
    • URL base compatible con OpenAI: https://api.cerebras.ai/v1.
  • GitHub Copilot: github-copilot (COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN)
  • Hugging Face Inference: huggingface (HUGGINGFACE_HUB_TOKEN o HF_TOKEN) — router compatible con OpenAI; modelo de ejemplo: huggingface/deepseek-ai/DeepSeek-R1; CLI: openclaw onboard --auth-choice huggingface-api-key. Consulta Hugging Face (Inference).

Providers vía models.providers (personalizado/URL base)

Usa models.providers (o models.json) para agregar providers personalizados o proxies compatibles con OpenAI/Anthropic.

Moonshot AI (Kimi)

Moonshot usa endpoints compatibles con OpenAI, así que configúralo como provider personalizado:

  • Provider: moonshot
  • Autenticación: MOONSHOT_API_KEY
  • Modelo de ejemplo: moonshot/kimi-k2.5

IDs de modelo Kimi K2:

{/_ moonshot-kimi-k2-model-refs:start _/ && null}

  • moonshot/kimi-k2.5
  • moonshot/kimi-k2-0905-preview
  • moonshot/kimi-k2-turbo-preview
  • moonshot/kimi-k2-thinking
  • moonshot/kimi-k2-thinking-turbo {/_ moonshot-kimi-k2-model-refs:end _/ && null}
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
      },
    },
  },
}

Kimi Coding

Kimi Coding usa el endpoint compatible con Anthropic de Moonshot AI:

  • Provider: kimi-coding
  • Autenticación: KIMI_API_KEY
  • Modelo de ejemplo: kimi-coding/k2p5
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi-coding/k2p5" } },
  },
}

Qwen OAuth (nivel gratuito)

Qwen proporciona acceso OAuth a Qwen Coder + Vision vía un flujo de código de dispositivo. Habilita el plugin empaquetado, luego inicia sesión:

openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default

Referencias de modelo:

  • qwen-portal/coder-model
  • qwen-portal/vision-model

Consulta /providers/qwen para detalles y notas de configuración.

Volcano Engine (Doubao)

Volcano Engine proporciona acceso a Doubao y otros modelos en China.

  • Provider: volcengine (coding: volcengine-plan)
  • Autenticación: VOLCANO_ENGINE_API_KEY
  • Modelo de ejemplo: volcengine/doubao-seed-1-8-251228
  • CLI: openclaw onboard --auth-choice volcengine-api-key
{
  agents: {
    defaults: { model: { primary: "volcengine/doubao-seed-1-8-251228" } },
  },
}

Modelos disponibles:

  • volcengine/doubao-seed-1-8-251228 (Doubao Seed 1.8)
  • volcengine/doubao-seed-code-preview-251028
  • volcengine/kimi-k2-5-260127 (Kimi K2.5)
  • volcengine/glm-4-7-251222 (GLM 4.7)
  • volcengine/deepseek-v3-2-251201 (DeepSeek V3.2 128K)

Modelos de coding (volcengine-plan):

  • volcengine-plan/ark-code-latest
  • volcengine-plan/doubao-seed-code
  • volcengine-plan/kimi-k2.5
  • volcengine-plan/kimi-k2-thinking
  • volcengine-plan/glm-4.7

BytePlus (Internacional)

BytePlus ARK proporciona acceso a los mismos modelos que Volcano Engine para usuarios internacionales.

  • Provider: byteplus (coding: byteplus-plan)
  • Autenticación: BYTEPLUS_API_KEY
  • Modelo de ejemplo: byteplus/seed-1-8-251228
  • CLI: openclaw onboard --auth-choice byteplus-api-key
{
  agents: {
    defaults: { model: { primary: "byteplus/seed-1-8-251228" } },
  },
}

Modelos disponibles:

  • byteplus/seed-1-8-251228 (Seed 1.8)
  • byteplus/kimi-k2-5-260127 (Kimi K2.5)
  • byteplus/glm-4-7-251222 (GLM 4.7)

Modelos de coding (byteplus-plan):

  • byteplus-plan/ark-code-latest
  • byteplus-plan/doubao-seed-code
  • byteplus-plan/kimi-k2.5
  • byteplus-plan/kimi-k2-thinking
  • byteplus-plan/glm-4.7

Synthetic

Synthetic proporciona modelos compatibles con Anthropic bajo el provider synthetic:

  • Provider: synthetic
  • Autenticación: SYNTHETIC_API_KEY
  • Modelo de ejemplo: synthetic/hf:MiniMaxAI/MiniMax-M2.5
  • CLI: openclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
      },
    },
  },
}

MiniMax

MiniMax se configura vía models.providers porque usa endpoints personalizados:

  • MiniMax (compatible con Anthropic): --auth-choice minimax-api
  • Autenticación: MINIMAX_API_KEY

Consulta /providers/minimax para detalles de configuración, opciones de modelo y snippets de configuración.

Ollama

Ollama se incluye como plugin de provider empaquetado y usa la API nativa de Ollama:

  • Provider: ollama
  • Autenticación: No requerida (servidor local)
  • Modelo de ejemplo: ollama/llama3.3
  • Instalación: https://ollama.com/download
# Instala Ollama, luego descarga un modelo:
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}

Ollama se detecta localmente en http://127.0.0.1:11434 cuando optas con OLLAMA_API_KEY, y el plugin de provider empaquetado agrega Ollama directamente a openclaw onboard y al selector de modelos. Consulta /providers/ollama para onboarding, modo cloud/local y configuración personalizada.

vLLM

vLLM se incluye como plugin de provider empaquetado para servidores locales/autoalojados compatibles con OpenAI:

  • Provider: vllm
  • Autenticación: Opcional (depende de tu servidor)
  • URL base por defecto: http://127.0.0.1:8000/v1

Para optar por el auto-descubrimiento local (cualquier valor funciona si tu servidor no aplica autenticación):

export VLLM_API_KEY="vllm-local"

Luego configura un modelo (reemplaza con uno de los IDs devueltos por /v1/models):

{
  agents: {
    defaults: { model: { primary: "vllm/your-model-id" } },
  },
}

Consulta /providers/vllm para más detalles.

SGLang

SGLang se incluye como plugin de provider empaquetado para servidores autoalojados rápidos compatibles con OpenAI:

  • Provider: sglang
  • Autenticación: Opcional (depende de tu servidor)
  • URL base por defecto: http://127.0.0.1:30000/v1

Para optar por el auto-descubrimiento local (cualquier valor funciona si tu servidor no aplica autenticación):

export SGLANG_API_KEY="sglang-local"

Luego configura un modelo (reemplaza con uno de los IDs devueltos por /v1/models):

{
  agents: {
    defaults: { model: { primary: "sglang/your-model-id" } },
  },
}

Consulta /providers/sglang para más detalles.

Proxies locales (LM Studio, vLLM, LiteLLM, etc.)

Ejemplo (compatible con OpenAI):

{
  agents: {
    defaults: {
      model: { primary: "lmstudio/minimax-m2.5-gs32" },
      models: { "lmstudio/minimax-m2.5-gs32": { alias: "Minimax" } },
    },
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "LMSTUDIO_KEY",
        api: "openai-completions",
        models: [
          {
            id: "minimax-m2.5-gs32",
            name: "MiniMax M2.5",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Notas:

  • Para providers personalizados, reasoning, input, cost, contextWindow y maxTokens son opcionales. Cuando se omiten, OpenClaw usa por defecto:
    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192
  • Recomendado: configura valores explícitos que coincidan con los límites de tu proxy/modelo.
  • Para api: "openai-completions" en endpoints no nativos (cualquier baseUrl no vacía cuyo host no sea api.openai.com), OpenClaw fuerza compat.supportsDeveloperRole: false para evitar errores 400 del provider por roles developer no soportados.
  • Si baseUrl está vacío/omitido, OpenClaw mantiene el comportamiento por defecto de OpenAI (que resuelve a api.openai.com).
  • Por seguridad, un compat.supportsDeveloperRole: true explícito aún se sobrescribe en endpoints openai-completions no nativos.

Ejemplos de CLI

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list

Consulta también: /gateway/configuration para ejemplos completos de configuración.