Providers de modelos
Esta página cubre providers de LLM/modelos (no canales de chat como WhatsApp/Telegram). Para las reglas de selección de modelos, consulta /concepts/models.
Reglas rápidas
- Las referencias de modelo usan
provider/model(ejemplo:opencode/claude-opus-4-6). - Si configuras
agents.defaults.models, se convierte en la lista permitida. - Helpers de CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>.
Rotación de claves API
- Soporta rotación genérica de providers para providers seleccionados.
- Configura múltiples claves vía:
OPENCLAW_LIVE_<PROVIDER>_KEY(sobrescritura live única, máxima prioridad)<PROVIDER>_API_KEYS(lista separada por coma o punto y coma)<PROVIDER>_API_KEY(clave principal)<PROVIDER>_API_KEY_*(lista numerada, ej.<PROVIDER>_API_KEY_1)
- Para providers de Google,
GOOGLE_API_KEYtambién se incluye como fallback. - El orden de selección de claves preserva la prioridad y deduplica valores.
- Las solicitudes se reintentan con la siguiente clave solo en respuestas de límite de tasa (por ejemplo
429,rate_limit,quota,resource exhausted). - Los fallos que no son por límite de tasa fallan inmediatamente; no se intenta rotación de claves.
- Cuando todas las claves candidatas fallan, se devuelve el error final del último intento.
Providers integrados (catálogo pi-ai)
OpenClaw incluye el catálogo pi-ai. Estos providers no requieren ninguna
configuración de models.providers; solo configura la autenticación + elige un modelo.
OpenAI
- Provider:
openai - Autenticación:
OPENAI_API_KEY - Rotación opcional:
OPENAI_API_KEYS,OPENAI_API_KEY_1,OPENAI_API_KEY_2, másOPENCLAW_LIVE_OPENAI_KEY(sobrescritura única) - Modelos de ejemplo:
openai/gpt-5.4,openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - El transporte por defecto es
auto(WebSocket primero, fallback a SSE) - Sobrescribir por modelo vía
agents.defaults.models["openai/<model>"].params.transport("sse","websocket"o"auto") - El calentamiento WebSocket de OpenAI Responses está habilitado por defecto vía
params.openaiWsWarmup(true/false) - El procesamiento prioritario de OpenAI puede habilitarse vía
agents.defaults.models["openai/<model>"].params.serviceTier - El modo rápido de OpenAI puede habilitarse por modelo vía
agents.defaults.models["<provider>/<model>"].params.fastMode openai/gpt-5.3-codex-sparkestá intencionalmente suprimido en OpenClaw porque la API live de OpenAI lo rechaza; Spark se trata como exclusivo de Codex
{
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
Anthropic
- Provider:
anthropic - Autenticación:
ANTHROPIC_API_KEYoclaude setup-token - Rotación opcional:
ANTHROPIC_API_KEYS,ANTHROPIC_API_KEY_1,ANTHROPIC_API_KEY_2, másOPENCLAW_LIVE_ANTHROPIC_KEY(sobrescritura única) - Modelo de ejemplo:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice token(pegar setup-token) oopenclaw models auth paste-token --provider anthropic - Los modelos con API key directa soportan el toggle compartido
/fastyparams.fastMode; OpenClaw los mapea alservice_tierde Anthropic (autovsstandard_only) - Nota de política: el soporte de setup-token es compatibilidad técnica; Anthropic ha bloqueado algunos usos de suscripción fuera de Claude Code en el pasado. Verifica los términos actuales de Anthropic y decide según tu tolerancia al riesgo.
- Recomendación: la autenticación con clave API de Anthropic es la ruta más segura y recomendada sobre la autenticación con setup-token de suscripción.
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Code (Codex)
- Provider:
openai-codex - Autenticación: OAuth (ChatGPT)
- Modelo de ejemplo:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexoopenclaw models auth login --provider openai-codex - El transporte por defecto es
auto(WebSocket primero, fallback a SSE) - Sobrescribir por modelo vía
agents.defaults.models["openai-codex/<model>"].params.transport("sse","websocket"o"auto") - Comparte el mismo toggle
/fasty configuraciónparams.fastModequeopenai/*directo openai-codex/gpt-5.3-codex-sparksigue disponible cuando el catálogo OAuth de Codex lo expone; depende del derecho- Nota de política: OAuth de OpenAI Codex está explícitamente soportado para herramientas/flujos de trabajo externos como OpenClaw.
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}
OpenCode
- Autenticación:
OPENCODE_API_KEY(oOPENCODE_ZEN_API_KEY) - Provider de runtime Zen:
opencode - Provider de runtime Go:
opencode-go - Modelos de ejemplo:
opencode/claude-opus-4-6,opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenoopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini (clave API)
- Provider:
google - Autenticación:
GEMINI_API_KEY - Rotación opcional:
GEMINI_API_KEYS,GEMINI_API_KEY_1,GEMINI_API_KEY_2,GOOGLE_API_KEYcomo fallback yOPENCLAW_LIVE_GEMINI_KEY(sobrescritura única) - Modelos de ejemplo:
google/gemini-3.1-pro-preview,google/gemini-3-flash-preview - Compatibilidad: la configuración heredada de OpenClaw usando
google/gemini-3.1-flash-previewse normaliza agoogle/gemini-3-flash-preview - CLI:
openclaw onboard --auth-choice gemini-api-key
Google Vertex, Antigravity y Gemini CLI
- Providers:
google-vertex,google-antigravity,google-gemini-cli - Autenticación: Vertex usa gcloud ADC; Antigravity/Gemini CLI usan sus respectivos flujos de autenticación
- Precaución: Antigravity y Gemini CLI OAuth en OpenClaw son integraciones no oficiales. Algunos usuarios han reportado restricciones de cuenta de Google tras usar clientes de terceros. Revisa los términos de Google y usa una cuenta no crítica si decides continuar.
- Antigravity OAuth se incluye como plugin empaquetado (
google-antigravity-auth, deshabilitado por defecto).- Habilitar:
openclaw plugins enable google-antigravity-auth - Iniciar sesión:
openclaw models auth login --provider google-antigravity --set-default
- Habilitar:
- Gemini CLI OAuth se incluye como plugin empaquetado (
google-gemini-cli-auth, deshabilitado por defecto).- Habilitar:
openclaw plugins enable google-gemini-cli-auth - Iniciar sesión:
openclaw models auth login --provider google-gemini-cli --set-default - Nota: no necesitas pegar un client id o secret en
openclaw.json. El flujo de login CLI almacena tokens en perfiles de autenticación en el host del gateway.
- Habilitar:
Z.AI (GLM)
- Provider:
zai - Autenticación:
ZAI_API_KEY - Modelo de ejemplo:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- Aliases:
z.ai/*yz-ai/*se normalizan azai/*
- Aliases:
Vercel AI Gateway
- Provider:
vercel-ai-gateway - Autenticación:
AI_GATEWAY_API_KEY - Modelo de ejemplo:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- Provider:
kilocode - Autenticación:
KILOCODE_API_KEY - Modelo de ejemplo:
kilocode/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --kilocode-api-key <key> - URL base:
https://api.kilo.ai/api/gateway/ - El catálogo integrado expandido incluye GLM-5 Free, MiniMax M2.5 Free, GPT-5.2, Gemini 3 Pro Preview, Gemini 3 Flash Preview, Grok Code Fast 1 y Kimi K2.5.
Consulta /providers/kilocode para detalles de configuración.
Otros providers integrados
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Modelo de ejemplo:
openrouter/anthropic/claude-sonnet-4-5 - Kilo Gateway:
kilocode(KILOCODE_API_KEY) - Modelo de ejemplo:
kilocode/anthropic/claude-opus-4.6 - xAI:
xai(XAI_API_KEY) - Mistral:
mistral(MISTRAL_API_KEY) - Modelo de ejemplo:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Los modelos GLM en Cerebras usan ids
zai-glm-4.7yzai-glm-4.6. - URL base compatible con OpenAI:
https://api.cerebras.ai/v1.
- Los modelos GLM en Cerebras usan ids
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENoHF_TOKEN) — router compatible con OpenAI; modelo de ejemplo:huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Consulta Hugging Face (Inference).
Providers vía models.providers (personalizado/URL base)
Usa models.providers (o models.json) para agregar providers personalizados o
proxies compatibles con OpenAI/Anthropic.
Moonshot AI (Kimi)
Moonshot usa endpoints compatibles con OpenAI, así que configúralo como provider personalizado:
- Provider:
moonshot - Autenticación:
MOONSHOT_API_KEY - Modelo de ejemplo:
moonshot/kimi-k2.5
IDs de modelo Kimi K2:
{/_ moonshot-kimi-k2-model-refs:start _/ && null}
moonshot/kimi-k2.5moonshot/kimi-k2-0905-previewmoonshot/kimi-k2-turbo-previewmoonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbo{/_ moonshot-kimi-k2-model-refs:end _/ && null}
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.5" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
},
},
},
}
Kimi Coding
Kimi Coding usa el endpoint compatible con Anthropic de Moonshot AI:
- Provider:
kimi-coding - Autenticación:
KIMI_API_KEY - Modelo de ejemplo:
kimi-coding/k2p5
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi-coding/k2p5" } },
},
}
Qwen OAuth (nivel gratuito)
Qwen proporciona acceso OAuth a Qwen Coder + Vision vía un flujo de código de dispositivo. Habilita el plugin empaquetado, luego inicia sesión:
openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default
Referencias de modelo:
qwen-portal/coder-modelqwen-portal/vision-model
Consulta /providers/qwen para detalles y notas de configuración.
Volcano Engine (Doubao)
Volcano Engine proporciona acceso a Doubao y otros modelos en China.
- Provider:
volcengine(coding:volcengine-plan) - Autenticación:
VOLCANO_ENGINE_API_KEY - Modelo de ejemplo:
volcengine/doubao-seed-1-8-251228 - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine/doubao-seed-1-8-251228" } },
},
}
Modelos disponibles:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
Modelos de coding (volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus (Internacional)
BytePlus ARK proporciona acceso a los mismos modelos que Volcano Engine para usuarios internacionales.
- Provider:
byteplus(coding:byteplus-plan) - Autenticación:
BYTEPLUS_API_KEY - Modelo de ejemplo:
byteplus/seed-1-8-251228 - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus/seed-1-8-251228" } },
},
}
Modelos disponibles:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
Modelos de coding (byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
Synthetic proporciona modelos compatibles con Anthropic bajo el provider synthetic:
- Provider:
synthetic - Autenticación:
SYNTHETIC_API_KEY - Modelo de ejemplo:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMax se configura vía models.providers porque usa endpoints personalizados:
- MiniMax (compatible con Anthropic):
--auth-choice minimax-api - Autenticación:
MINIMAX_API_KEY
Consulta /providers/minimax para detalles de configuración, opciones de modelo y snippets de configuración.
Ollama
Ollama se incluye como plugin de provider empaquetado y usa la API nativa de Ollama:
- Provider:
ollama - Autenticación: No requerida (servidor local)
- Modelo de ejemplo:
ollama/llama3.3 - Instalación: https://ollama.com/download
# Instala Ollama, luego descarga un modelo:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
Ollama se detecta localmente en http://127.0.0.1:11434 cuando optas con
OLLAMA_API_KEY, y el plugin de provider empaquetado agrega Ollama directamente a
openclaw onboard y al selector de modelos. Consulta /providers/ollama
para onboarding, modo cloud/local y configuración personalizada.
vLLM
vLLM se incluye como plugin de provider empaquetado para servidores locales/autoalojados compatibles con OpenAI:
- Provider:
vllm - Autenticación: Opcional (depende de tu servidor)
- URL base por defecto:
http://127.0.0.1:8000/v1
Para optar por el auto-descubrimiento local (cualquier valor funciona si tu servidor no aplica autenticación):
export VLLM_API_KEY="vllm-local"
Luego configura un modelo (reemplaza con uno de los IDs devueltos por /v1/models):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
Consulta /providers/vllm para más detalles.
SGLang
SGLang se incluye como plugin de provider empaquetado para servidores autoalojados rápidos compatibles con OpenAI:
- Provider:
sglang - Autenticación: Opcional (depende de tu servidor)
- URL base por defecto:
http://127.0.0.1:30000/v1
Para optar por el auto-descubrimiento local (cualquier valor funciona si tu servidor no aplica autenticación):
export SGLANG_API_KEY="sglang-local"
Luego configura un modelo (reemplaza con uno de los IDs devueltos por /v1/models):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
Consulta /providers/sglang para más detalles.
Proxies locales (LM Studio, vLLM, LiteLLM, etc.)
Ejemplo (compatible con OpenAI):
{
agents: {
defaults: {
model: { primary: "lmstudio/minimax-m2.5-gs32" },
models: { "lmstudio/minimax-m2.5-gs32": { alias: "Minimax" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "LMSTUDIO_KEY",
api: "openai-completions",
models: [
{
id: "minimax-m2.5-gs32",
name: "MiniMax M2.5",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
Notas:
- Para providers personalizados,
reasoning,input,cost,contextWindowymaxTokensson opcionales. Cuando se omiten, OpenClaw usa por defecto:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Recomendado: configura valores explícitos que coincidan con los límites de tu proxy/modelo.
- Para
api: "openai-completions"en endpoints no nativos (cualquierbaseUrlno vacía cuyo host no seaapi.openai.com), OpenClaw fuerzacompat.supportsDeveloperRole: falsepara evitar errores 400 del provider por rolesdeveloperno soportados. - Si
baseUrlestá vacío/omitido, OpenClaw mantiene el comportamiento por defecto de OpenAI (que resuelve aapi.openai.com). - Por seguridad, un
compat.supportsDeveloperRole: trueexplícito aún se sobrescribe en endpointsopenai-completionsno nativos.
Ejemplos de CLI
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Consulta también: /gateway/configuration para ejemplos completos de configuración.