OpenAI
OpenAI proporciona APIs para desarrolladores para los modelos GPT. Codex soporta inicio de sesion con ChatGPT para acceso por suscripcion o clave API para acceso basado en uso. Codex cloud requiere inicio de sesion con ChatGPT. OpenAI soporta explicitamente el uso de OAuth de suscripcion en herramientas/flujos de trabajo externos como OpenClaw.
Opcion A: Clave API de OpenAI (OpenAI Platform)
Ideal para: acceso directo a la API y facturacion basada en uso. Obtiene tu clave API desde el panel de OpenAI.
Configuracion por CLI
openclaw onboard --auth-choice openai-api-key
# o no interactivo
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
Fragmento de configuracion
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
La documentacion actual de modelos de la API de OpenAI lista gpt-5.4 y gpt-5.4-pro para
uso directo de la API de OpenAI. OpenClaw enruta ambos a traves de la ruta Responses de openai/*.
OpenClaw suprime intencionalmente la fila obsoleta openai/gpt-5.3-codex-spark,
porque las llamadas directas a la API de OpenAI la rechazan en trafico en vivo.
OpenClaw no expone openai/gpt-5.3-codex-spark en la ruta directa de la
API de OpenAI. pi-ai todavia incluye una fila incorporada para ese modelo, pero las solicitudes
en vivo a la API de OpenAI actualmente lo rechazan. Spark se trata como exclusivo de Codex en OpenClaw.
Opcion B: Suscripcion a OpenAI Code (Codex)
Ideal para: usar acceso por suscripcion de ChatGPT/Codex en lugar de una clave API. Codex cloud requiere inicio de sesion con ChatGPT, mientras que el CLI de Codex soporta inicio de sesion con ChatGPT o clave API.
Configuracion por CLI (Codex OAuth)
# Ejecutar Codex OAuth en el asistente
openclaw onboard --auth-choice openai-codex
# O ejecutar OAuth directamente
openclaw models auth login --provider openai-codex
Fragmento de configuracion (suscripcion Codex)
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}
La documentacion actual de Codex de OpenAI lista gpt-5.4 como el modelo Codex actual. OpenClaw
lo mapea a openai-codex/gpt-5.4 para el uso de OAuth de ChatGPT/Codex.
Si tu cuenta de Codex tiene acceso a Codex Spark, OpenClaw tambien soporta:
openai-codex/gpt-5.3-codex-spark
OpenClaw trata Codex Spark como exclusivo de Codex. No expone una ruta directa
openai/gpt-5.3-codex-spark con clave API.
OpenClaw tambien preserva openai-codex/gpt-5.3-codex-spark cuando pi-ai
lo descubre. Tratalo como dependiente de la suscripcion y experimental: Codex Spark es
independiente de GPT-5.4 /fast, y la disponibilidad depende de la cuenta de Codex /
ChatGPT con la que se inicio sesion.
Transporte predeterminado
OpenClaw usa pi-ai para el streaming de modelos. Tanto para openai/* como para
openai-codex/*, el transporte predeterminado es "auto" (WebSocket primero, luego
respaldo SSE).
Puedes establecer agents.defaults.models.<provider/model>.params.transport:
"sse": forzar SSE"websocket": forzar WebSocket"auto": intentar WebSocket, luego recurrir a SSE
Para openai/* (API Responses), OpenClaw tambien habilita el calentamiento de WebSocket por
defecto (openaiWsWarmup: true) cuando se usa transporte WebSocket.
Documentacion relacionada de OpenAI:
{
agents: {
defaults: {
model: { primary: "openai-codex/gpt-5.4" },
models: {
"openai-codex/gpt-5.4": {
params: {
transport: "auto",
},
},
},
},
},
}
Calentamiento de WebSocket de OpenAI
La documentacion de OpenAI describe el calentamiento como opcional. OpenClaw lo habilita por defecto para
openai/* para reducir la latencia del primer turno cuando se usa transporte WebSocket.
Desactivar calentamiento
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: false,
},
},
},
},
},
}
Habilitar calentamiento explicitamente
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: true,
},
},
},
},
},
}
Procesamiento prioritario de OpenAI
La API de OpenAI expone el procesamiento prioritario via service_tier=priority. En
OpenClaw, establece agents.defaults.models["openai/<model>"].params.serviceTier para
pasar ese campo en las solicitudes directas Responses de openai/*.
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
},
},
},
}
Los valores soportados son auto, default, flex y priority.
Modo rapido de OpenAI
OpenClaw expone un control compartido de modo rapido tanto para sesiones openai/* como
openai-codex/*:
- Chat/UI:
/fast status|on|off - Config:
agents.defaults.models["<provider>/<model>"].params.fastMode
Cuando el modo rapido esta habilitado, OpenClaw aplica un perfil de baja latencia de OpenAI:
reasoning.effort = "low"cuando el payload no especifica razonamientotext.verbosity = "low"cuando el payload no especifica verbosidadservice_tier = "priority"para llamadas directas Responses deopenai/*aapi.openai.com
Ejemplo:
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
fastMode: true,
},
},
"openai-codex/gpt-5.4": {
params: {
fastMode: true,
},
},
},
},
},
}
Las anulaciones de sesion tienen prioridad sobre la configuracion. Limpiar la anulacion de sesion en la UI de Sessions devuelve la sesion al valor predeterminado configurado.
Compactacion del lado del servidor de OpenAI Responses
Para modelos directos de OpenAI Responses (openai/* usando api: "openai-responses" con
baseUrl en api.openai.com), OpenClaw ahora habilita automaticamente las indicaciones de payload
de compactacion del lado del servidor de OpenAI:
- Fuerza
store: true(a menos que la compatibilidad del modelo establezcasupportsStore: false) - Inyecta
context_management: [{ type: "compaction", compact_threshold: ... }]
Por defecto, compact_threshold es el 70% de contextWindow del modelo (o 80000
cuando no esta disponible).
Habilitar compactacion del lado del servidor explicitamente
Usa esto cuando quieras forzar la inyeccion de context_management en modelos
Responses compatibles (por ejemplo, Azure OpenAI Responses):
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.4": {
params: {
responsesServerCompaction: true,
},
},
},
},
},
}
Habilitar con un umbral personalizado
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
Desactivar compactacion del lado del servidor
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: false,
},
},
},
},
},
}
responsesServerCompaction solo controla la inyeccion de context_management.
Los modelos directos de OpenAI Responses siguen forzando store: true a menos que la compatibilidad establezca
supportsStore: false.
Notas
- Las referencias de modelos siempre usan
provider/model(ver /concepts/models). - Los detalles de autenticacion y las reglas de reutilizacion estan en /concepts/oauth.