OpenAI

OpenAI bietet Entwickler-APIs für GPT-Modelle. Codex unterstützt die ChatGPT-Anmeldung für Abo-Zugang oder die API-Key-Anmeldung für nutzungsbasierte Abrechnung. Codex Cloud erfordert eine ChatGPT-Anmeldung. OpenAI unterstützt die Nutzung von Abo-OAuth in externen Tools/Workflows wie OpenClaw ausdrücklich.

Option A: OpenAI API-Key (OpenAI Platform)

Ideal für: direkten API-Zugang und nutzungsbasierte Abrechnung. Hole dir deinen API-Key im OpenAI-Dashboard.

CLI-Einrichtung

openclaw onboard --auth-choice openai-api-key
# oder nicht-interaktiv
openclaw onboard --openai-api-key "$OPENAI_API_KEY"

Konfigurationsbeispiel

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

In der aktuellen API-Modelldokumentation von OpenAI sind gpt-5.4 und gpt-5.4-pro für die direkte OpenAI-API-Nutzung aufgeführt. OpenClaw leitet beide über den openai/* Responses-Pfad weiter. OpenClaw unterdrückt bewusst die veraltete Zeile openai/gpt-5.3-codex-spark, da direkte OpenAI-API-Aufrufe sie im Live-Betrieb ablehnen.

OpenClaw stellt openai/gpt-5.3-codex-spark auf dem direkten OpenAI-API-Pfad nicht bereit. pi-ai liefert zwar eine eingebaute Zeile für dieses Modell, aber live OpenAI-API-Anfragen lehnen es derzeit ab. Spark wird in OpenClaw als Codex-exklusiv behandelt.

Option B: OpenAI Code (Codex) Abonnement

Ideal für: Nutzung des ChatGPT-/Codex-Abo-Zugangs anstelle eines API-Keys. Codex Cloud erfordert eine ChatGPT-Anmeldung, während die Codex-CLI sowohl ChatGPT- als auch API-Key-Anmeldung unterstützt.

CLI-Einrichtung (Codex OAuth)

# Codex OAuth im Assistenten starten
openclaw onboard --auth-choice openai-codex

# Oder OAuth direkt ausführen
openclaw models auth login --provider openai-codex

Konfigurationsbeispiel (Codex-Abonnement)

{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

In der aktuellen Codex-Dokumentation von OpenAI ist gpt-5.4 als aktuelles Codex-Modell aufgeführt. OpenClaw bildet das auf openai-codex/gpt-5.4 für die ChatGPT-/Codex-OAuth-Nutzung ab.

Wenn dein Codex-Konto Zugang zu Codex Spark hat, unterstützt OpenClaw auch:

  • openai-codex/gpt-5.3-codex-spark

OpenClaw behandelt Codex Spark als Codex-exklusiv. Es stellt keinen direkten openai/gpt-5.3-codex-spark API-Key-Pfad bereit.

OpenClaw behält openai-codex/gpt-5.3-codex-spark auch bei, wenn pi-ai es erkennt. Behandle es als berechtigungsabhängig und experimentell: Codex Spark ist von GPT-5.4 /fast getrennt, und die Verfügbarkeit hängt vom angemeldeten Codex-/ChatGPT-Konto ab.

Standard-Transport

OpenClaw nutzt pi-ai für Model-Streaming. Sowohl für openai/* als auch für openai-codex/* ist der Standard-Transport "auto" (zuerst WebSocket, dann SSE-Fallback).

Du kannst agents.defaults.models.<provider/model>.params.transport setzen:

  • "sse": SSE erzwingen
  • "websocket": WebSocket erzwingen
  • "auto": WebSocket versuchen, dann auf SSE zurückfallen

Für openai/* (Responses API) aktiviert OpenClaw standardmäßig auch WebSocket-Warm-up (openaiWsWarmup: true), wenn WebSocket-Transport verwendet wird.

Relevante OpenAI-Dokumentation:

{
  agents: {
    defaults: {
      model: { primary: "openai-codex/gpt-5.4" },
      models: {
        "openai-codex/gpt-5.4": {
          params: {
            transport: "auto",
          },
        },
      },
    },
  },
}

OpenAI WebSocket-Warm-up

Die OpenAI-Dokumentation beschreibt Warm-up als optional. OpenClaw aktiviert es standardmäßig für openai/*, um die Latenz beim ersten Turn bei WebSocket-Transport zu reduzieren.

Warm-up deaktivieren

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            openaiWsWarmup: false,
          },
        },
      },
    },
  },
}

Warm-up explizit aktivieren

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            openaiWsWarmup: true,
          },
        },
      },
    },
  },
}

OpenAI Priority Processing

Die OpenAI-API bietet Priority Processing über service_tier=priority. In OpenClaw kannst du agents.defaults.models["openai/<model>"].params.serviceTier setzen, um dieses Feld bei direkten openai/* Responses-Anfragen durchzureichen.

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            serviceTier: "priority",
          },
        },
      },
    },
  },
}

Unterstützte Werte sind auto, default, flex und priority.

OpenAI Fast Mode

OpenClaw bietet einen gemeinsamen Fast-Mode-Schalter für sowohl openai/*- als auch openai-codex/*-Sessions:

  • Chat/UI: /fast status|on|off
  • Config: agents.defaults.models["<provider>/<model>"].params.fastMode

Wenn der Fast Mode aktiviert ist, wendet OpenClaw ein OpenAI-Profil mit niedriger Latenz an:

  • reasoning.effort = "low", wenn die Payload kein Reasoning angibt
  • text.verbosity = "low", wenn die Payload keine Verbosity angibt
  • service_tier = "priority" für direkte openai/* Responses-Aufrufe an api.openai.com

Beispiel:

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            fastMode: true,
          },
        },
        "openai-codex/gpt-5.4": {
          params: {
            fastMode: true,
          },
        },
      },
    },
  },
}

Session-Overrides haben Vorrang vor der Konfiguration. Das Zurücksetzen des Session-Overrides in der Sessions-UI stellt die konfigurierte Standardeinstellung wieder her.

OpenAI Responses serverseitige Komprimierung

Für direkte OpenAI Responses-Modelle (openai/* mit api: "openai-responses" und baseUrl auf api.openai.com) aktiviert OpenClaw jetzt automatisch serverseitige Komprimierungs-Payload-Hints:

  • Erzwingt store: true (es sei denn, die Modellkompatibilität setzt supportsStore: false)
  • Injiziert context_management: [{ type: "compaction", compact_threshold: ... }]

Standardmäßig beträgt compact_threshold 70% des contextWindow des Modells (oder 80000, wenn nicht verfügbar).

Serverseitige Komprimierung explizit aktivieren

Nutze dies, wenn du die context_management-Injektion auf kompatiblen Responses-Modellen erzwingen möchtest (zum Beispiel Azure OpenAI Responses):

{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.4": {
          params: {
            responsesServerCompaction: true,
          },
        },
      },
    },
  },
}

Mit benutzerdefiniertem Schwellenwert aktivieren

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            responsesServerCompaction: true,
            responsesCompactThreshold: 120000,
          },
        },
      },
    },
  },
}

Serverseitige Komprimierung deaktivieren

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            responsesServerCompaction: false,
          },
        },
      },
    },
  },
}

responsesServerCompaction steuert nur die context_management-Injektion. Direkte OpenAI Responses-Modelle erzwingen weiterhin store: true, es sei denn, die Kompatibilität setzt supportsStore: false.

Hinweise