OpenAI
OpenAI bietet Entwickler-APIs für GPT-Modelle. Codex unterstützt die ChatGPT-Anmeldung für Abo-Zugang oder die API-Key-Anmeldung für nutzungsbasierte Abrechnung. Codex Cloud erfordert eine ChatGPT-Anmeldung. OpenAI unterstützt die Nutzung von Abo-OAuth in externen Tools/Workflows wie OpenClaw ausdrücklich.
Option A: OpenAI API-Key (OpenAI Platform)
Ideal für: direkten API-Zugang und nutzungsbasierte Abrechnung. Hole dir deinen API-Key im OpenAI-Dashboard.
CLI-Einrichtung
openclaw onboard --auth-choice openai-api-key
# oder nicht-interaktiv
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
Konfigurationsbeispiel
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
In der aktuellen API-Modelldokumentation von OpenAI sind gpt-5.4 und gpt-5.4-pro für die direkte OpenAI-API-Nutzung aufgeführt. OpenClaw leitet beide über den openai/* Responses-Pfad weiter.
OpenClaw unterdrückt bewusst die veraltete Zeile openai/gpt-5.3-codex-spark, da direkte OpenAI-API-Aufrufe sie im Live-Betrieb ablehnen.
OpenClaw stellt openai/gpt-5.3-codex-spark auf dem direkten OpenAI-API-Pfad nicht bereit. pi-ai liefert zwar eine eingebaute Zeile für dieses Modell, aber live OpenAI-API-Anfragen lehnen es derzeit ab. Spark wird in OpenClaw als Codex-exklusiv behandelt.
Option B: OpenAI Code (Codex) Abonnement
Ideal für: Nutzung des ChatGPT-/Codex-Abo-Zugangs anstelle eines API-Keys. Codex Cloud erfordert eine ChatGPT-Anmeldung, während die Codex-CLI sowohl ChatGPT- als auch API-Key-Anmeldung unterstützt.
CLI-Einrichtung (Codex OAuth)
# Codex OAuth im Assistenten starten
openclaw onboard --auth-choice openai-codex
# Oder OAuth direkt ausführen
openclaw models auth login --provider openai-codex
Konfigurationsbeispiel (Codex-Abonnement)
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}
In der aktuellen Codex-Dokumentation von OpenAI ist gpt-5.4 als aktuelles Codex-Modell aufgeführt. OpenClaw bildet das auf openai-codex/gpt-5.4 für die ChatGPT-/Codex-OAuth-Nutzung ab.
Wenn dein Codex-Konto Zugang zu Codex Spark hat, unterstützt OpenClaw auch:
openai-codex/gpt-5.3-codex-spark
OpenClaw behandelt Codex Spark als Codex-exklusiv. Es stellt keinen direkten openai/gpt-5.3-codex-spark API-Key-Pfad bereit.
OpenClaw behält openai-codex/gpt-5.3-codex-spark auch bei, wenn pi-ai es erkennt. Behandle es als berechtigungsabhängig und experimentell: Codex Spark ist von GPT-5.4 /fast getrennt, und die Verfügbarkeit hängt vom angemeldeten Codex-/ChatGPT-Konto ab.
Standard-Transport
OpenClaw nutzt pi-ai für Model-Streaming. Sowohl für openai/* als auch für openai-codex/* ist der Standard-Transport "auto" (zuerst WebSocket, dann SSE-Fallback).
Du kannst agents.defaults.models.<provider/model>.params.transport setzen:
"sse": SSE erzwingen"websocket": WebSocket erzwingen"auto": WebSocket versuchen, dann auf SSE zurückfallen
Für openai/* (Responses API) aktiviert OpenClaw standardmäßig auch WebSocket-Warm-up (openaiWsWarmup: true), wenn WebSocket-Transport verwendet wird.
Relevante OpenAI-Dokumentation:
{
agents: {
defaults: {
model: { primary: "openai-codex/gpt-5.4" },
models: {
"openai-codex/gpt-5.4": {
params: {
transport: "auto",
},
},
},
},
},
}
OpenAI WebSocket-Warm-up
Die OpenAI-Dokumentation beschreibt Warm-up als optional. OpenClaw aktiviert es standardmäßig für openai/*, um die Latenz beim ersten Turn bei WebSocket-Transport zu reduzieren.
Warm-up deaktivieren
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: false,
},
},
},
},
},
}
Warm-up explizit aktivieren
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: true,
},
},
},
},
},
}
OpenAI Priority Processing
Die OpenAI-API bietet Priority Processing über service_tier=priority. In OpenClaw kannst du agents.defaults.models["openai/<model>"].params.serviceTier setzen, um dieses Feld bei direkten openai/* Responses-Anfragen durchzureichen.
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
},
},
},
}
Unterstützte Werte sind auto, default, flex und priority.
OpenAI Fast Mode
OpenClaw bietet einen gemeinsamen Fast-Mode-Schalter für sowohl openai/*- als auch openai-codex/*-Sessions:
- Chat/UI:
/fast status|on|off - Config:
agents.defaults.models["<provider>/<model>"].params.fastMode
Wenn der Fast Mode aktiviert ist, wendet OpenClaw ein OpenAI-Profil mit niedriger Latenz an:
reasoning.effort = "low", wenn die Payload kein Reasoning angibttext.verbosity = "low", wenn die Payload keine Verbosity angibtservice_tier = "priority"für direkteopenai/*Responses-Aufrufe anapi.openai.com
Beispiel:
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
fastMode: true,
},
},
"openai-codex/gpt-5.4": {
params: {
fastMode: true,
},
},
},
},
},
}
Session-Overrides haben Vorrang vor der Konfiguration. Das Zurücksetzen des Session-Overrides in der Sessions-UI stellt die konfigurierte Standardeinstellung wieder her.
OpenAI Responses serverseitige Komprimierung
Für direkte OpenAI Responses-Modelle (openai/* mit api: "openai-responses" und baseUrl auf api.openai.com) aktiviert OpenClaw jetzt automatisch serverseitige Komprimierungs-Payload-Hints:
- Erzwingt
store: true(es sei denn, die Modellkompatibilität setztsupportsStore: false) - Injiziert
context_management: [{ type: "compaction", compact_threshold: ... }]
Standardmäßig beträgt compact_threshold 70% des contextWindow des Modells (oder 80000, wenn nicht verfügbar).
Serverseitige Komprimierung explizit aktivieren
Nutze dies, wenn du die context_management-Injektion auf kompatiblen Responses-Modellen erzwingen möchtest (zum Beispiel Azure OpenAI Responses):
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.4": {
params: {
responsesServerCompaction: true,
},
},
},
},
},
}
Mit benutzerdefiniertem Schwellenwert aktivieren
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
Serverseitige Komprimierung deaktivieren
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: false,
},
},
},
},
},
}
responsesServerCompaction steuert nur die context_management-Injektion. Direkte OpenAI Responses-Modelle erzwingen weiterhin store: true, es sei denn, die Kompatibilität setzt supportsStore: false.
Hinweise
- Modellreferenzen verwenden immer
provider/model(siehe /concepts/models). - Auth-Details und Wiederverwendungsregeln findest du unter /concepts/oauth.