Kontextfenster und Compaction
Jedes Modell hat ein Kontextfenster (maximale Anzahl an Tokens, die es sehen kann). Langlebige Chats sammeln Nachrichten und Tool-Ergebnisse an; wenn das Fenster eng wird, komprimiert OpenClaw aeltere Historie, um innerhalb der Limits zu bleiben.
Was Compaction ist
Compaction fasst aeltere Konversation zusammen zu einem kompakten Zusammenfassungseintrag und laesst neuere Nachrichten intakt. Die Zusammenfassung wird in der Sitzungshistorie gespeichert, sodass zukuenftige Anfragen verwenden:
- Die Compaction-Zusammenfassung
- Neuere Nachrichten nach dem Compaction-Punkt
Compaction persistiert in der JSONL-Sitzungshistorie.
Konfiguration
Verwende die Einstellung agents.defaults.compaction in deiner openclaw.json, um das Compaction-Verhalten zu konfigurieren (Modus, Ziel-Tokens usw.).
Compaction-Zusammenfassungen bewahren standardmaessig opake Bezeichner (identifierPolicy: "strict"). Du kannst das mit identifierPolicy: "off" ueberschreiben oder eigenen Text bereitstellen mit identifierPolicy: "custom" und identifierInstructions.
Optional kannst du ein anderes Modell fuer die Compaction-Zusammenfassung angeben ueber agents.defaults.compaction.model. Das ist nuetzlich, wenn dein primaeres Modell ein lokales oder kleines Modell ist und du Compaction-Zusammenfassungen von einem leistungsfaehigeren Modell erstellen lassen willst. Der Override akzeptiert jeden provider/model-id-String:
{
"agents": {
"defaults": {
"compaction": {
"model": "openrouter/anthropic/claude-sonnet-4-5"
}
}
}
}
Das funktioniert auch mit lokalen Modellen, zum Beispiel einem zweiten Ollama-Modell fuer die Zusammenfassung oder einem feinabgestimmten Compaction-Spezialisten:
{
"agents": {
"defaults": {
"compaction": {
"model": "ollama/llama3.1:8b"
}
}
}
}
Wenn nicht gesetzt, verwendet Compaction das primaere Modell des Agenten.
Auto-Compaction (standardmaessig an)
Wenn eine Sitzung sich dem Kontextfenster des Modells naehert oder es ueberschreitet, loest OpenClaw Auto-Compaction aus und wiederholt moeglicherweise die urspruengliche Anfrage mit dem komprimierten Kontext.
Du wirst sehen:
🧹 Auto-compaction completeim Verbose-Modus/statuszeigt🧹 Compactions: <anzahl>
Vor der Compaction kann OpenClaw einen stillen Memory-Flush-Turn ausfuehren, um dauerhafte Notizen auf die Festplatte zu schreiben. Siehe Memory fuer Details und Konfiguration.
Manuelle Compaction
Verwende /compact (optional mit Anweisungen), um einen Compaction-Durchlauf zu erzwingen:
/compact Focus on decisions and open questions
Kontextfenster-Quelle
Das Kontextfenster ist modellspezifisch. OpenClaw nutzt die Modelldefinition aus dem konfigurierten Provider-Katalog, um Limits zu bestimmen.
Compaction vs. Pruning
- Compaction: fasst zusammen und persistiert in JSONL.
- Session-Pruning: kuerzt alte Tool-Ergebnisse nur im Arbeitsspeicher, pro Anfrage.
Siehe /concepts/session-pruning fuer Pruning-Details.
OpenAI-serverseitige Compaction
OpenClaw unterstuetzt auch OpenAI-Responses-serverseitige Compaction-Hinweise fuer kompatible direkte OpenAI-Modelle. Das ist getrennt von der lokalen OpenClaw-Compaction und kann parallel dazu laufen.
- Lokale Compaction: OpenClaw fasst zusammen und persistiert in die Sitzungs-JSONL.
- Serverseitige Compaction: OpenAI komprimiert den Kontext auf Provider-Seite, wenn
store+context_managementaktiviert sind.
Siehe OpenAI-Provider fuer Modellparameter und Overrides.
Tipps
- Verwende
/compact, wenn Sitzungen veraltet wirken oder der Kontext aufgeblaeht ist. - Grosse Tool-Outputs werden bereits gekuerzt; Pruning kann den Tool-Ergebnis-Aufbau weiter reduzieren.
- Wenn du einen frischen Start brauchst, startet
/newoder/reseteine neue Sitzungs-ID.