Token-Nutzung & Kosten
OpenClaw verfolgt Tokens, nicht Zeichen. Tokens sind modellspezifisch, aber die meisten OpenAI-artigen Modelle haben im Schnitt ~4 Zeichen pro Token fuer englischen Text.
Wie der System-Prompt aufgebaut wird
OpenClaw stellt bei jedem Run seinen eigenen System-Prompt zusammen: Tool-Liste, Skills-Liste, Workspace + Bootstrap-Dateien, Zeit, Reply-Tags, Runtime-Metadaten.
Siehe die volle Aufschluesselung unter System Prompt.
Was im Kontextfenster zaehlt
Alles was das Modell empfaengt zaehlt: System-Prompt, Konversationshistorie, Tool-Calls und -Ergebnisse, Anhaenge, Compaction-Zusammenfassungen, Provider-Wrapper.
Aktuelle Token-Nutzung anzeigen
/statuszeigt eine Statuskarte mit Session-Modell, Kontext-Nutzung und geschaetzten Kosten./usage off|tokens|fullhaengt einen Per-Antwort-Nutzungs-Footer an./usage costzeigt eine lokale Kosten-Zusammenfassung.
Kostenabschaetzung
Kosten werden aus der Modell-Preiskonfiguration geschaetzt: models.providers.<provider>.models[].cost (USD pro 1M Tokens fuer input, output, cacheRead, cacheWrite).
Cache-TTL und Pruning-Einfluss
Provider-Prompt-Caching gilt nur innerhalb des Cache-TTL-Fensters. Heartbeat kann den Cache ueber Idle-Luecken hinweg warm halten.
Tipps zur Reduktion von Token-Druck
/compactfuer lange Sessions verwenden.- Grosse Tool-Outputs in Workflows kuerzen.
agents.defaults.imageMaxDimensionPxfuer screenshot-intensive Sessions senken.- Skill-Beschreibungen kurz halten.
- Kleinere Modelle fuer ausfuehrliche, explorative Arbeit bevorzugen.