Token-Nutzung & Kosten

OpenClaw verfolgt Tokens, nicht Zeichen. Tokens sind modellspezifisch, aber die meisten OpenAI-artigen Modelle haben im Schnitt ~4 Zeichen pro Token fuer englischen Text.

Wie der System-Prompt aufgebaut wird

OpenClaw stellt bei jedem Run seinen eigenen System-Prompt zusammen: Tool-Liste, Skills-Liste, Workspace + Bootstrap-Dateien, Zeit, Reply-Tags, Runtime-Metadaten.

Siehe die volle Aufschluesselung unter System Prompt.

Was im Kontextfenster zaehlt

Alles was das Modell empfaengt zaehlt: System-Prompt, Konversationshistorie, Tool-Calls und -Ergebnisse, Anhaenge, Compaction-Zusammenfassungen, Provider-Wrapper.

Aktuelle Token-Nutzung anzeigen

  • /status zeigt eine Statuskarte mit Session-Modell, Kontext-Nutzung und geschaetzten Kosten.
  • /usage off|tokens|full haengt einen Per-Antwort-Nutzungs-Footer an.
  • /usage cost zeigt eine lokale Kosten-Zusammenfassung.

Kostenabschaetzung

Kosten werden aus der Modell-Preiskonfiguration geschaetzt: models.providers.<provider>.models[].cost (USD pro 1M Tokens fuer input, output, cacheRead, cacheWrite).

Cache-TTL und Pruning-Einfluss

Provider-Prompt-Caching gilt nur innerhalb des Cache-TTL-Fensters. Heartbeat kann den Cache ueber Idle-Luecken hinweg warm halten.

Tipps zur Reduktion von Token-Druck

  • /compact fuer lange Sessions verwenden.
  • Grosse Tool-Outputs in Workflows kuerzen.
  • agents.defaults.imageMaxDimensionPx fuer screenshot-intensive Sessions senken.
  • Skill-Beschreibungen kurz halten.
  • Kleinere Modelle fuer ausfuehrliche, explorative Arbeit bevorzugen.