Uso de tokens y costos

OpenClaw rastrea tokens, no caracteres. Los tokens son específicos del modelo, pero la mayoría de los modelos estilo OpenAI promedian ~4 caracteres por token para texto en inglés.

Cómo se construye el system prompt

OpenClaw ensambla su propio system prompt en cada ejecución. Incluye:

  • Lista de herramientas + descripciones cortas
  • Lista de habilidades (solo metadatos; las instrucciones se cargan bajo demanda con read)
  • Instrucciones de auto-actualización
  • Workspace + archivos de bootstrap (AGENTS.md, SOUL.md, TOOLS.md, IDENTITY.md, USER.md, HEARTBEAT.md, BOOTSTRAP.md cuando es nuevo, más MEMORY.md cuando está presente o memory.md como fallback en minúsculas)
  • Hora (UTC + zona horaria del usuario)
  • Tags de respuesta + comportamiento de heartbeat
  • Metadatos de runtime (host/OS/modelo/thinking)

Qué cuenta en la ventana de contexto

Todo lo que recibe el modelo cuenta para el límite de contexto: system prompt, historial de conversación, llamadas de herramientas y resultados, adjuntos, resúmenes de compactación, y headers de seguridad del proveedor.

Cómo ver el uso actual de tokens

  • /status -> tarjeta de estado con modelo de sesión, uso de contexto, tokens de la última respuesta y costo estimado (solo API key).
  • /usage off|tokens|full -> agrega un pie de uso por respuesta a cada respuesta.
  • /usage cost -> muestra un resumen de costos local desde los logs de sesión de OpenClaw.

Estimación de costos (cuándo se muestra)

Los costos se estiman desde tu configuración de precios del modelo: models.providers.<provider>.models[].cost. Estos son USD por 1M tokens para input, output, cacheRead y cacheWrite.

Impacto de TTL de caché y poda

El caché de prompts del proveedor solo aplica dentro de la ventana de TTL del caché. OpenClaw puede opcionalmente ejecutar poda por cache-ttl: poda la sesión una vez que el TTL del caché ha expirado.

El heartbeat puede mantener la caché caliente durante períodos de inactividad.

Consejos para reducir la presión de tokens

  • Usa /compact para resumir sesiones largas.
  • Recorta salidas grandes de herramientas en tus flujos de trabajo.
  • Reduce agents.defaults.imageMaxDimensionPx para sesiones con muchas capturas de pantalla.
  • Mantén las descripciones de habilidades cortas (la lista de habilidades se inyecta en el prompt).
  • Prefiere modelos más pequeños para trabajo verboso y exploratorio.

Consulta Habilidades para la fórmula exacta del overhead de la lista de habilidades.