Ventana de Contexto y Compactación
Cada modelo tiene una ventana de contexto (máximo de tokens que puede ver). Los chats de larga duración acumulan mensajes y resultados de herramientas; cuando la ventana se ajusta, OpenClaw compacta el historial más antiguo para mantenerse dentro de los límites.
Qué es la compactación
La compactación resume la conversación más antigua en una entrada de resumen compacto y mantiene intactos los mensajes recientes. El resumen se almacena en el historial de la sesión, por lo que las futuras solicitudes usan:
- El resumen de compactación
- Los mensajes recientes después del punto de compactación
La compactación persiste en el historial JSONL de la sesión.
Configuración
Usa el ajuste agents.defaults.compaction en tu openclaw.json para configurar el comportamiento de compactación (modo, tokens objetivo, etc.).
La sumarización de compactación preserva identificadores opacos por defecto (identifierPolicy: "strict"). Puedes sobrescribir esto con identifierPolicy: "off" o proporcionar texto personalizado con identifierPolicy: "custom" e identifierInstructions.
Opcionalmente puedes especificar un modelo diferente para la sumarización de compactación vía agents.defaults.compaction.model. Esto es útil cuando tu modelo principal es un modelo local o pequeño y quieres que los resúmenes de compactación los produzca un modelo más capaz. La sobrescritura acepta cualquier cadena provider/model-id:
{
"agents": {
"defaults": {
"compaction": {
"model": "openrouter/anthropic/claude-sonnet-4-5"
}
}
}
}
Esto también funciona con modelos locales, por ejemplo un segundo modelo de Ollama dedicado a sumarización o un especialista en compactación ajustado:
{
"agents": {
"defaults": {
"compaction": {
"model": "ollama/llama3.1:8b"
}
}
}
}
Cuando no se establece, la compactación usa el modelo principal del agente.
Auto-compactación (activada por defecto)
Cuando una sesión se acerca o supera la ventana de contexto del modelo, OpenClaw activa la auto-compactación y puede reintentar la solicitud original usando el contexto compactado.
Verás:
🧹 Auto-compaction completeen modo verbose/statusmostrando🧹 Compactions: <conteo>
Antes de la compactación, OpenClaw puede ejecutar un turno silencioso de vaciado de memoria para almacenar notas duraderas en disco. Consulta Memoria para detalles y configuración.
Compactación manual
Usa /compact (opcionalmente con instrucciones) para forzar un pase de compactación:
/compact Focus on decisions and open questions
Origen de la ventana de contexto
La ventana de contexto es específica del modelo. OpenClaw usa la definición del modelo del catálogo del provider configurado para determinar los límites.
Compactación vs recorte
- Compactación: resume y persiste en JSONL.
- Recorte de sesión: elimina solo resultados de herramientas antiguos, en memoria, por solicitud.
Consulta /concepts/session-pruning para detalles del recorte.
Compactación server-side de OpenAI
OpenClaw también soporta indicaciones de compactación server-side de OpenAI Responses para modelos compatibles de OpenAI directos. Esto es independiente de la compactación local de OpenClaw y puede ejecutarse junto con ella.
- Compactación local: OpenClaw resume y persiste en el JSONL de la sesión.
- Compactación server-side: OpenAI compacta el contexto en el lado del provider cuando
store+context_managementestán habilitados.
Consulta Provider de OpenAI para parámetros del modelo y sobrescrituras.
Consejos
- Usa
/compactcuando las sesiones se sientan obsoletas o el contexto esté inflado. - Las salidas grandes de herramientas ya se truncan; el recorte puede reducir aún más la acumulación de resultados de herramientas.
- Si necesitas empezar de cero,
/newo/resetinicia un nuevo ID de sesión.