Nos saltamos el post del 3.11. No porque no haya pasado nada —3.11 estuvo repleto de cambios— sino porque el 3.12 llegó cuatro días después y tenía más sentido cubrirlos juntos. Dos versiones, un solo post.
Aquí va todo lo que importa.
Control UI: Dashboard v2
La Control UI fue reescrita desde cero. No fue un restyling —fue un replanteamiento completo.
El dashboard antiguo era una sola página que intentaba hacerlo todo. El nuevo se divide en vistas dedicadas: Overview, Chat, Config, Agent y Sessions. Cada una hace una cosa bien. Hay una paleta de comandos (Cmd+K) para usuarios avanzados, pestañas inferiores en móvil para acceso desde el teléfono, y la vista de chat ahora soporta slash commands, búsqueda de mensajes, exportación y mensajes fijados.
Este es el trabajo de @BunsDev en el PR #41503, y es el tipo de contribución que cambia cómo la gente interactúa con OpenClaw a diario. Si gestionas tu instancia desde el navegador, ahora la experiencia es completamente distinta.
Fast Mode: GPT-5.4 y Claude, un solo toggle
El fast mode solía ser un concepto vago —algunos modelos lo tenían, el toggle era inconsistente y el comportamiento variaba según la interfaz.
El 3.12 lo unifica. Ahora hay un único toggle /fast que funciona en TUI, Control UI y ACP. Para OpenAI, moldea las peticiones para el fast tier de GPT-5.4. Para Anthropic, mapea directamente al parámetro service_tier de la API. Ambos se verifican en tiempo real —si tu cuenta no tiene acceso al fast tier, el sistema te lo dice en lugar de degradar silenciosamente.
Los valores por defecto de configuración por modelo te permiten establecer el fast mode como predeterminado para modelos específicos mientras mantienes el modo estándar para otros. Las sobreescrituras a nivel de sesión te dejan cambiarlo a mitad de una conversación.
Un toggle, dos proveedores, comportamiento consistente en todas partes. Eso es todo.
Ollama: ciudadano de primera clase (3.11)
Ollama pasó de "soportado" a "primera clase" en el 3.11.
El asistente de configuración inicial ahora tiene un camino dedicado para Ollama con dos modos: Local (todo corre en tu máquina) y Cloud + Local (modelos en la nube para tareas pesadas, local para tareas sensibles a la privacidad). Hay inicio de sesión cloud desde el navegador, sugerencias de modelos curadas según tu hardware, y una gestión inteligente que omite descargas locales innecesarias cuando usas modelos en la nube.
Esto importa porque los modelos locales son la respuesta a la privacidad. Sin API keys, sin datos que salgan de tu máquina, sin factura mensual. Para quienes quieran eso, el proceso de configuración es ahora tan fluido como el de cualquier proveedor en la nube. Gracias @BruceMacD.
Por otro lado, Ollama, vLLM y SGLang migraron todos a la arquitectura de plugins de proveedor en el 3.12. El onboarding, el descubrimiento de modelos, la configuración del picker y los hooks post-selección son ahora modulares. Si estás construyendo integraciones de proveedores personalizadas, este es el patrón a seguir.
Memoria Multimodal: imágenes y audio (3.11)
El sistema de memoria de OpenClaw aprendió a ver y escuchar.
El 3.11 añade indexación multimodal opcional para memorySearch.extraPaths. Apúntalo a una carpeta de imágenes o archivos de audio, y la búsqueda de memoria ahora puede mostrarlos en contexto. Internamente, usa el modelo gemini-embedding-2-preview de Gemini con dimensiones de salida configurables y reindexado automático cuando cambian las dimensiones.
Esto está detrás de una activación explícita —sin indexado sorpresa de tu biblioteca de fotos. Pero para quienes quieran que su agente recuerde contexto visual (capturas de pantalla, diagramas, recibos), es una adición significativa de capacidades. Gracias @gumadeiras.
iOS y macOS: la experiencia nativa mejora (3.11)
Dos mejoras importantes en plataformas nativas llegaron en el 3.11:
iOS Home Canvas (@ngutman): La app de iOS recibió una pantalla de bienvenida integrada con una vista general del agente en vivo que se actualiza al conectar, reconectar y volver al primer plano. Los controles flotantes fueron reemplazados por una barra de herramientas fija, el diseño se adapta a teléfonos más pequeños, y el chat ahora se abre en la sesión principal resuelta en lugar de una sesión iOS sintética. También: un flujo de lanzamiento beta en TestFlight con soporte de Fastlane.
macOS Chat UI (@ImLukeF): El compositor de chat en macOS ahora tiene un selector de modelos, persiste las selecciones de nivel de razonamiento entre reinicios, y sincroniza correctamente los modelos de sesión entre proveedores.
No son características de titular, pero se acumulan. Cada vez que la experiencia nativa se vuelve un poco más fluida, la brecha entre "uso OpenClaw por Telegram" y "uso OpenClaw de forma nativa" se hace más pequeña.
Kubernetes: un punto de partida
El 3.12 añade un punto de partida para instalar en Kubernetes: manifiestos básicos, configuración de Kind para pruebas locales, y documentación de despliegue. Gracias @sallyom, @dzianisv y @egkristi.
Esto no es un Helm chart endurecido para producción —es un punto de partida para equipos que quieren ejecutar OpenClaw en K8s. Espera que evolucione rápidamente según los comentarios de la comunidad.
Subagentes: sessions_yield
Un primitivo pequeño pero importante para la orquestación: sessions_yield permite que un agente orquestador termine el turno actual de inmediato, omita cualquier trabajo de herramienta en cola y lleve un payload de seguimiento oculto al siguiente turno de sesión.
Por qué importa: en flujos de trabajo multi-agente, a veces el orquestador necesita salir de un turno antes de tiempo —quizás llegó una tarea de mayor prioridad, quizás la cadena de herramientas actual está tomando un camino equivocado. Antes había que esperar a que todo el trabajo en cola se completara. Ahora puedes adelantarte. Gracias @jriff (#36537).
Seguridad: 8 avisos
Esta es la sección que deberías leer con cuidado si ejecutas OpenClaw en producción. Entre el 3.11 y el 3.12 hay 8 GitHub Security Advisories:
Crítico: validación de origen WebSocket (3.11) **GHSA-5wcw-8jjv-m286** — La validación de origen del navegador se omitía cuando los headers de proxy no estaban presentes. En modo trusted-proxy, esto abría un camino de secuestro de WebSocket entre sitios que podía otorgar acceso `operator.admin` a orígenes no confiables. Solución: la validación de origen ahora se ejecuta en todas las conexiones del navegador independientemente de los headers de proxy.
Correcciones de seguridad en 3.12
| Advisory | Qué | Impacto |
|---|---|---|
| GHSA-99qw-6mr3-36qr | Plugins de workspace cargados automáticamente sin confianza | Los repositorios clonados podían ejecutar código de plugins silenciosamente |
| GHSA-pcqg-f7rg-xfvv | Unicode invisible en prompts de aprobación de exec | Caracteres de ancho cero podían suplantar comandos revisados |
| GHSA-9r3v-37xh-2cf6 | Bypass de normalización Unicode en detección de exec | Caracteres de ancho completo/invisibles evadían las comprobaciones heurísticas |
| GHSA-f8r2-vg7x-gh8m | Sensibilidad de mayúsculas en allowlist de exec en POSIX | Los patrones podían coincidir en exceso entre mayúsculas/directorios |
| GHSA-r7vr-gr74-94p8 | Acceso de no-propietarios a /config y /debug | No-propietarios autorizados podían llegar a superficies solo para propietarios |
| GHSA-rqpp-rjj8-7wv8 | Auto-declaración de scope de token compartido | Los tokens sin dispositivo podían auto-declarar scopes elevados |
| GHSA-vmhq-cqm9-6p7q | Persistencia de perfil de navegador vía browser.request | Llamantes con scope de escritura podían persistir perfiles de navegador solo para admin |
| GHSA-2rqg-gjgv-84jm | Override de límite de workspace de agente | Llamantes externos podían sobreescribir los límites de workspace del gateway |
Las correcciones relacionadas con Unicode (GHSA-pcqg, GHSA-9r3v) valen especialmente la pena entenderlas. Los atacantes usaban caracteres Unicode de ancho cero y ancho completo para hacer que comandos maliciosos parecieran benignos en los prompts de aprobación. La corrección normaliza el Unicode y elimina el formato invisible tanto antes de mostrarlo como antes de la detección.
La corrección del plugin de workspace (GHSA-99qw) cambia un comportamiento por defecto: los plugins en repositorios clonados ya no se cargan automáticamente. Ahora necesitas una decisión explícita de confianza. Esto es un cambio que rompe la compatibilidad para quienes dependían de la carga implícita de plugins —y es intencional.
Conclusión: actualiza a 3.12. Estas no son vulnerabilidades teóricas.
El resto
Hay una larga cola de correcciones en ambas versiones que no caben en un post pero que importan a usuarios específicos:
- •Telegram: persistencia del selector de modelos, chunking HTML, deduplicación de entrega de previsualizaciones —cuatro correcciones separadas que abordan la fiabilidad de los mensajes
- •Kimi Coding: formato nativo de Anthropic restaurado para llamadas a herramientas, corrección del header User-Agent para autenticación de suscripción, compatibilidad con Ollama para kimi-k2.5:cloud
- •Mattermost: deduplicación de streaming de bloques, entrega de medios en respuestas con subida de archivos locales
- •BlueBubbles/iMessage: deduplicación de eco en self-chat sin supresión amplia del webhook
- •Windows: ruta de actualización nativa corregida —ya no falla por la ausencia de git o node-llama-cpp
- •Sandbox: las operaciones de escritura ya no crean silenciosamente archivos vacíos
- •Discord (3.11): duración de auto-archivo configurable para hilos
Qué cambió (combinado)
| Área | 3.11 | 3.12 |
|---|---|---|
| UI | iOS Home Canvas, selector de modelos en macOS | Control UI dashboard-v2, paleta de comandos |
| Modelos | Onboarding de primera clase para Ollama, proveedor OpenCode Go | Fast mode GPT-5.4, fast mode Claude, arquitectura plugin de proveedor |
| Memoria | Indexación multimodal de imágenes/audio con embeddings de Gemini | — |
| Infra | — | Manifiestos de Kubernetes, subagente sessions_yield |
| Seguridad | Validación de origen WebSocket (crítico) | 7 advisories: plugins, Unicode, scopes, workspace |
| Plataformas | Archivado de hilos en Discord, corrección de imágenes en Feishu | Slack Block Kit, correcciones en Mattermost, actualización nativa en Windows |
| Estabilidad | Entrega de previsualizaciones en Telegram (4 correcciones), mejoras en failover de agente | Dedup de cron, descubrimiento de sesiones, corrección de escritura en sandbox |
Dos versiones. Cero relleno. Actualiza ya.