We skipped de 3.11 blogpost. Niet omdat er niks gebeurde — 3.11 zat vol nieuws — maar omdat 3.12 vier dagen later kwam en het logischer was om ze samen te behandelen. Twee releases, één post.
Hier is alles wat ertoe doet.
Control UI: Dashboard v2
De Control UI is van scratch herschreven. Geen reskin — een volledige heroverweging.
Het oude dashboard was een enkele pagina die alles probeerde te doen. Het nieuwe splitst op in dedicated views: Overview, Chat, Config, Agent en Sessions. Elk doet één ding goed. Er is een command palette (Cmd+K) voor power users, bottom tabs voor mobiele toegang, en de chat view ondersteunt nu slash commands, berichtenzoeken, export en vastgepinde berichten.
Dit is het werk van @BunsDev in PR #41503, en het is het soort bijdrage dat verandert hoe mensen dagelijks met OpenClaw omgaan. Als je je instantie via de browser beheert, is de ervaring nu compleet anders.
Fast Mode: GPT-5.4 en Claude, één toggle
Fast mode was een vaag concept — sommige modellen hadden het, de toggle was inconsistent, en het gedrag varieerde per interface.
3.12 unificeert alles. Er is nu één /fast toggle die werkt in TUI, Control UI en ACP. Voor OpenAI configureert het verzoeken voor GPT-5.4's fast tier. Voor Anthropic mapt het direct naar de service_tier parameter van de API. Beide worden real-time gecontroleerd — als je account geen fast tier-toegang heeft, vertelt het systeem je dat in plaats van stil te degraderen.
Per-model configuratiestandaarden betekenen dat je fast mode als standaard kunt instellen voor specifieke modellen terwijl je de standaardmodus voor andere behoudt. Session-level overrides laten je midden in een gesprek wisselen.
Eén toggle, twee providers, consistent gedrag overal. Dat is het hele verhaal.
Ollama: eersteklas burger (3.11)
Ollama is in 3.11 van "ondersteund" naar "eerste klas" gegaan.
De onboarding wizard heeft nu een dedicated Ollama-pad met twee modi: Local (alles draait op je machine) en Cloud + Local (cloud-modellen voor zware taken, lokaal voor privacygevoelige taken). Er is browsergebaseerde cloud-login, gecureerde modelsuggesties op basis van je hardware, en slimme afhandeling die onnodige lokale downloads overslaat wanneer je cloud-modellen gebruikt.
Dit is belangrijk omdat lokale modellen het antwoord zijn op privacy. Geen API-keys, geen data die je machine verlaat, geen maandelijkse factuur. Voor gebruikers die dit willen, is het configuratiepad nu net zo soepel als dat van cloud-providers. Bedankt @BruceMacD.
Los daarvan zijn Ollama, vLLM en SGLang allemaal gemigreerd naar de provider-plugin architectuur in 3.12. Provider-owned onboarding, model discovery, picker setup en post-selectie hooks zijn nu modulair. Als je custom provider-integraties bouwt, is dit het patroon om te volgen.
Multimodaal geheugen: afbeeldingen en audio (3.11)
Het geheugensysteem van OpenClaw heeft leren zien en horen.
3.11 voegt opt-in multimodale indexering toe voor memorySearch.extraPaths. Wijs het naar een map met afbeeldingen of audiobestanden, en geheugenzoeken kan die bestanden nu in context bovenhalen. Onder de motorkap gebruikt het het gemini-embedding-2-preview model van Gemini met configureerbare outputdimensies en automatische herindexering wanneer dimensies veranderen.
Dit zit achter een expliciete opt-in — geen verrassende indexering van je fotobibliotheek. Maar voor gebruikers die willen dat hun agent visuele context onthoudt (screenshots, diagrammen, bonnetjes), is dit een significante toevoeging van mogelijkheden. Bedankt @gumadeiras.
iOS en macOS: native wordt beter (3.11)
Twee significante verbeteringen voor native platformen in 3.11:
iOS Home Canvas (@ngutman): De iOS-app kreeg een ingebouwd welkomstscherm met een live agent-overzicht dat ververst bij verbinding, herverbinding en terugkeer naar de voorgrond. Zwevende bedieningselementen zijn vervangen door een gedockte toolbar, de layout past zich aan kleinere telefoons aan, en chat opent nu in de opgeloste hoofdsessie in plaats van een synthetische iOS-sessie. Ook: een TestFlight beta release-flow met Fastlane-ondersteuning.
macOS Chat UI (@ImLukeF): De macOS chat composer heeft nu een modelselector, bewaart thinking level-selecties tussen herlanceringen en synchroniseert sessiemodellen correct tussen providers.
Dit zijn geen headlinefeatures, maar ze tellen op. Elke keer dat de native ervaring iets soepeler wordt, krimpt het verschil tussen "ik gebruik OpenClaw via Telegram" en "ik gebruik OpenClaw native".
Kubernetes: een startpunt
3.12 voegt een starter Kubernetes-installatiepad toe: raw manifests, Kind setup voor lokaal testen en deployment-documentatie. Bedankt @sallyom, @dzianisv en @egkristi.
Dit is geen productiegeharde Helm chart — het is een startpunt voor teams die OpenClaw op K8s willen draaien. Verwacht dat dit snel evolueert op basis van communityfeedback.
Subagents: sessions_yield
Een kleine maar belangrijke primitieve voor orkestratie: sessions_yield laat een orkestrator-agent de huidige beurt onmiddellijk beëindigen, wachtend toolwerk overslaan en een verborgen follow-up payload meenemen naar de volgende sessiebeurt.
Waarom dit belangrijk is: in multi-agent workflows moet de orkestrator soms vroeg uit een beurt stappen — misschien is er een taak met hogere prioriteit binnengekomen, misschien gaat de huidige toolketen de verkeerde kant op. Voorheen moest je wachten tot al het werk in de wachtrij klaar was. Nu kun je de wachtrij doorbreken. Bedankt @jriff (#36537).
Beveiliging: 8 advisories
Dit is de sectie die je echt zorgvuldig moet lezen als je OpenClaw in productie draait. Tussen 3.11 en 3.12 zijn er 8 GitHub Security Advisories:
Kritiek: WebSocket Origin Validatie (3.11) **GHSA-5wcw-8jjv-m286** — Browser origin-validatie werd overgeslagen wanneer proxy-headers niet aanwezig waren. In trusted-proxy modus opende dit een cross-site WebSocket hijacking-pad dat `operator.admin`-toegang aan onvertrouwde origins kon verlenen. Opgelost: origin-validatie draait nu op alle browserverbindingen ongeacht proxy-headers.
3.12 beveiligingsfixes
| Advisory | Wat | Impact |
|---|---|---|
| GHSA-99qw-6mr3-36qr | Workspace-plugins automatisch geladen zonder vertrouwen | Gekloonde repo's konden plugincode stil uitvoeren |
| GHSA-pcqg-f7rg-xfvv | Onzichtbaar Unicode in exec-goedkeuringsprompts | Zero-width karakters konden gecontroleerde commando's vervalsen |
| GHSA-9r3v-37xh-2cf6 | Unicode-normalisatie bypass in exec-detectie | Fullwidth/onzichtbare karakters omzeilden heuristische controles |
| GHSA-f8r2-vg7x-gh8m | Hoofdlettergevoeligheid van exec-allowlist op POSIX | Patronen konden te breed matchen over hoofdletters/directories |
| GHSA-r7vr-gr74-94p8 | Niet-eigenaar toegang tot /config en /debug | Geautoriseerde niet-eigenaren konden eigenaar-exclusieve oppervlakken bereiken |
| GHSA-rqpp-rjj8-7wv8 | Zelf-declaratie van shared token scope | Apparaatloze tokens konden zichzelf verhoogde scopes declareren |
| GHSA-vmhq-cqm9-6p7q | Browserprofiel-persistentie via browser.request | Write-scoped callers konden admin-exclusieve browserprofielen persisteren |
| GHSA-2rqg-gjgv-84jm | Agent workspace-limiet override | Externe callers konden gateway workspace-limieten overschrijven |
De Unicode-gerelateerde fixes (GHSA-pcqg, GHSA-9r3v) zijn het waard om goed te begrijpen. Aanvallers gebruikten zero-width en fullwidth Unicode-karakters om kwaadaardige commando's er goedaardig uit te laten zien in goedkeuringsprompts. De fix normaliseert Unicode en verwijdert onzichtbare opmaak vóór zowel weergave als detectie.
De workspace-plugin fix (GHSA-99qw) verandert een standaard: plugins in gekloonde repositories laden niet meer automatisch. Je hebt nu een expliciete vertrouwensbeslissing nodig. Dit is een breaking change voor iedereen die op impliciet laden van workspace-plugins vertrouwde — en dat is opzettelijk.
Conclusie: update naar 3.12. Dit zijn geen theoretische kwetsbaarheden.
De rest
Er is een lange staart van fixes in beide releases die niet in een blogpost past, maar die voor specifieke gebruikers belangrijk is:
- •Telegram: Modelselector-persistentie, HTML-chunking, preview-delivery deduplicatie — vier aparte fixes voor berichtbetrouwbaarheid
- •Kimi Coding: Native Anthropic-formaat hersteld voor tool calls, User-Agent header-fix voor subscriptie-authenticatie, Ollama-compatibiliteit voor kimi-k2.5:cloud
- •Mattermost: Block streaming-deduplicatie, reply media-delivery met lokale bestandsuploads
- •BlueBubbles/iMessage: Self-chat echo-deduplicatie zonder brede webhookonderdrukking
- •Windows: Native updatepad gerepareerd — geen crashes meer door ontbrekende git of node-llama-cpp
- •Sandbox: Schrijfoperaties maken niet langer stil lege bestanden aan
- •Discord (3.11): Configureerbare auto-archiveerduur voor threads
Wat er veranderde (gecombineerd)
| Gebied | 3.11 | 3.12 |
|---|---|---|
| UI | iOS Home Canvas, macOS modelselector | Control UI dashboard-v2, command palette |
| Modellen | Ollama eersteklas onboarding, OpenCode Go provider | GPT-5.4 fast mode, Claude fast mode, provider-plugin architectuur |
| Geheugen | Multimodale afbeelding/audio-indexering met Gemini embeddings | — |
| Infra | — | Kubernetes manifests, subagent sessions_yield |
| Beveiliging | WebSocket origin-validatie (kritiek) | 7 advisories: plugins, Unicode, scopes, workspace |
| Platformen | Discord thread-archivering, Feishu afbeeldingsfix | Slack Block Kit, Mattermost fixes, Windows native update |
| Stabiliteit | Telegram preview-delivery (4 fixes), agent failover-verbeteringen | Cron dedup, sessie-discovery, sandbox schrijffix |
Twee releases. Nul vulling. Update nu.