Pominęliśmy wpis o wersji 3.11. Nie dlatego, że nic się nie działo — 3.11 był pełen nowości — ale dlatego, że 3.12 pojawił się cztery dni później i więcej sensu miało opisać oba naraz. Dwa wydania, jeden wpis.
Oto wszystko, co się liczy.
Control UI: Dashboard v2
Control UI zostało przepisane od zera. Nie reskin — całkowite przemyślenie.
Stary dashboard był pojedynczą stroną, która próbowała robić wszystko naraz. Nowy dzieli się na dedykowane widoki: Overview, Chat, Config, Agent i Sessions. Każdy robi jedną rzecz dobrze. Jest paleta komend (Cmd+K) dla zaawansowanych użytkowników, dolne zakładki do dostępu z telefonu, a widok czatu obsługuje teraz slash commands, wyszukiwanie wiadomości, eksport i przypięte wiadomości.
To praca @BunsDev w PR #41503 i ten rodzaj kontrybucji, który zmienia codzienne korzystanie z OpenClaw. Jeśli zarządzasz swoją instancją przez przeglądarkę, doświadczenie jest teraz zupełnie inne.
Fast Mode: GPT-5.4 i Claude, jeden przełącznik
Fast mode był kiedyś mglistym pojęciem — niektóre modele go miały, przełącznik był niespójny, a zachowanie różniło się między interfejsami.
3.12 ujednolica wszystko. Jest teraz jeden przełącznik /fast, który działa w TUI, Control UI i ACP. Dla OpenAI konfiguruje żądania pod fast tier GPT-5.4. Dla Anthropic mapuje bezpośrednio na parametr service_tier API. Oba sprawdzane są w czasie rzeczywistym — jeśli twoje konto nie ma dostępu do fast tier, system ci o tym powie zamiast cicho degradować.
Domyślne ustawienia per model oznaczają, że możesz ustawić fast mode jako domyślny dla konkretnych modeli, zachowując tryb standardowy dla pozostałych. Nadpisania na poziomie sesji pozwalają przełączać się w trakcie rozmowy.
Jeden przełącznik, dwóch dostawców, spójne zachowanie wszędzie. To tyle.
Ollama: obywatel pierwszej klasy (3.11)
Ollama przeszedł z „obsługiwany" na „pierwsza klasa" w 3.11.
Kreator konfiguracji ma teraz dedykowaną ścieżkę dla Ollama z dwoma trybami: Local (wszystko działa na twojej maszynie) i Cloud + Local (modele cloud do ciężkich zadań, lokalne do wrażliwych na prywatność). Jest logowanie cloud przez przeglądarkę, kuratorowane sugestie modeli na podstawie twojego sprzętu i inteligentna obsługa, która pomija zbędne lokalne pobierania, gdy używasz modeli cloud.
To ważne, bo modele lokalne to odpowiedź na kwestię prywatności. Żadnych kluczy API, żadnych danych opuszczających twoją maszynę, żadnego miesięcznego rachunku. Dla użytkowników, którzy tego chcą, ścieżka konfiguracji jest teraz tak płynna jak dla dostawców cloud. Dzięki @BruceMacD.
Osobno: Ollama, vLLM i SGLang migrowały do architektury provider-plugin w 3.12. Onboarding zarządzany przez dostawcę, odkrywanie modeli, konfiguracja pickera i hooki post-selekcji są teraz modularne. Jeśli budujesz własne integracje dostawców, to wzorzec do naśladowania.
Pamięć multimodalna: obrazy i audio (3.11)
System pamięci OpenClaw nauczył się widzieć i słyszeć.
3.11 dodaje opcjonalne multimodalne indeksowanie dla memorySearch.extraPaths. Skieruj na folder z obrazami lub plikami audio, a wyszukiwanie pamięci potrafi teraz wyciągnąć te pliki w kontekście. Pod maską korzysta z modelu gemini-embedding-2-preview od Gemini z konfigurowalnymi wymiarami wyjściowymi i automatycznym reindeksowaniem przy zmianie wymiarów.
To za jawnym opt-in — żadnego niespodziewanego indeksowania twojej biblioteki zdjęć. Ale dla użytkowników, którzy chcą, żeby ich agent pamiętał kontekst wizualny (zrzuty ekranu, diagramy, paragony), to znaczące rozszerzenie możliwości. Dzięki @gumadeiras.
iOS i macOS: natywne się poprawia (3.11)
Dwa znaczące ulepszenia dla platform natywnych w 3.11:
iOS Home Canvas (@ngutman): Aplikacja iOS otrzymała wbudowany ekran powitalny z podglądem agenta na żywo, który odświeża się przy połączeniu, ponownym połączeniu i powrocie na pierwszy plan. Pływające kontrolki zastąpiono zadokowanym paskiem narzędzi, układ dostosowuje się do mniejszych telefonów, a czat otwiera się teraz w rozwiązanej sesji głównej zamiast syntetycznej sesji iOS. Dodatkowo: przepływ beta release na TestFlight z obsługą Fastlane.
macOS Chat UI (@ImLukeF): Kompozytor czatu macOS ma teraz selektor modelu, zachowuje wybory poziomu myślenia między ponownymi uruchomieniami i prawidłowo synchronizuje modele sesji między dostawcami.
To nie są funkcje z nagłówków, ale się sumują. Za każdym razem, gdy doświadczenie natywne staje się odrobinę płynniejsze, różnica między „używam OpenClaw przez Telegram" a „używam OpenClaw natywnie" się zmniejsza.
Kubernetes: punkt startowy
3.12 dodaje startową ścieżkę instalacji na Kubernetes: surowe manifesty, konfiguracja Kind do testów lokalnych i dokumentacja deploymentu. Dzięki @sallyom, @dzianisv i @egkristi.
To nie jest zahartowany produkcyjnie Helm chart — to punkt startowy dla zespołów, które chcą uruchomić OpenClaw na K8s. Spodziewaj się szybkiej ewolucji na podstawie feedbacku społeczności.
Subagents: sessions_yield
Mały, ale ważny prymityw do orkiestracji: sessions_yield pozwala agentowi-orkiestratorowi natychmiast zakończyć bieżącą turę, pominąć czekającą pracę narzędzi i przenieść ukryty payload kontynuacji do następnej tury sesji.
Dlaczego to ważne: w wieloagentowych workflow orkiestrator czasem musi wyjść z tury wcześniej — może pojawiło się zadanie o wyższym priorytecie, może bieżący łańcuch narzędzi idzie w złym kierunku. Wcześniej trzeba było czekać na zakończenie całej pracy w kolejce. Teraz możesz ominąć kolejkę. Dzięki @jriff (#36537).
Bezpieczeństwo: 8 advisory
To sekcja, którą naprawdę powinieneś przeczytać uważnie, jeśli używasz OpenClaw w produkcji. Między 3.11 a 3.12 jest 8 GitHub Security Advisory:
Krytyczny: Walidacja origin WebSocket (3.11) **GHSA-5wcw-8jjv-m286** — Walidacja origin przeglądarki była pomijana, gdy nagłówki proxy nie były obecne. W trybie trusted-proxy otwierało to ścieżkę cross-site WebSocket hijacking, która mogła przyznać dostęp `operator.admin` niezaufanym originom. Naprawiono: walidacja origin działa teraz na wszystkich połączeniach przeglądarkowych niezależnie od nagłówków proxy.
Poprawki bezpieczeństwa 3.12
| Advisory | Co | Wpływ |
|---|---|---|
| GHSA-99qw-6mr3-36qr | Pluginy workspace ładowane automatycznie bez zaufania | Sklonowane repozytoria mogły cicho wykonywać kod pluginów |
| GHSA-pcqg-f7rg-xfvv | Niewidoczny Unicode w promptach zatwierdzenia exec | Znaki o zerowej szerokości mogły podszywać się pod sprawdzone komendy |
| GHSA-9r3v-37xh-2cf6 | Bypass normalizacji Unicode w detekcji exec | Znaki fullwidth/niewidoczne omijały sprawdzenia heurystyczne |
| GHSA-f8r2-vg7x-gh8m | Wrażliwość na wielkość liter allowlist exec na POSIX | Wzorce mogły nadmiernie dopasowywać się między wielkością liter/katalogami |
| GHSA-r7vr-gr74-94p8 | Dostęp nie-właściciela do /config i /debug | Autoryzowani nie-właściciele mogli dostać się do powierzchni wyłącznych dla właściciela |
| GHSA-rqpp-rjj8-7wv8 | Samoadeklaracja scope wspólnych tokenów | Tokeny bez urządzenia mogły samodeklarować podwyższone scope |
| GHSA-vmhq-cqm9-6p7q | Persistencja profilu przeglądarki przez browser.request | Wywołujący z write-scope mogli utrwalać profile przeglądarki wyłączne dla admina |
| GHSA-2rqg-gjgv-84jm | Nadpisanie limitu workspace agenta | Zewnętrzni wywołujący mogli nadpisywać limity workspace gateway |
Poprawki związane z Unicode (GHSA-pcqg, GHSA-9r3v) są szczególnie warte zrozumienia. Atakujący używali znaków Unicode o zerowej i pełnej szerokości, żeby złośliwe komendy wyglądały niewinnie w promptach zatwierdzenia. Poprawka normalizuje Unicode i usuwa niewidoczne formatowanie przed zarówno wyświetlaniem, jak i detekcją.
Poprawka pluginów workspace (GHSA-99qw) zmienia domyślne zachowanie: pluginy w sklonowanych repozytoriach nie ładują się już automatycznie. Teraz potrzebna jest jawna decyzja o zaufaniu. To zmiana łamiąca kompatybilność dla każdego, kto polegał na niejawnym ładowaniu pluginów workspace — i jest to celowe.
Wniosek: zaktualizuj do 3.12. To nie są teoretyczne podatności.
Reszta
Jest długi ogon poprawek w obu wydaniach, który nie mieści się w poście blogowym, ale ma znaczenie dla konkretnych użytkowników:
- •Telegram: Persistencja selektora modelu, chunkowanie HTML, deduplikacja dostarczania podglądów — cztery osobne poprawki dotyczące niezawodności wiadomości
- •Kimi Coding: Przywrócony natywny format Anthropic dla wywołań narzędzi, poprawka nagłówka User-Agent dla uwierzytelniania subskrypcji, kompatybilność Ollama dla kimi-k2.5:cloud
- •Mattermost: Deduplikacja blokowego streamingu, dostarczanie mediów w odpowiedziach z lokalnymi uploadami plików
- •BlueBubbles/iMessage: Deduplikacja echa self-chat bez szerokiego tłumienia webhooków
- •Windows: Naprawiona natywna ścieżka aktualizacji — koniec z crashami przez brakujący git lub node-llama-cpp
- •Sandbox: Operacje zapisu nie tworzą już cicho pustych plików
- •Discord (3.11): Konfigurowalny czas auto-archiwizacji dla wątków
Co się zmieniło (łącznie)
| Obszar | 3.11 | 3.12 |
|---|---|---|
| UI | iOS Home Canvas, selektor modelu macOS | Control UI dashboard-v2, paleta komend |
| Modele | Pierwszoklasowy onboarding Ollama, provider OpenCode Go | Fast mode GPT-5.4, fast mode Claude, architektura provider-plugin |
| Pamięć | Multimodalne indeksowanie obrazów/audio z Gemini embeddings | — |
| Infra | — | Manifesty Kubernetes, subagent sessions_yield |
| Bezpieczeństwo | Walidacja origin WebSocket (krytyczny) | 7 advisory: pluginy, Unicode, scope, workspace |
| Platformy | Archiwizacja wątków Discord, poprawka obrazu Feishu | Slack Block Kit, poprawki Mattermost, natywna aktualizacja Windows |
| Stabilność | Dostarczanie podglądów Telegram (4 poprawki), ulepszenia failover agenta | Deduplikacja cron, odkrywanie sesji, poprawka zapisu sandbox |
Dwa wydania. Zero wypełniacza. Zaktualizuj teraz.