release security dashboard fast-mode

OpenClaw 3.11 i 3.12: Przepisany dashboard, tryb Fast i 8 poprawek bezpieczeństwa, które powinieneś znać

OpenClaws.io Team

OpenClaws.io Team

@openclaws

March 13, 2026

9 min czytania

OpenClaw 3.11 i 3.12: Przepisany dashboard, tryb Fast i 8 poprawek bezpieczeństwa, które powinieneś znać

Pominęliśmy wpis o wersji 3.11. Nie dlatego, że nic się nie działo — 3.11 był pełen nowości — ale dlatego, że 3.12 pojawił się cztery dni później i więcej sensu miało opisać oba naraz. Dwa wydania, jeden wpis.

Oto wszystko, co się liczy.

Control UI: Dashboard v2

Control UI zostało przepisane od zera. Nie reskin — całkowite przemyślenie.

Stary dashboard był pojedynczą stroną, która próbowała robić wszystko naraz. Nowy dzieli się na dedykowane widoki: Overview, Chat, Config, Agent i Sessions. Każdy robi jedną rzecz dobrze. Jest paleta komend (Cmd+K) dla zaawansowanych użytkowników, dolne zakładki do dostępu z telefonu, a widok czatu obsługuje teraz slash commands, wyszukiwanie wiadomości, eksport i przypięte wiadomości.

To praca @BunsDev w PR #41503 i ten rodzaj kontrybucji, który zmienia codzienne korzystanie z OpenClaw. Jeśli zarządzasz swoją instancją przez przeglądarkę, doświadczenie jest teraz zupełnie inne.

Fast Mode: GPT-5.4 i Claude, jeden przełącznik

Fast mode był kiedyś mglistym pojęciem — niektóre modele go miały, przełącznik był niespójny, a zachowanie różniło się między interfejsami.

3.12 ujednolica wszystko. Jest teraz jeden przełącznik /fast, który działa w TUI, Control UI i ACP. Dla OpenAI konfiguruje żądania pod fast tier GPT-5.4. Dla Anthropic mapuje bezpośrednio na parametr service_tier API. Oba sprawdzane są w czasie rzeczywistym — jeśli twoje konto nie ma dostępu do fast tier, system ci o tym powie zamiast cicho degradować.

Domyślne ustawienia per model oznaczają, że możesz ustawić fast mode jako domyślny dla konkretnych modeli, zachowując tryb standardowy dla pozostałych. Nadpisania na poziomie sesji pozwalają przełączać się w trakcie rozmowy.

Jeden przełącznik, dwóch dostawców, spójne zachowanie wszędzie. To tyle.

Ollama: obywatel pierwszej klasy (3.11)

Ollama przeszedł z „obsługiwany" na „pierwsza klasa" w 3.11.

Kreator konfiguracji ma teraz dedykowaną ścieżkę dla Ollama z dwoma trybami: Local (wszystko działa na twojej maszynie) i Cloud + Local (modele cloud do ciężkich zadań, lokalne do wrażliwych na prywatność). Jest logowanie cloud przez przeglądarkę, kuratorowane sugestie modeli na podstawie twojego sprzętu i inteligentna obsługa, która pomija zbędne lokalne pobierania, gdy używasz modeli cloud.

To ważne, bo modele lokalne to odpowiedź na kwestię prywatności. Żadnych kluczy API, żadnych danych opuszczających twoją maszynę, żadnego miesięcznego rachunku. Dla użytkowników, którzy tego chcą, ścieżka konfiguracji jest teraz tak płynna jak dla dostawców cloud. Dzięki @BruceMacD.

Osobno: Ollama, vLLM i SGLang migrowały do architektury provider-plugin w 3.12. Onboarding zarządzany przez dostawcę, odkrywanie modeli, konfiguracja pickera i hooki post-selekcji są teraz modularne. Jeśli budujesz własne integracje dostawców, to wzorzec do naśladowania.

Pamięć multimodalna: obrazy i audio (3.11)

System pamięci OpenClaw nauczył się widzieć i słyszeć.

3.11 dodaje opcjonalne multimodalne indeksowanie dla memorySearch.extraPaths. Skieruj na folder z obrazami lub plikami audio, a wyszukiwanie pamięci potrafi teraz wyciągnąć te pliki w kontekście. Pod maską korzysta z modelu gemini-embedding-2-preview od Gemini z konfigurowalnymi wymiarami wyjściowymi i automatycznym reindeksowaniem przy zmianie wymiarów.

To za jawnym opt-in — żadnego niespodziewanego indeksowania twojej biblioteki zdjęć. Ale dla użytkowników, którzy chcą, żeby ich agent pamiętał kontekst wizualny (zrzuty ekranu, diagramy, paragony), to znaczące rozszerzenie możliwości. Dzięki @gumadeiras.

iOS i macOS: natywne się poprawia (3.11)

Dwa znaczące ulepszenia dla platform natywnych w 3.11:

iOS Home Canvas (@ngutman): Aplikacja iOS otrzymała wbudowany ekran powitalny z podglądem agenta na żywo, który odświeża się przy połączeniu, ponownym połączeniu i powrocie na pierwszy plan. Pływające kontrolki zastąpiono zadokowanym paskiem narzędzi, układ dostosowuje się do mniejszych telefonów, a czat otwiera się teraz w rozwiązanej sesji głównej zamiast syntetycznej sesji iOS. Dodatkowo: przepływ beta release na TestFlight z obsługą Fastlane.

macOS Chat UI (@ImLukeF): Kompozytor czatu macOS ma teraz selektor modelu, zachowuje wybory poziomu myślenia między ponownymi uruchomieniami i prawidłowo synchronizuje modele sesji między dostawcami.

To nie są funkcje z nagłówków, ale się sumują. Za każdym razem, gdy doświadczenie natywne staje się odrobinę płynniejsze, różnica między „używam OpenClaw przez Telegram" a „używam OpenClaw natywnie" się zmniejsza.

Kubernetes: punkt startowy

3.12 dodaje startową ścieżkę instalacji na Kubernetes: surowe manifesty, konfiguracja Kind do testów lokalnych i dokumentacja deploymentu. Dzięki @sallyom, @dzianisv i @egkristi.

To nie jest zahartowany produkcyjnie Helm chart — to punkt startowy dla zespołów, które chcą uruchomić OpenClaw na K8s. Spodziewaj się szybkiej ewolucji na podstawie feedbacku społeczności.

Subagents: sessions_yield

Mały, ale ważny prymityw do orkiestracji: sessions_yield pozwala agentowi-orkiestratorowi natychmiast zakończyć bieżącą turę, pominąć czekającą pracę narzędzi i przenieść ukryty payload kontynuacji do następnej tury sesji.

Dlaczego to ważne: w wieloagentowych workflow orkiestrator czasem musi wyjść z tury wcześniej — może pojawiło się zadanie o wyższym priorytecie, może bieżący łańcuch narzędzi idzie w złym kierunku. Wcześniej trzeba było czekać na zakończenie całej pracy w kolejce. Teraz możesz ominąć kolejkę. Dzięki @jriff (#36537).

Bezpieczeństwo: 8 advisory

To sekcja, którą naprawdę powinieneś przeczytać uważnie, jeśli używasz OpenClaw w produkcji. Między 3.11 a 3.12 jest 8 GitHub Security Advisory:

Krytyczny: Walidacja origin WebSocket (3.11) **GHSA-5wcw-8jjv-m286** — Walidacja origin przeglądarki była pomijana, gdy nagłówki proxy nie były obecne. W trybie trusted-proxy otwierało to ścieżkę cross-site WebSocket hijacking, która mogła przyznać dostęp `operator.admin` niezaufanym originom. Naprawiono: walidacja origin działa teraz na wszystkich połączeniach przeglądarkowych niezależnie od nagłówków proxy.

Poprawki bezpieczeństwa 3.12

AdvisoryCoWpływ
GHSA-99qw-6mr3-36qrPluginy workspace ładowane automatycznie bez zaufaniaSklonowane repozytoria mogły cicho wykonywać kod pluginów
GHSA-pcqg-f7rg-xfvvNiewidoczny Unicode w promptach zatwierdzenia execZnaki o zerowej szerokości mogły podszywać się pod sprawdzone komendy
GHSA-9r3v-37xh-2cf6Bypass normalizacji Unicode w detekcji execZnaki fullwidth/niewidoczne omijały sprawdzenia heurystyczne
GHSA-f8r2-vg7x-gh8mWrażliwość na wielkość liter allowlist exec na POSIXWzorce mogły nadmiernie dopasowywać się między wielkością liter/katalogami
GHSA-r7vr-gr74-94p8Dostęp nie-właściciela do /config i /debugAutoryzowani nie-właściciele mogli dostać się do powierzchni wyłącznych dla właściciela
GHSA-rqpp-rjj8-7wv8Samoadeklaracja scope wspólnych tokenówTokeny bez urządzenia mogły samodeklarować podwyższone scope
GHSA-vmhq-cqm9-6p7qPersistencja profilu przeglądarki przez browser.requestWywołujący z write-scope mogli utrwalać profile przeglądarki wyłączne dla admina
GHSA-2rqg-gjgv-84jmNadpisanie limitu workspace agentaZewnętrzni wywołujący mogli nadpisywać limity workspace gateway

Poprawki związane z Unicode (GHSA-pcqg, GHSA-9r3v) są szczególnie warte zrozumienia. Atakujący używali znaków Unicode o zerowej i pełnej szerokości, żeby złośliwe komendy wyglądały niewinnie w promptach zatwierdzenia. Poprawka normalizuje Unicode i usuwa niewidoczne formatowanie przed zarówno wyświetlaniem, jak i detekcją.

Poprawka pluginów workspace (GHSA-99qw) zmienia domyślne zachowanie: pluginy w sklonowanych repozytoriach nie ładują się już automatycznie. Teraz potrzebna jest jawna decyzja o zaufaniu. To zmiana łamiąca kompatybilność dla każdego, kto polegał na niejawnym ładowaniu pluginów workspace — i jest to celowe.

Wniosek: zaktualizuj do 3.12. To nie są teoretyczne podatności.

Reszta

Jest długi ogon poprawek w obu wydaniach, który nie mieści się w poście blogowym, ale ma znaczenie dla konkretnych użytkowników:

  • Telegram: Persistencja selektora modelu, chunkowanie HTML, deduplikacja dostarczania podglądów — cztery osobne poprawki dotyczące niezawodności wiadomości
  • Kimi Coding: Przywrócony natywny format Anthropic dla wywołań narzędzi, poprawka nagłówka User-Agent dla uwierzytelniania subskrypcji, kompatybilność Ollama dla kimi-k2.5:cloud
  • Mattermost: Deduplikacja blokowego streamingu, dostarczanie mediów w odpowiedziach z lokalnymi uploadami plików
  • BlueBubbles/iMessage: Deduplikacja echa self-chat bez szerokiego tłumienia webhooków
  • Windows: Naprawiona natywna ścieżka aktualizacji — koniec z crashami przez brakujący git lub node-llama-cpp
  • Sandbox: Operacje zapisu nie tworzą już cicho pustych plików
  • Discord (3.11): Konfigurowalny czas auto-archiwizacji dla wątków

Co się zmieniło (łącznie)

Obszar3.113.12
UIiOS Home Canvas, selektor modelu macOSControl UI dashboard-v2, paleta komend
ModelePierwszoklasowy onboarding Ollama, provider OpenCode GoFast mode GPT-5.4, fast mode Claude, architektura provider-plugin
PamięćMultimodalne indeksowanie obrazów/audio z Gemini embeddings
InfraManifesty Kubernetes, subagent sessions_yield
BezpieczeństwoWalidacja origin WebSocket (krytyczny)7 advisory: pluginy, Unicode, scope, workspace
PlatformyArchiwizacja wątków Discord, poprawka obrazu FeishuSlack Block Kit, poprawki Mattermost, natywna aktualizacja Windows
StabilnośćDostarczanie podglądów Telegram (4 poprawki), ulepszenia failover agentaDeduplikacja cron, odkrywanie sesji, poprawka zapisu sandbox

Dwa wydania. Zero wypełniacza. Zaktualizuj teraz.

Bądź na bieżąco

Otrzymuj informacje o nowych funkcjach i integracjach. Bez spamu, wypisanie w każdej chwili.