Мы пропустили пост про 3.11. Не потому что ничего не произошло — в 3.11 было полно нового — а потому что 3.12 вышел через четыре дня, и логичнее было покрыть оба разом. Два релиза, один пост.
Вот всё, что важно.
Control UI: Dashboard v2
Control UI переписан с нуля. Не перекраска — полное переосмысление.
Старый дашборд был одной страницей, которая пыталась делать всё сразу. Новый разбит на отдельные представления: Overview, Chat, Config, Agent и Sessions. Каждое делает одну вещь хорошо. Есть палитра команд (Cmd+K) для продвинутых пользователей, нижние вкладки для мобильного доступа, а представление чата теперь поддерживает slash-команды, поиск сообщений, экспорт и закреплённые сообщения.
Это работа @BunsDev в PR #41503, и это тот вклад, который меняет повседневное взаимодействие с OpenClaw. Если ты управляешь своим инстансом через браузер, впечатление теперь совершенно другое.
Fast Mode: GPT-5.4 и Claude, один переключатель
Fast mode раньше был расплывчатым понятием — одни модели его имели, переключатель был непоследовательным, поведение различалось между интерфейсами.
3.12 объединяет всё. Теперь есть единый переключатель /fast, работающий в TUI, Control UI и ACP. Для OpenAI он настраивает запросы под fast tier GPT-5.4. Для Anthropic маппится напрямую на параметр service_tier API. Оба проверяются в реальном времени — если у твоего аккаунта нет доступа к fast tier, система скажет об этом вместо тихой деградации.
Настройки по умолчанию для каждой модели позволяют включить fast mode по умолчанию для конкретных моделей, оставив стандартный режим для остальных. Переопределения на уровне сессии позволяют переключаться посреди разговора.
Один переключатель, два провайдера, согласованное поведение везде. Вот и всё.
Ollama: полноправный гражданин (3.11)
Ollama перешёл из «поддерживается» в «первый класс» в 3.11.
Мастер настройки теперь имеет выделенный путь для Ollama с двумя режимами: Local (всё работает на твоей машине) и Cloud + Local (облачные модели для тяжёлых задач, локальные для чувствительных к приватности). Есть облачный вход через браузер, курированные рекомендации моделей на основе твоего железа и умная обработка, которая пропускает ненужные локальные загрузки, когда ты используешь облачные модели.
Это важно, потому что локальные модели — ответ на вопрос приватности. Никаких API-ключей, никаких данных, покидающих твою машину, никакого ежемесячного счёта. Для тех, кому это нужно, путь настройки теперь такой же гладкий, как и для облачных провайдеров. Спасибо @BruceMacD.
Отдельно: Ollama, vLLM и SGLang мигрировали на архитектуру provider-plugin в 3.12. Провайдерский онбординг, обнаружение моделей, настройка пикера и хуки пост-выбора теперь модульные. Если строишь свои интеграции провайдеров, вот паттерн, которому стоит следовать.
Мультимодальная память: изображения и аудио (3.11)
Система памяти OpenClaw научилась видеть и слышать.
3.11 добавляет опциональную мультимодальную индексацию для memorySearch.extraPaths. Направь на папку с изображениями или аудиофайлами, и поиск по памяти теперь может выдавать эти файлы в контексте. Под капотом используется модель gemini-embedding-2-preview от Gemini с настраиваемыми выходными размерностями и автоматической переиндексацией при смене размерностей.
Это за явным opt-in — никакой неожиданной индексации твоей фотобиблиотеки. Но для тех, кто хочет, чтобы агент помнил визуальный контекст (скриншоты, диаграммы, чеки), это значительное расширение возможностей. Спасибо @gumadeiras.
iOS и macOS: нативное улучшается (3.11)
Два значительных улучшения для нативных платформ в 3.11:
iOS Home Canvas (@ngutman): iOS-приложение получило встроенный экран приветствия с живым обзором агента, который обновляется при подключении, переподключении и возврате на передний план. Плавающие элементы управления заменены на закреплённую панель инструментов, макет адаптируется к маленьким телефонам, и чат теперь открывается в разрешённой основной сессии вместо синтетической iOS-сессии. Также: поток бета-релиза в TestFlight с поддержкой Fastlane.
macOS Chat UI (@ImLukeF): Композер чата macOS теперь имеет селектор модели, сохраняет выбор уровня мышления между перезапусками и корректно синхронизирует модели сессии между провайдерами.
Это не главные фичи, но они складываются. Каждый раз, когда нативный опыт становится чуть более гладким, разрыв между «использую OpenClaw через Telegram» и «использую OpenClaw нативно» сокращается.
Kubernetes: отправная точка
3.12 добавляет стартовый путь установки на Kubernetes: raw-манифесты, Kind-конфигурация для локального тестирования и документация по деплою. Спасибо @sallyom, @dzianisv и @egkristi.
Это не production-hardened Helm chart — это отправная точка для команд, которые хотят запустить OpenClaw на K8s. Ожидайте быстрого развития на основе обратной связи от сообщества.
Subagents: sessions_yield
Маленький, но важный примитив для оркестрации: sessions_yield позволяет агенту-оркестратору немедленно завершить текущий ход, пропустить любую работу инструментов в очереди и перенести скрытый payload для продолжения в следующий ход сессии.
Почему это важно: в мульти-агентных воркфлоу оркестратору иногда нужно выйти из хода досрочно — может, появилась задача с более высоким приоритетом, может, текущая цепочка инструментов идёт не туда. Раньше приходилось ждать завершения всей работы в очереди. Теперь можно срезать очередь. Спасибо @jriff (#36537).
Безопасность: 8 advisory
Это раздел, который стоит прочитать внимательно, если ты используешь OpenClaw в продакшене. Между 3.11 и 3.12 — 8 GitHub Security Advisory:
Критический: Валидация origin WebSocket (3.11) **GHSA-5wcw-8jjv-m286** — Валидация origin браузера пропускалась, когда заголовки прокси отсутствовали. В режиме trusted-proxy это открывало путь для cross-site WebSocket hijacking, который мог предоставить доступ `operator.admin` ненадёжным origin. Исправлено: валидация origin теперь выполняется для всех браузерных соединений независимо от заголовков прокси.
Исправления безопасности 3.12
| Advisory | Что | Последствия |
|---|---|---|
| GHSA-99qw-6mr3-36qr | Плагины workspace загружались автоматически без доверия | Клонированные репозитории могли тихо выполнять код плагинов |
| GHSA-pcqg-f7rg-xfvv | Невидимый Unicode в промптах одобрения exec | Символы нулевой ширины могли подделывать проверенные команды |
| GHSA-9r3v-37xh-2cf6 | Обход нормализации Unicode в обнаружении exec | Полноширинные/невидимые символы обходили эвристические проверки |
| GHSA-f8r2-vg7x-gh8m | Чувствительность к регистру allowlist exec на POSIX | Паттерны могли чрезмерно совпадать по регистру/каталогам |
| GHSA-r7vr-gr74-94p8 | Доступ не-владельца к /config и /debug | Авторизованные не-владельцы могли получить доступ к поверхностям, эксклюзивным для владельца |
| GHSA-rqpp-rjj8-7wv8 | Самообъявление scope общих токенов | Токены без устройства могли самообъявлять повышенные scope |
| GHSA-vmhq-cqm9-6p7q | Персистенция профиля браузера через browser.request | Вызывающие с write-scope могли сохранять admin-only профили браузера |
| GHSA-2rqg-gjgv-84jm | Переопределение лимитов workspace агента | Внешние вызывающие могли перезаписывать лимиты workspace шлюза |
Исправления, связанные с Unicode (GHSA-pcqg, GHSA-9r3v), заслуживают особого внимания. Атакующие использовали символы Unicode нулевой и полной ширины, чтобы вредоносные команды выглядели безобидными в промптах одобрения. Исправление нормализует Unicode и удаляет невидимое форматирование перед как отображением, так и обнаружением.
Исправление плагинов workspace (GHSA-99qw) меняет поведение по умолчанию: плагины в клонированных репозиториях больше не загружаются автоматически. Теперь нужно явное решение о доверии. Это ломающее изменение для тех, кто полагался на неявную загрузку плагинов workspace — и это намеренно.
Вывод: обновляйся до 3.12. Это не теоретические уязвимости.
Остальное
Есть длинный хвост исправлений в обоих релизах, который не влезает в пост, но важен для конкретных пользователей:
- •Telegram: Персистенция селектора модели, чанкинг HTML, дедупликация доставки превью — четыре отдельных исправления, касающихся надёжности сообщений
- •Kimi Coding: Восстановлен нативный формат Anthropic для вызовов инструментов, исправлен заголовок User-Agent для аутентификации подписки, совместимость с Ollama для kimi-k2.5:cloud
- •Mattermost: Дедупликация блочного стриминга, доставка медиа в ответах с локальными загрузками файлов
- •BlueBubbles/iMessage: Дедупликация эхо самочата без широкого подавления вебхуков
- •Windows: Исправлен нативный путь обновления — больше нет падений из-за отсутствующего git или node-llama-cpp
- •Sandbox: Операции записи больше не создают тихо пустые файлы
- •Discord (3.11): Настраиваемая длительность автоархивации для тредов
Что изменилось (сводка)
| Область | 3.11 | 3.12 |
|---|---|---|
| UI | iOS Home Canvas, селектор модели macOS | Control UI dashboard-v2, палитра команд |
| Модели | Первоклассный онбординг Ollama, провайдер OpenCode Go | Fast mode GPT-5.4, fast mode Claude, архитектура provider-plugin |
| Память | Мультимодальная индексация изображений/аудио с Gemini embeddings | — |
| Инфра | — | Манифесты Kubernetes, subagent sessions_yield |
| Безопасность | Валидация origin WebSocket (критический) | 7 advisory: плагины, Unicode, scope, workspace |
| Платформы | Архивация тредов Discord, исправление изображений Feishu | Slack Block Kit, исправления Mattermost, нативное обновление Windows |
| Стабильность | Доставка превью Telegram (4 исправления), улучшения failover агента | Дедупликация cron, обнаружение сессий, исправление записи sandbox |
Два релиза. Ноль воды. Обновляйся.