OpenClaw 3.8 — релиз поменьше, чем 3.7. Меньше изменённых строк, меньше пунктов в changelog. Но одна штука здесь весит больше, чем можно подумать по размеру диффа.
ACP Provenance: ваши агенты теперь знают, кто с ними говорит
Когда агенты общались только с людьми, вопрос идентичности не стоял — на другом конце чата сидел пользователь. Теперь агенты разговаривают с агентами. OpenClaw-инстанс может получить задачу от CI-пайплайна, планировщика или другого узла OpenClaw в мультиагентной цепочке. Вопрос «кто это отправил?» давно перестал быть тривиальным.
3.8 добавляет ACP Provenance — опциональные входящие метаданные, позволяющие агенту верифицировать источник ACP-сессии. Запустите openclaw acp --provenance meta, и каждая входящая сессия будет нести подписанный контекст происхождения с trace ID. Переключите на meta+receipt — агент инжектирует видимую квитанцию в разговор, формируя аудируемую цепочку «кто что запустил».
Три режима: off, meta, meta+receipt. По умолчанию выключено — никаких ломающих изменений, никаких лишних затрат. Включаете, когда надо.
Почему это главная новость
Идентификация агентов — нерешённая проблема мультиагентного стека. MCP закрывает доступ к инструментам — «что этот агент умеет». ACP/A2A закрывает межагентное общение — «как агенты разговаривают». Но ни один из них не отвечает на вопрос «кто этот агент и стоит ли ему доверять?»
Протокол ACP от IBM и A2A от Google объединились под Linux Foundation, за единым стандартом — более 100 компаний. DeepLearning.AI уже выпустил отдельный курс. Индустрия сходится к интероперабельности агентов, и верификация личности — недостающий кусок пазла.
ACP Provenance в OpenClaw — первый шаг, не финальный ответ. Полной системы идентификации пока нет — ни удостоверяющего центра для агентов, ни универсального «паспорта». Но уже сегодня есть практический инструмент: ваш агент может отличить «запрос от моего доверенного CI-пайплайна» от «запрос неизвестного происхождения» и действовать соответственно.
Для команд с мультиагентными сетапами это разница между «работает на демо» и «работает в продакшене».
Brave LLMContext: поисковая выдача, заточенная под ИИ
Раньше веб-поиск в OpenClaw возвращал сырой HTML или простые сниппеты. Человеку годится, агенту — неудобно. Агент сжигал токены контекстного окна, разбирая структуру страницы, чтобы найти ответ.
3.8 добавляет поддержку Brave LLMContext. При включённой настройке поиск возвращает предварительно извлечённые фрагменты с метаданными источников — структурированный контент, спроектированный для языковых моделей. Меньше шума, больше сигнала, меньше потраченных токенов.
Для агентов, которые ищут в вебе по ходу работы, это означает меньший расход контекста и более точные результаты. Агент получает то, что нужно, без игры в HTML-парсер.
Podman + SELinux: Enterprise Linux наконец просто работает
Кто запускал OpenClaw на Fedora или RHEL с SELinux в enforcing-режиме, тот знает ритуал: загадочные ошибки доступа, ручное добавление меток :Z, форумные треды с противоречивыми советами.
3.8 автоматически определяет, в каком режиме SELinux — enforcing или permissive — и добавляет правильные метки :Z к томам. Без ручного вмешательства. Без флагов конфигурации. Просто работает.
Изменение небольшое. Но для пользователей корпоративного Linux — а с учётом растущего проникновения OpenClaw в регулируемые отрасли их немало — это серьёзное улучшение качества жизни.
Docker-образ: ещё легче
Из рантайм-образа убраны dev-зависимости и метаданные сборки. Результат — меньший pull, более быстрый холодный старт и меньшая поверхность атаки.
Тут особо не о чем говорить — рутинная гигиена, которая не делает захватывающих заголовков, но накапливается на тысячах деплоев.
Вопрос скорости
Кто-то говорит, что OpenClaw обновляется слишком быстро. Справедливое замечание, если вы хотите приколоть версию и забыть.
Но отойдите на шаг и подумайте, что «слишком быстро» реально означает для open-source проекта. Это значит, что PR'ы текут. Что мейнтейнеры ревьюят и мёржат. Что пайплайн контрибьюторов — то, на чём open source вообще держится — не капает, а льётся рекой.
Open-source проект, за которым сложно успеть, — это проект с живым сообществом за спиной. Скорость — это сигнал. Он говорит: трек горячий, направление верное.
3.7 заложил фундамент с ContextEngine. 3.8 начинает заполнять пробелы — идентификация агентов, умный поиск, расширенная поддержка платформ. Темп не снижается. Так и надо.
Что изменилось
| Область | Изменение |
|---|---|
| ACP | Метаданные Provenance + инжекция квитанций (--provenance off / meta / meta+receipt) |
| Поиск | Brave LLMContext для ИИ-оптимизированных результатов |
| Контейнеры | Автоопределение Podman/SELinux с метками :Z |
| Docker | Облегчённый рантайм-образ (удалены dev-зависимости и метаданные сборки) |
| Безопасность | 12+ патчей — шлюз, вебхуки, обработка TLS |
| Резервное копирование | Улучшенное именование архивов, режим только конфигурации, усиленная верификация |
| Telegram | Исправление дублирования сообщений |