OpenClaw 3.8 to mniejsze wydanie niż 3.7. Mniej zmienionych linii, mniej punktów w changelogu. Ale jest tu jedna rzecz, która waży więcej, niż sugeruje rozmiar diffa.
ACP Provenance: twoje agenty wiedzą, kto do nich mówi
Gdy agenty rozmawiały tylko z ludźmi, tożsamość nie była problemem — po drugiej stronie czatu siedział użytkownik. Teraz agenty rozmawiają z agentami. Instancja OpenClaw może dostać zadanie z CI pipeline'a, agenta planującego albo innego węzła OpenClaw w wieloagentowym workflow. Pytanie „kto to wysłał?" dawno przestało być banalne.
3.8 dodaje ACP Provenance — opcjonalne metadane wejściowe pozwalające agentowi zweryfikować pochodzenie sesji ACP. Uruchom openclaw acp --provenance meta, a każda przychodząca sesja niesie podpisany kontekst źródłowy z trace ID. Przełącz na meta+receipt — agent wstrzykuje widoczne potwierdzenie do rozmowy, tworząc audytowalny łańcuch „kto co uruchomił".
Trzy tryby: off, meta, meta+receipt. Domyślnie wyłączone — żadnych breaking changes, żadnego dodatkowego narzutu. Włączasz, kiedy potrzebujesz.
Dlaczego to nagłówek
Tożsamość agentów to nierozwiązany problem wieloagentowego stosu. MCP obsługuje dostęp do narzędzi — „co ten agent potrafi". ACP/A2A obsługuje komunikację między agentami — „jak agenty rozmawiają". Ale żaden nie odpowiada na pytanie „kim jest ten agent i czy mu ufać?"
Protokół ACP od IBM i A2A od Google połączyły się pod Linux Foundation, za zunifikowanym standardem stoi ponad 100 firm. DeepLearning.AI ma już dedykowany kurs. Branża zbiega ku interoperacyjności agentów, a weryfikacja tożsamości to brakujący element, którego wszyscy potrzebują.
ACP Provenance w OpenClaw to pierwszy krok, nie ostateczna odpowiedź. Pełnego systemu tożsamości jeszcze nie ma — nie istnieje urząd certyfikacji dla agentów ani uniwersalny „paszport agenta". Ale już dziś masz praktyczne narzędzie: twój agent potrafi odróżnić „zapytanie z mojego zaufanego CI pipeline'a" od „zapytanie nieznanego pochodzenia" i zareagować odpowiednio.
Dla zespołów z wieloagentowymi setupami to różnica między „działa na demie" a „działa na produkcji".
Brave LLMContext: wyniki wyszukiwania zbudowane dla AI
Wyszukiwanie w OpenClaw zwracało wcześniej surowy HTML albo proste snippety. Dla ludzi wystarczające, dla agentów — niewygodne. Agent palił tokeny okna kontekstowego, parsując strukturę strony, żeby znaleźć odpowiedź.
3.8 dodaje obsługę Brave LLMContext. Po skonfigurowaniu wyszukiwanie zwraca wstępnie wyodrębnione fragmenty z metadanymi źródeł — ustrukturyzowaną treść zaprojektowaną dla modeli językowych. Mniej szumu, więcej sygnału, mniej zmarnowanych tokenów.
Dla agentów, którzy przeszukują web w ramach swojego workflow, oznacza to mniejszy ślad kontekstowy i trafniejsze wyniki. Agent dostaje to, czego potrzebuje, bez zabawy w parser HTML.
Podman + SELinux: Enterprise Linux wreszcie po prostu działa
Kto próbował uruchomić OpenClaw na Fedorze lub RHEL z SELinux w trybie enforcing, zna rytuał: tajemnicze błędy odmowy dostępu, ręczne dodawanie etykiet :Z, wątki na forach pełne sprzecznych porad.
3.8 automatycznie wykrywa, czy SELinux jest w trybie enforcing czy permissive, i dodaje poprawne etykiety :Z do woluminów. Bez ręcznej interwencji. Bez flag konfiguracyjnych. Po prostu działa.
Mała zmiana. Duża poprawa jakości życia dla wszystkich w środowisku korporacyjnego Linuksa — a biorąc pod uwagę rosnącą adopcję OpenClaw w branżach regulowanych, to sporo ludzi.
Obraz Docker: jeszcze lżejszy
Z obrazu runtime usunięto zależności deweloperskie i metadane budowania. Efekt: mniejszy pull, szybszy zimny start i mniejsza powierzchnia ataku.
Niewiele tu do powiedzenia — to porządki, które nie robią ekscytującej lektury, ale kumulują się na tysiącach wdrożeń.
Kwestia szybkości
Niektórzy mówią, że OpenClaw aktualizuje się za szybko. To uczciwy zarzut, jeśli chcesz przypiąć wersję i zapomnieć.
Ale cofnij się o krok i pomyśl, co „za szybko" naprawdę znaczy dla projektu open source. Znaczy, że PR-y płyną. Że maintainerzy robią review i mergują. Że pipeline kontrybutorów — to, dzięki czemu open source w ogóle działa — nie kapie, lecz leje się rzeką.
Projekt open source, za którym trudno nadążyć, to projekt z aktywną społecznością za plecami. Ta prędkość to sygnał. Mówi: tor jest gorący, kierunek jest właściwy.
3.7 położył fundamenty z ContextEngine. 3.8 zaczyna wypełniać luki — tożsamość agentów, inteligentniejsze wyszukiwanie, szersza obsługa platform. Tempo nie zwalnia. Dobrze.
Co się zmieniło
| Obszar | Zmiana |
|---|---|
| ACP | Metadane Provenance + wstrzykiwanie potwierdzeń (--provenance off / meta / meta+receipt) |
| Wyszukiwanie | Brave LLMContext dla wyników przyjaznych AI |
| Kontenery | Autodetekcja Podman/SELinux z etykietami :Z |
| Docker | Odchudzony obraz runtime (usunięte dev deps + metadane budowania) |
| Bezpieczeństwo | 12+ łatek — gateway, webhooki, obsługa TLS |
| Backup | Ulepszone nazewnictwo archiwów, tryb samej konfiguracji, wzmocniona weryfikacja |
| Telegram | Poprawka duplikowania wiadomości |