O OpenClaw 3.8 é um release menor que o 3.7. Menos linhas alteradas, menos itens no changelog. Mas tem uma funcionalidade aqui cuja importância vai muito além do tamanho do diff.
ACP Provenance: seus agentes agora sabem quem está falando
Quando agentes só conversavam com humanos, identidade era simples — tinha um usuário do outro lado do chat. Agora agentes falam com outros agentes. Uma instância do OpenClaw pode receber uma tarefa de um pipeline de CI, de um agente de orquestração ou de outro nó OpenClaw num workflow multi-agente. A pergunta "quem mandou isso?" deixou de ser trivial faz tempo.
O 3.8 adiciona ACP Provenance — metadados opcionais de ingresso que permitem ao seu agente verificar a origem das sessões ACP recebidas. Rode openclaw acp --provenance meta e toda sessão de entrada carrega um contexto de origem assinado com um ID de rastreio. Suba para meta+receipt e o agente injeta um recibo visível na conversa, criando uma cadeia auditável de quem disparou o quê.
Três modos: off, meta, meta+receipt. Desativado por padrão — sem breaking changes, sem overhead surpresa. Ative quando precisar.
Por que isso é a manchete
Identidade de agentes é o problema não resolvido do stack multi-agente. O MCP cuida do acesso a ferramentas — "o que esse agente pode fazer." O ACP/A2A cuida da comunicação entre agentes — "como agentes conversam." Mas nenhum responde "quem é esse agente e devo confiar nele?"
O protocolo ACP da IBM e o A2A do Google se uniram sob a Linux Foundation, com mais de 100 empresas apoiando o padrão unificado. A DeepLearning.AI já tem um curso dedicado. A indústria está convergindo para a interoperabilidade de agentes, e a verificação de identidade é a peça que falta e que todo mundo precisa.
O ACP Provenance do OpenClaw é um primeiro passo, não a resposta final. Não resolve o problema completo de identidade — ainda não existe autoridade certificadora para agentes, nem passaporte universal. Mas entrega uma ferramenta prática hoje: seu agente agora consegue distinguir "requisição do meu pipeline de CI confiável" de "requisição de origem desconhecida" e agir de acordo.
Para times rodando setups multi-agente, essa é a diferença entre "funciona na demo" e "funciona em produção."
Brave LLMContext: resultados de busca feitos para IA
A busca web no OpenClaw costumava retornar HTML cru ou snippets básicos. Útil para humanos, desajeitado para agentes. O agente torrava tokens da janela de contexto só parseando a estrutura da página pra achar a resposta de verdade.
O 3.8 integra o endpoint LLMContext do Brave. Quando configurado, a busca retorna fragmentos pré-extraídos com metadados de origem — conteúdo estruturado projetado para ser consumido por modelos de linguagem. Menos ruído, mais sinal, menos tokens desperdiçados.
Não é mudança cosmética. Para agentes que fazem buscas na web como parte do workflow, significa footprints de contexto menores e resultados mais precisos. O agente pega o que precisa sem ter que bancar o parser de HTML antes.
Podman + SELinux: Linux empresarial finalmente funciona de primeira
Se você já tentou rodar o OpenClaw no Fedora ou RHEL com SELinux em modo enforcing, conhece o ritual: erros de permissão misteriosos, adicionar labels :Z na mão, threads de fórum cheias de conselhos contraditórios.
O 3.8 detecta automaticamente se o SELinux está em modo enforcing ou permissive e adiciona os labels :Z corretos nos volumes. Sem intervenção manual. Sem flags de configuração. Simplesmente funciona.
Mudança pequena. Grande melhoria de qualidade de vida pra quem está num ambiente Linux empresarial — e considerando a adoção crescente do OpenClaw em setores regulados, isso é bastante gente.
Imagem Docker: mais leve de novo
Dependências de desenvolvimento e metadados de build foram removidos da imagem de runtime. Resultado: pull menor, cold starts mais rápidos e menos superfície de ataque.
Não tem muito o que falar — é o tipo de manutenção que não rende um artigo empolgante, mas que se acumula em milhares de deploys.
A questão da velocidade
Tem gente que diz que o OpenClaw atualiza rápido demais. É uma reclamação justa se o que você quer é fixar uma versão e esquecer.
Mas dá um passo atrás e pensa no que "rápido demais" realmente significa pra um projeto open source. Significa que PRs estão fluindo. Que maintainers estão revisando e mergeando. Que o pipeline de contribuidores — aquilo que faz o open source de fato funcionar — não é um fio d'água, é um rio.
Um projeto open source que avança rápido o suficiente pra ser difícil de acompanhar é um projeto com uma comunidade ativa por trás. Essa velocidade é um sinal. Diz que a pista está quente e a direção é a certa.
O 3.7 lançou a base com o ContextEngine. O 3.8 começa a preencher as lacunas — identidade de agentes, busca mais inteligente, suporte de plataforma mais amplo. O ritmo não está desacelerando. Ótimo.
O que mudou
| Área | Mudança |
|---|---|
| ACP | Metadados de provenance + injeção de recibos (--provenance off / meta / meta+receipt) |
| Busca | Endpoint Brave LLMContext para resultados otimizados para IA |
| Containers | Autodetecção Podman/SELinux com labels :Z |
| Docker | Imagem de runtime mais enxuta (deps de dev + metadados de build removidos) |
| Segurança | 12+ patches em gateway, webhooks e tratamento TLS |
| Backup | Melhoria na nomeação de arquivos, modo config-only, verificação reforçada |
| Telegram | Correção de mensagens duplicadas |