OpenClaw 3.7 è il rilascio più grande dal rebranding. Modelli, localizzazione, stabilità, architettura dei plugin — tutto è stato toccato.
Ecosistema dei modelli: GPT-5.4 e Gemini 3.1 Flash-Lite dal primo giorno
Il 5 marzo OpenAI ha lanciato GPT-5.4. OpenClaw ha mergiato il supporto il giorno dopo. Il 3 marzo Google ha rilasciato la preview di Gemini 3.1 Flash-Lite. In 48 ore funzionava.
Questa velocità non dipende da qualcuno che aggiorna compulsivamente le news — è il layer Model Providers che fa quello per cui è stato progettato. Aggiungere un nuovo modello è un contributo con confini chiari e documentazione pronta. Appena un provider pubblica le specifiche API, qualcuno nella community apre una PR. Da fuori sembra coordinamento con i fornitori; in realtà è una pipeline di contributor che semplicemente funziona.
Perché conta
Chi valuta un framework per agenti lo sa: poche cose fanno più male di un nuovo modello che esce e il framework che non lo supporta per settimane. OpenClaw ha costruito un track record di disponibilità al primo o secondo giorno, e questo pesa:
| Modello | Rilascio provider | Supporto OpenClaw | Delta |
|---|---|---|---|
| GPT-5.4 | 5 marzo | 6 marzo | 1 giorno |
| Gemini 3.1 Flash-Lite | 3 marzo | 5 marzo | 2 giorni |
Astrazioni del provider pulite più una community abbastanza grande da coprire ogni laboratorio importante. Tutto il trucco sta qui.
UI multilingue: spagnolo, tedesco e ricerca più intelligente
La Control UI ora parla spagnolo e tedesco, contribuiti da @DaoPromociones tramite PR #35038. Rilevamento della lingua, bundle di traduzione in lazy loading, etichette del selettore lingua — il pacchetto completo.
Anche il motore di ricerca è migliorato. Stop word e tokenizzazione per spagnolo, portoghese, giapponese, coreano e arabo sono ora gestiti correttamente. Gli utenti multilingue finalmente ottengono risultati pertinenti.
Il quadro d'insieme
282.000+ stelle su GitHub. 1.100+ contributor da tutti i continenti. La base utenti era già globale da un pezzo; gli strumenti erano in ritardo. Aggiungere locali non è una scommessa sul futuro — è saldare un debito.
200+ bugfix: cosa fa il traffico di produzione al software
Più di duecento bugfix. Lo si può leggere come "il software era rotto" o come "c'è abbastanza gente in produzione da trovare ogni caso limite." Guardate cosa è stato corretto e giudicate voi:
- •Validazione comandi plugin: definizioni malformate che crashavano lo startup. Ora validate alla registrazione.
- •Gateway Telegram: token di account mancanti causavano errori
token.trim(). Aggiunto null guard. - •Pairing TLS: le autoconnessioni locali forzavano il device pairing, rompendo setup Docker e LAN. I percorsi locali ora lo saltano.
- •Sostituzione config: placeholder
${VAR}non risolti causavano errori critici. Ora degradano con warning — ma i placeholder non risolti non passano come credenziali.
Non è cosmetica. È quello che succede quando un progetto passa da "cosa divertente del weekend" a "cosa da cui la gente dipende."
ContextEngine: la vera storia di 3.7
La novità più grande di questo rilascio è l'interfaccia plugin ContextEngine — un sistema basato su slot che consente ai plugin di terze parti di gestire completamente l'ingestione, l'assemblaggio e la compattazione del contesto di sessione.
Abbiamo scritto un approfondimento dedicato che copre architettura, hook del ciclo di vita ed ecosistema iniziale. In breve: la compattazione a finestra scorrevole integrata ora può essere sostituita in modo pulito, e ci sono già alternative — Lossless-Claw per la summarization basata su DAG, MemOS Cloud Plugin per la memoria persistente tra sessioni.
Se 3.7 verrà ricordato per una cosa sola, sarà questa.
I numeri
| Metrica | Prima di 3.7 | Dopo 3.7 |
|---|---|---|
| GitHub Stars | 266.500 | 282.300+ |
| Contributor | 1.108 | 1.164 |
| Commit totali | 16.992 | 17.781 |
| Provider di modelli | 30+ | 30+ (con GPT-5.4, Gemini 3.1) |
| Lingue Control UI | 12 | 14 (+es, +de) |
Cosa viene dopo
ContextEngine sono le fondamenta. Quello che ci si costruisce sopra è la parte interessante. Assemblaggio di contesto RAG-aware, memoria condivisa multi-agente, compattazione ottimizzata per budget di token — c'è già gente che ci sta lavorando.
3.7 non è il tipo di rilascio che fa titoli con una singola feature appariscente. È il tipo che spiana la strada per tutto quello che viene dopo. Onboarding dei modelli più veloce, copertura linguistica più ampia, un core più stabile e un'architettura estensibile su cui la community può costruire. Niente glamour. I rilasci importanti raramente lo sono.