OpenClaw 3.7 est la plus grosse mise à jour depuis le changement de nom. Modèles, localisation, stabilité, architecture de plugins — tout y est passé.
Écosystème de modèles : GPT-5.4 et Gemini 3.1 Flash-Lite dès le jour J
Le 5 mars, OpenAI a sorti GPT-5.4. OpenClaw a mergé le support le lendemain. Le 3 mars, Google a publié la preview de Gemini 3.1 Flash-Lite. En 48 heures, c'était opérationnel.
Cette rapidité ne vient pas de quelqu'un qui rafraîchit Twitter — c'est la couche Model Providers qui fait son travail. Ajouter un nouveau modèle est une contribution au périmètre clair, bien documentée. Dès qu'un fournisseur publie une spéc API, quelqu'un dans la communauté ouvre une PR. Vu de l'extérieur, on dirait une coordination avec les fournisseurs. En réalité, c'est simplement un pipeline de contributeurs qui tourne bien.
Pourquoi c'est important
Quand on évalue un framework d'agents, peu de choses font plus mal qu'un nouveau modèle qui sort et un framework qui ne le supporte pas pendant des semaines. OpenClaw a bâti un historique de disponibilité dès le premier ou le deuxième jour. Ça compte :
| Modèle | Sortie fournisseur | Support OpenClaw | Écart |
|---|---|---|---|
| GPT-5.4 | 5 mars | 6 mars | 1 jour |
| Gemini 3.1 Flash-Lite | 3 mars | 5 mars | 2 jours |
Des abstractions de fournisseur propres, plus une communauté assez grande pour couvrir chaque labo majeur. C'est tout le secret.
UI multilingue : espagnol, allemand et une recherche plus futée
La Control UI parle désormais espagnol et allemand, contribués par @DaoPromociones via PR #35038. Détection de locale, chargement différé des bundles de traduction, labels du sélecteur de langue — tout y est.
Le moteur de recherche a aussi progressé. Les mots vides et la tokenisation en espagnol, portugais, japonais, coréen et arabe sont maintenant traités correctement. Les utilisateurs qui font tourner leurs agents dans d'autres langues que l'anglais obtiennent enfin des résultats pertinents.
Vue d'ensemble
282 000+ étoiles GitHub. Plus de 1 100 contributeurs de tous les continents. La base d'utilisateurs était déjà mondiale ; les outils avaient juste du retard. Ajouter des locales, ce n'est pas un pari sur l'avenir — c'est rembourser une dette.
200+ corrections de bugs : ce que le trafic de production fait au logiciel
Plus de 200 corrections de bugs. On peut le lire comme « le logiciel était cassé » ou « assez de monde l'utilise en production pour trouver chaque cas limite ». Regardez ce qui a été corrigé et jugez par vous-même :
- •Validation des commandes de plugin : des spécifications malformées faisaient planter le démarrage. Maintenant validées à l'enregistrement.
- •Gateway Telegram : des tokens de compte manquants provoquaient des erreurs
token.trim(). Garde null ajoutée. - •Appairage TLS : les auto-connexions locales forçaient l'appairage de dispositifs, cassant les setups Docker et LAN. Les chemins locaux le sautent désormais.
- •Substitution de config : les placeholders
${VAR}non résolus causaient des erreurs critiques. Passage en mode dégradé avec avertissements — mais les placeholders non résolus ne passent pas comme credentials.
Ce n'est pas du vernis. C'est ce qui arrive quand un projet passe de « truc cool du week-end » à « truc dont les gens dépendent ».
ContextEngine : la vraie nouveauté de 3.7
Le plus gros de cette release, c'est l'interface de plugins ContextEngine — un système basé sur des slots qui permet aux plugins tiers de prendre en charge l'ingestion, l'assemblage et la compaction du contexte de session.
On a écrit un article dédié qui couvre l'architecture, les hooks de cycle de vie et l'écosystème naissant. En bref : la compaction par fenêtre glissante intégrée peut maintenant être remplacée proprement, et des alternatives existent déjà — Lossless-Claw pour la résumation DAG, MemOS Cloud Plugin pour la mémoire persistante inter-sessions.
Si 3.7 ne devait être retenu que pour une chose, ce serait ça.
En chiffres
| Métrique | Avant 3.7 | Après 3.7 |
|---|---|---|
| GitHub Stars | 266 500 | 282 300+ |
| Contributeurs | 1 108 | 1 164 |
| Commits totaux | 16 992 | 17 781 |
| Fournisseurs de modèles | 30+ | 30+ (avec GPT-5.4, Gemini 3.1) |
| Langues Control UI | 12 | 14 (+es, +de) |
La suite
ContextEngine, c'est les fondations. Ce qui se construit dessus, c'est là que ça devient intéressant. Assemblage de contexte RAG, mémoire partagée multi-agents, compaction optimisée par budget de tokens — tout ça est déjà en chantier.
3.7 n'est pas le genre de release qui fait la une avec une fonctionnalité phare. C'est celle qui dégage la voie pour tout ce qui suit. Onboarding de modèles plus rapide, couverture linguistique plus large, un cœur plus stable et une architecture extensible sur laquelle la communauté peut construire. Pas glamour. Les releases importantes le sont rarement.