announcement release models i18n

OpenClaw 3.7 : support des modèles dès J1, expansion multilingue et plus de 200 corrections

OpenClaws.io Team

OpenClaws.io Team

@openclaws

March 9, 2026

6 min de lecture

OpenClaw 3.7 : support des modèles dès J1, expansion multilingue et plus de 200 corrections

OpenClaw 3.7 est la plus grosse mise à jour depuis le changement de nom. Modèles, localisation, stabilité, architecture de plugins — tout y est passé.

Écosystème de modèles : GPT-5.4 et Gemini 3.1 Flash-Lite dès le jour J

Le 5 mars, OpenAI a sorti GPT-5.4. OpenClaw a mergé le support le lendemain. Le 3 mars, Google a publié la preview de Gemini 3.1 Flash-Lite. En 48 heures, c'était opérationnel.

Cette rapidité ne vient pas de quelqu'un qui rafraîchit Twitter — c'est la couche Model Providers qui fait son travail. Ajouter un nouveau modèle est une contribution au périmètre clair, bien documentée. Dès qu'un fournisseur publie une spéc API, quelqu'un dans la communauté ouvre une PR. Vu de l'extérieur, on dirait une coordination avec les fournisseurs. En réalité, c'est simplement un pipeline de contributeurs qui tourne bien.

Pourquoi c'est important

Quand on évalue un framework d'agents, peu de choses font plus mal qu'un nouveau modèle qui sort et un framework qui ne le supporte pas pendant des semaines. OpenClaw a bâti un historique de disponibilité dès le premier ou le deuxième jour. Ça compte :

ModèleSortie fournisseurSupport OpenClawÉcart
GPT-5.45 mars6 mars1 jour
Gemini 3.1 Flash-Lite3 mars5 mars2 jours

Des abstractions de fournisseur propres, plus une communauté assez grande pour couvrir chaque labo majeur. C'est tout le secret.

UI multilingue : espagnol, allemand et une recherche plus futée

La Control UI parle désormais espagnol et allemand, contribués par @DaoPromociones via PR #35038. Détection de locale, chargement différé des bundles de traduction, labels du sélecteur de langue — tout y est.

Le moteur de recherche a aussi progressé. Les mots vides et la tokenisation en espagnol, portugais, japonais, coréen et arabe sont maintenant traités correctement. Les utilisateurs qui font tourner leurs agents dans d'autres langues que l'anglais obtiennent enfin des résultats pertinents.

Vue d'ensemble

282 000+ étoiles GitHub. Plus de 1 100 contributeurs de tous les continents. La base d'utilisateurs était déjà mondiale ; les outils avaient juste du retard. Ajouter des locales, ce n'est pas un pari sur l'avenir — c'est rembourser une dette.

200+ corrections de bugs : ce que le trafic de production fait au logiciel

Plus de 200 corrections de bugs. On peut le lire comme « le logiciel était cassé » ou « assez de monde l'utilise en production pour trouver chaque cas limite ». Regardez ce qui a été corrigé et jugez par vous-même :

  • Validation des commandes de plugin : des spécifications malformées faisaient planter le démarrage. Maintenant validées à l'enregistrement.
  • Gateway Telegram : des tokens de compte manquants provoquaient des erreurs token.trim(). Garde null ajoutée.
  • Appairage TLS : les auto-connexions locales forçaient l'appairage de dispositifs, cassant les setups Docker et LAN. Les chemins locaux le sautent désormais.
  • Substitution de config : les placeholders ${VAR} non résolus causaient des erreurs critiques. Passage en mode dégradé avec avertissements — mais les placeholders non résolus ne passent pas comme credentials.

Ce n'est pas du vernis. C'est ce qui arrive quand un projet passe de « truc cool du week-end » à « truc dont les gens dépendent ».

ContextEngine : la vraie nouveauté de 3.7

Le plus gros de cette release, c'est l'interface de plugins ContextEngine — un système basé sur des slots qui permet aux plugins tiers de prendre en charge l'ingestion, l'assemblage et la compaction du contexte de session.

On a écrit un article dédié qui couvre l'architecture, les hooks de cycle de vie et l'écosystème naissant. En bref : la compaction par fenêtre glissante intégrée peut maintenant être remplacée proprement, et des alternatives existent déjà — Lossless-Claw pour la résumation DAG, MemOS Cloud Plugin pour la mémoire persistante inter-sessions.

Si 3.7 ne devait être retenu que pour une chose, ce serait ça.

En chiffres

MétriqueAvant 3.7Après 3.7
GitHub Stars266 500282 300+
Contributeurs1 1081 164
Commits totaux16 99217 781
Fournisseurs de modèles30+30+ (avec GPT-5.4, Gemini 3.1)
Langues Control UI1214 (+es, +de)

La suite

ContextEngine, c'est les fondations. Ce qui se construit dessus, c'est là que ça devient intéressant. Assemblage de contexte RAG, mémoire partagée multi-agents, compaction optimisée par budget de tokens — tout ça est déjà en chantier.

3.7 n'est pas le genre de release qui fait la une avec une fonctionnalité phare. C'est celle qui dégage la voie pour tout ce qui suit. Onboarding de modèles plus rapide, couverture linguistique plus large, un cœur plus stable et une architecture extensible sur laquelle la communauté peut construire. Pas glamour. Les releases importantes le sont rarement.

Reste informé

Reçois les news sur les nouvelles fonctionnalités et intégrations. Pas de spam, désinscription à tout moment.