OpenClaw 3.7 ist das größte Release seit dem Rebranding. Modelle, Lokalisierung, Stabilität, Plugin-Architektur — an allem wurde gearbeitet.
Modell-Ökosystem: GPT-5.4 und Gemini 3.1 Flash-Lite ab Tag eins
Am 5. März veröffentlichte OpenAI GPT-5.4. OpenClaw hatte den Support am nächsten Tag gemergt. Am 3. März stellte Google die Gemini 3.1 Flash-Lite Preview vor. Innerhalb von 48 Stunden lief es.
Diese Geschwindigkeit kommt nicht davon, dass jemand Twitter refresht hat — so ist die Model-Providers-Schicht konzipiert. Ein neues Modell hinzuzufügen ist ein klar abgegrenzter Beitrag mit sauberer Dokumentation. Sobald ein Anbieter eine API-Spezifikation veröffentlicht, öffnet jemand in der Community einen PR. Von außen sieht es nach Koordination mit den Anbietern aus, ist aber einfach eine Contributor-Pipeline, die funktioniert.
Warum das wichtig ist
Wer ein Agent-Framework evaluiert, kennt wenig Schlimmeres als ein neues Modell, das erscheint, und das Framework unterstützt es wochenlang nicht. OpenClaw hat sich eine Bilanz aufgebaut: Verfügbarkeit am ersten oder zweiten Tag. Das zählt:
| Modell | Anbieter-Release | OpenClaw-Support | Differenz |
|---|---|---|---|
| GPT-5.4 | 5. März | 6. März | 1 Tag |
| Gemini 3.1 Flash-Lite | 3. März | 5. März | 2 Tage |
Saubere Provider-Abstraktionen plus eine Community, die groß genug ist, jedes relevante Labor abzudecken. Mehr Geheimnis steckt nicht dahinter.
Mehrsprachige UI: Spanisch, Deutsch und intelligentere Suche
Die Control UI spricht jetzt Spanisch und Deutsch, beigetragen von @DaoPromociones via PR #35038. Locale-Erkennung, Lazy-Loading der Übersetzungspakete, Sprachauswahl-Labels — das volle Programm.
Die Suchmaschine wurde ebenfalls besser. Stoppwörter und Tokenisierung für Spanisch, Portugiesisch, Japanisch, Koreanisch und Arabisch werden jetzt korrekt verarbeitet. Nutzer, die ihren Agenten in anderen Sprachen als Englisch betreiben, bekommen endlich relevante Ergebnisse.
Das große Bild
282.000+ Stars auf GitHub. 1.100+ Contributors von allen Kontinenten. Die Nutzerbasis war längst global; die Werkzeuge haben nur nicht mitgehalten. Locales hinzuzufügen ist keine Wette auf die Zukunft — es ist das Begleichen einer Schuld.
200+ Bugfixes: Was echter Produktions-Traffic mit Software anrichtet
Über 200 Bugfixes. Man kann das lesen als „die Software war kaputt" oder als „genug Leute nutzen sie in Produktion, um jeden Grenzfall aufzudecken." Schaut euch an, was repariert wurde, und urteilt selbst:
- •Plugin-Kommando-Validierung: Fehlerhafte Kommandodefinitionen ließen den Start abstürzen. Jetzt bei der Registrierung validiert.
- •Telegram-Gateway: Fehlende Account-Tokens lösten
token.trim()-Fehler aus. Null-Guard eingefügt. - •TLS-Pairing: Lokale Selbstverbindungen erzwangen Device-Pairing, was Docker- und LAN-Setups kaputt machte. Lokale Pfade überspringen das jetzt.
- •Config-Substitution: Nicht aufgelöste
${VAR}-Platzhalter verursachten harte Fehler. Jetzt Degraded Mode mit Warnungen — aber nicht aufgelöste Platzhalter werden nicht als Credentials durchgelassen.
Das ist keine Kosmetik. Das passiert, wenn ein Projekt von „cooles Wochenendprojekt" zu „Ding, von dem Leute abhängen" wird.
ContextEngine: Die eigentliche Geschichte von 3.7
Das Größte in diesem Release ist das ContextEngine-Plugin-Interface — ein Slot-basiertes System, das Drittanbieter-Plugins die volle Kontrolle darüber gibt, wie Session-Kontext aufgenommen, zusammengesetzt und komprimiert wird.
Wir haben einen separaten Deep-Dive geschrieben, der Architektur, Lifecycle-Hooks und das frühe Ökosystem abdeckt. Die Kurzversion: Die eingebaute Sliding-Window-Komprimierung kann jetzt sauber ersetzt werden, und es gibt bereits Alternativen — Lossless-Claw für DAG-basierte Zusammenfassung, MemOS Cloud Plugin für persistenten sitzungsübergreifenden Speicher.
Wenn man sich an 3.7 für eine Sache erinnert, dann für diese.
In Zahlen
| Metrik | Vor 3.7 | Nach 3.7 |
|---|---|---|
| GitHub Stars | 266.500 | 282.300+ |
| Contributors | 1.108 | 1.164 |
| Gesamte Commits | 16.992 | 17.781 |
| Modell-Provider | 30+ | 30+ (mit GPT-5.4, Gemini 3.1) |
| Control-UI-Sprachen | 12 | 14 (+es, +de) |
Was kommt
ContextEngine ist das Fundament. Was darauf gebaut wird, ist das Spannende. RAG-basierte Kontextmontage, gemeinsamer Speicher für Multi-Agenten, tokenbudget-optimierte Komprimierung — an all dem wird bereits gearbeitet.
3.7 ist nicht das Release, das mit einem einzigen Feature Schlagzeilen macht. Es ist das Release, das den Weg frei macht für alles, was danach kommt. Schnelleres Modell-Onboarding, breitere Sprachabdeckung, ein stabilerer Kern und eine erweiterbare Architektur, auf der die Community aufbauen kann. Nicht glamourös. Die wichtigen Releases sind es selten.