OpenClaw 3.7 to największe wydanie od rebrandingu. Modele, lokalizacja, stabilność, architektura wtyczek — wszystko zostało ruszone.
Ekosystem modeli: GPT-5.4 i Gemini 3.1 Flash-Lite od pierwszego dnia
5 marca OpenAI wypuściło GPT-5.4. OpenClaw zmergował wsparcie następnego dnia. 3 marca Google opublikował preview Gemini 3.1 Flash-Lite. W ciągu 48 godzin działał.
Ta szybkość nie bierze się z odświeżania Twittera — tak jest zaprojektowana warstwa Model Providers. Dodanie nowego modelu to wkład o jasnym zakresie i dobrej dokumentacji. Gdy tylko dostawca publikuje specyfikację API, ktoś ze społeczności otwiera PR. Z zewnątrz wygląda to jak koordynacja z dostawcami; w rzeczywistości to po prostu pipeline kontrybutorów, który działa.
Dlaczego to ważne
Kto wybiera framework agentowy, ten wie: mało co boli bardziej niż nowy model, który wychodzi, a framework go tygodniami nie wspiera. OpenClaw zbudował historię dostępności od pierwszego lub drugiego dnia. To się liczy:
| Model | Wydanie dostawcy | Wsparcie OpenClaw | Różnica |
|---|---|---|---|
| GPT-5.4 | 5 marca | 6 marca | 1 dzień |
| Gemini 3.1 Flash-Lite | 3 marca | 5 marca | 2 dni |
Czyste abstrakcje dostawców plus społeczność wystarczająco duża, by pokryć każde ważne laboratorium. Cały trik.
Wielojęzyczny UI: hiszpański, niemiecki i sprytniejsze wyszukiwanie
Control UI mówi teraz po hiszpańsku i niemiecku, dzięki @DaoPromociones przez PR #35038. Wykrywanie języka, leniwe ładowanie paczek tłumaczeń, etykiety selektora języka — pełen pakiet.
Silnik wyszukiwania też się poprawił. Stop-słowa i tokenizacja dla hiszpańskiego, portugalskiego, japońskiego, koreańskiego i arabskiego są teraz obsługiwane poprawnie. Użytkownicy wielojęzyczni wreszcie dostają trafne wyniki.
Szersza perspektywa
282 000+ gwiazdek na GitHubie. 1100+ kontrybutorów ze wszystkich kontynentów. Baza użytkowników dawno stała się globalna; narzędzia po prostu nie nadążały. Dodawanie lokalizacji to nie zakład na przyszłość — to spłacanie długu.
200+ poprawek błędów: co ruch produkcyjny robi z oprogramowaniem
Ponad dwieście poprawek błędów. Można to czytać jako „oprogramowanie było zepsute" albo „wystarczająco dużo ludzi używa go produkcyjnie, żeby znaleźć każdy przypadek brzegowy." Popatrzcie, co naprawiono, i oceńcie sami:
- •Walidacja komend wtyczek: zniekształcone definicje powodowały crash przy starcie. Teraz walidowane przy rejestracji.
- •Bramka Telegram: brakujące tokeny kont powodowały błędy
token.trim(). Dodano null guard. - •Parowanie TLS: lokalne samopołączenia wymuszały parowanie urządzeń, psując konfiguracje Docker i LAN. Ścieżki lokalne teraz to pomijają.
- •Podstawianie konfiguracji: nierozwiązane placeholdery
${VAR}powodowały twarde błędy. Teraz tryb zdegradowany z ostrzeżeniami — ale nierozwiązane wartości nie przechodzą jako dane uwierzytelniające.
To nie kosmetyka. To jest to, co się dzieje, gdy projekt przechodzi z „fajnego weekendowego projektu" do „czegoś, od czego ludzie zależą."
ContextEngine: prawdziwa historia 3.7
Największa rzecz w tym wydaniu to interfejs wtyczek ContextEngine — system oparty na slotach, który daje wtyczkom zewnętrznym pełną kontrolę nad tym, jak kontekst sesji jest pobierany, składany i kompresowany.
Napisaliśmy osobny artykuł opisujący architekturę, hooki cyklu życia i wczesny ekosystem. W skrócie: wbudowana kompresja oknem przesuwnym może być teraz czysto zastąpiona, a ludzie już dostarczają alternatywy — Lossless-Claw do sumaryzacji opartej na DAG, MemOS Cloud Plugin do trwałej pamięci międzysesyjnej.
Jeśli 3.7 zostanie zapamiętane za jedną rzecz, to za tę.
W liczbach
| Metryka | Przed 3.7 | Po 3.7 |
|---|---|---|
| GitHub Stars | 266 500 | 282 300+ |
| Kontrybutorzy | 1 108 | 1 164 |
| Łączna liczba commitów | 16 992 | 17 781 |
| Dostawcy modeli | 30+ | 30+ (z GPT-5.4, Gemini 3.1) |
| Języki Control UI | 12 | 14 (+es, +de) |
Co dalej
ContextEngine to fundament. Co się na nim zbuduje, to interesująca część. Składanie kontekstu z RAG, współdzielona pamięć wielu agentów, kompresja zoptymalizowana pod budżet tokenów — nad tym wszystkim już trwają prace.
3.7 to nie wydanie, które trafia na nagłówki jedną efektowną funkcją. To takie, które toruje drogę wszystkiemu, co przyjdzie później. Szybsze wdrażanie modeli, szersze pokrycie językowe, stabilniejszy rdzeń i rozszerzalna architektura, na której społeczność może budować. Nie jest efektowne. Ważne wydania rzadko takie są.