announcement release models i18n

OpenClaw 3.7: obsługa modeli od pierwszego dnia, rozszerzenie wielojęzyczne i ponad 200 poprawek

OpenClaws.io Team

OpenClaws.io Team

@openclaws

March 9, 2026

6 min czytania

OpenClaw 3.7: obsługa modeli od pierwszego dnia, rozszerzenie wielojęzyczne i ponad 200 poprawek

OpenClaw 3.7 to największe wydanie od rebrandingu. Modele, lokalizacja, stabilność, architektura wtyczek — wszystko zostało ruszone.

Ekosystem modeli: GPT-5.4 i Gemini 3.1 Flash-Lite od pierwszego dnia

5 marca OpenAI wypuściło GPT-5.4. OpenClaw zmergował wsparcie następnego dnia. 3 marca Google opublikował preview Gemini 3.1 Flash-Lite. W ciągu 48 godzin działał.

Ta szybkość nie bierze się z odświeżania Twittera — tak jest zaprojektowana warstwa Model Providers. Dodanie nowego modelu to wkład o jasnym zakresie i dobrej dokumentacji. Gdy tylko dostawca publikuje specyfikację API, ktoś ze społeczności otwiera PR. Z zewnątrz wygląda to jak koordynacja z dostawcami; w rzeczywistości to po prostu pipeline kontrybutorów, który działa.

Dlaczego to ważne

Kto wybiera framework agentowy, ten wie: mało co boli bardziej niż nowy model, który wychodzi, a framework go tygodniami nie wspiera. OpenClaw zbudował historię dostępności od pierwszego lub drugiego dnia. To się liczy:

ModelWydanie dostawcyWsparcie OpenClawRóżnica
GPT-5.45 marca6 marca1 dzień
Gemini 3.1 Flash-Lite3 marca5 marca2 dni

Czyste abstrakcje dostawców plus społeczność wystarczająco duża, by pokryć każde ważne laboratorium. Cały trik.

Wielojęzyczny UI: hiszpański, niemiecki i sprytniejsze wyszukiwanie

Control UI mówi teraz po hiszpańsku i niemiecku, dzięki @DaoPromociones przez PR #35038. Wykrywanie języka, leniwe ładowanie paczek tłumaczeń, etykiety selektora języka — pełen pakiet.

Silnik wyszukiwania też się poprawił. Stop-słowa i tokenizacja dla hiszpańskiego, portugalskiego, japońskiego, koreańskiego i arabskiego są teraz obsługiwane poprawnie. Użytkownicy wielojęzyczni wreszcie dostają trafne wyniki.

Szersza perspektywa

282 000+ gwiazdek na GitHubie. 1100+ kontrybutorów ze wszystkich kontynentów. Baza użytkowników dawno stała się globalna; narzędzia po prostu nie nadążały. Dodawanie lokalizacji to nie zakład na przyszłość — to spłacanie długu.

200+ poprawek błędów: co ruch produkcyjny robi z oprogramowaniem

Ponad dwieście poprawek błędów. Można to czytać jako „oprogramowanie było zepsute" albo „wystarczająco dużo ludzi używa go produkcyjnie, żeby znaleźć każdy przypadek brzegowy." Popatrzcie, co naprawiono, i oceńcie sami:

  • Walidacja komend wtyczek: zniekształcone definicje powodowały crash przy starcie. Teraz walidowane przy rejestracji.
  • Bramka Telegram: brakujące tokeny kont powodowały błędy token.trim(). Dodano null guard.
  • Parowanie TLS: lokalne samopołączenia wymuszały parowanie urządzeń, psując konfiguracje Docker i LAN. Ścieżki lokalne teraz to pomijają.
  • Podstawianie konfiguracji: nierozwiązane placeholdery ${VAR} powodowały twarde błędy. Teraz tryb zdegradowany z ostrzeżeniami — ale nierozwiązane wartości nie przechodzą jako dane uwierzytelniające.

To nie kosmetyka. To jest to, co się dzieje, gdy projekt przechodzi z „fajnego weekendowego projektu" do „czegoś, od czego ludzie zależą."

ContextEngine: prawdziwa historia 3.7

Największa rzecz w tym wydaniu to interfejs wtyczek ContextEngine — system oparty na slotach, który daje wtyczkom zewnętrznym pełną kontrolę nad tym, jak kontekst sesji jest pobierany, składany i kompresowany.

Napisaliśmy osobny artykuł opisujący architekturę, hooki cyklu życia i wczesny ekosystem. W skrócie: wbudowana kompresja oknem przesuwnym może być teraz czysto zastąpiona, a ludzie już dostarczają alternatywy — Lossless-Claw do sumaryzacji opartej na DAG, MemOS Cloud Plugin do trwałej pamięci międzysesyjnej.

Jeśli 3.7 zostanie zapamiętane za jedną rzecz, to za tę.

W liczbach

MetrykaPrzed 3.7Po 3.7
GitHub Stars266 500282 300+
Kontrybutorzy1 1081 164
Łączna liczba commitów16 99217 781
Dostawcy modeli30+30+ (z GPT-5.4, Gemini 3.1)
Języki Control UI1214 (+es, +de)

Co dalej

ContextEngine to fundament. Co się na nim zbuduje, to interesująca część. Składanie kontekstu z RAG, współdzielona pamięć wielu agentów, kompresja zoptymalizowana pod budżet tokenów — nad tym wszystkim już trwają prace.

3.7 to nie wydanie, które trafia na nagłówki jedną efektowną funkcją. To takie, które toruje drogę wszystkiemu, co przyjdzie później. Szybsze wdrażanie modeli, szersze pokrycie językowe, stabilniejszy rdzeń i rozszerzalna architektura, na której społeczność może budować. Nie jest efektowne. Ważne wydania rzadko takie są.

Bądź na bieżąco

Otrzymuj informacje o nowych funkcjach i integracjach. Bez spamu, wypisanie w każdej chwili.