Modell-Provider
OpenClaw kann viele LLM-Provider nutzen. Wähle einen aus, authentifiziere dich und setze dann das Standardmodell
als provider/model.
Schnellstart (zwei Schritte)
- Authentifiziere dich beim Provider (normalerweise über
openclaw onboard). - Setze das Standardmodell:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Unterstützte Provider (Startauswahl)
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Mistral
- Synthetic
- OpenCode (Zen + Go)
- Z.AI
- GLM-Modelle
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
- Qianfan
Für den vollständigen Provider-Katalog (xAI, Groq, Mistral, etc.) und erweiterte Konfiguration siehe Modell-Provider.