Modell-Provider
OpenClaw kann viele LLM-Provider nutzen. Wähle einen Provider, authentifiziere dich und setze dann das
Standardmodell als provider/model.
Suchst du Dokumentation zu Chat-Kanälen (WhatsApp/Telegram/Discord/Slack/Mattermost (Plugin)/etc.)? Siehe Channels.
Schnellstart
- Authentifiziere dich beim Provider (normalerweise über
openclaw onboard). - Setze das Standardmodell:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
Provider-Dokumentation
- Amazon Bedrock
- Anthropic (API + Claude Code CLI)
- Cloudflare AI Gateway
- GLM-Modelle
- Hugging Face (Inference)
- Kilocode
- LiteLLM (Unified Gateway)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (Cloud- + lokale Modelle)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen (OAuth)
- Together AI
- Vercel AI Gateway
- Venice (Venice AI, datenschutzorientiert)
- vLLM (lokale Modelle)
- Xiaomi
- Z.AI
Transkriptions-Provider
Community-Tools
- Claude Max API Proxy - Community-Proxy für Claude-Abonnement-Credentials (prüfe die Anthropic-Richtlinien/Nutzungsbedingungen vor der Verwendung)
Für den vollständigen Provider-Katalog (xAI, Groq, Mistral, etc.) und erweiterte Konfiguration siehe Modell-Provider.