모델 프로바이더
OpenClaw는 다양한 LLM 프로바이더를 사용할 수 있습니다. 프로바이더를 선택하고 인증한 후, 기본 모델을 provider/model 형식으로 설정하세요.
채팅 채널 문서(WhatsApp/Telegram/Discord/Slack/Mattermost(플러그인)/등)를 찾고 계신가요? Channels를 참조하세요.
빠른 시작
- 프로바이더에 인증합니다(보통
openclaw onboard를 통해). - 기본 모델을 설정합니다:
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
프로바이더 문서
- Amazon Bedrock
- Anthropic (API + Claude Code CLI)
- Cloudflare AI Gateway
- GLM 모델
- Hugging Face (Inference)
- Kilocode
- LiteLLM (통합 게이트웨이)
- MiniMax
- Mistral
- Moonshot AI (Kimi + Kimi Coding)
- NVIDIA
- Ollama (클라우드 + 로컬 모델)
- OpenAI (API + Codex)
- OpenCode (Zen + Go)
- OpenRouter
- Qianfan
- Qwen (OAuth)
- Together AI
- Vercel AI Gateway
- Venice (Venice AI, 프라이버시 중심)
- vLLM (로컬 모델)
- Xiaomi
- Z.AI
전사 프로바이더
커뮤니티 도구
- Claude Max API Proxy - Claude 구독 자격 증명을 위한 커뮤니티 프록시 (사용 전 Anthropic 정책/약관을 확인하세요)
전체 프로바이더 카탈로그(xAI, Groq, Mistral 등) 및 고급 설정은 Model providers를 참조하세요.