モデルプロバイダー
このページではLLM/モデルプロバイダーについて解説します(WhatsApp/TelegramなどのチャットチャネルではなくAIモデル提供元です)。 モデル選択のルールについては/concepts/modelsを参照してください。
基本ルール
- モデル参照は
provider/model形式(例:opencode/claude-opus-4-6)。 agents.defaults.modelsを設定するとそれが許可リストになります。- CLIヘルパー:
openclaw onboard、openclaw models list、openclaw models set <provider/model>。
APIキーローテーション
- 選択されたプロバイダーに対する汎用ローテーションをサポート。
- 複数キーの設定方法:
OPENCLAW_LIVE_<PROVIDER>_KEY(単一のライブオーバーライド、最高優先度)<PROVIDER>_API_KEYS(カンマまたはセミコロン区切りリスト)<PROVIDER>_API_KEY(プライマリキー)<PROVIDER>_API_KEY_*(番号付きリスト、例:<PROVIDER>_API_KEY_1)
- Googleプロバイダーの場合、
GOOGLE_API_KEYもフォールバックとして含まれます。 - キー選択順序は優先度を保持し、値の重複を排除します。
- レート制限レスポンス(例:
429、rate_limit、quota、resource exhausted)の場合のみ次のキーでリトライ。 - 非レート制限の失敗は即座に失敗し、キーローテーションは行われません。
- すべての候補キーが失敗した場合、最後の試行のエラーが返されます。
組み込みプロバイダー(pi-aiカタログ)
OpenClawにはpi-aiカタログが同梱されています。これらのプロバイダーは models.providers の設定不要です。認証を設定してモデルを選択するだけで使えます。
OpenAI
- プロバイダー:
openai - 認証:
OPENAI_API_KEY - オプションローテーション:
OPENAI_API_KEYS、OPENAI_API_KEY_1、OPENAI_API_KEY_2、およびOPENCLAW_LIVE_OPENAI_KEY(単一オーバーライド) - モデル例:
openai/gpt-5.4、openai/gpt-5.4-pro - CLI:
openclaw onboard --auth-choice openai-api-key - デフォルトトランスポートは
auto(WebSocket優先、SSEフォールバック) - モデルごとに
agents.defaults.models["openai/<model>"].params.transport("sse"、"websocket"、"auto")でオーバーライド可能 - OpenAI Responses WebSocketウォームアップは
params.openaiWsWarmup(true/false)でデフォルト有効 - OpenAI優先処理は
agents.defaults.models["openai/<model>"].params.serviceTierで有効化可能 - OpenAIファストモードはモデルごとに
agents.defaults.models["<provider>/<model>"].params.fastModeで有効化可能 openai/gpt-5.3-codex-sparkはOpenClawで意図的に抑制されています。ライブOpenAI APIがこれを拒否するため、SparkはCodex専用として扱われます
{
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
Anthropic
- プロバイダー:
anthropic - 認証:
ANTHROPIC_API_KEYまたはclaude setup-token - オプションローテーション:
ANTHROPIC_API_KEYS、ANTHROPIC_API_KEY_1、ANTHROPIC_API_KEY_2、およびOPENCLAW_LIVE_ANTHROPIC_KEY(単一オーバーライド) - モデル例:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice token(setup-tokenを貼り付け)またはopenclaw models auth paste-token --provider anthropic - 直接APIキーモデルは共有の
/fastトグルとparams.fastModeをサポート。OpenClawはこれをAnthropicのservice_tier(autovsstandard_only)にマッピングします - ポリシーに関する注意: setup-tokenのサポートは技術的な互換性です。AnthropicはClaude Code以外でのサブスクリプション使用を過去にブロックしたことがあります。現在のAnthropicの利用規約を確認し、リスク許容度に基づいて判断してください。
- 推奨: サブスクリプションsetup-token認証よりもAnthropic APIキー認証がより安全で推奨されるパスです。
{
agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}
OpenAI Code(Codex)
- プロバイダー:
openai-codex - 認証: OAuth(ChatGPT)
- モデル例:
openai-codex/gpt-5.4 - CLI:
openclaw onboard --auth-choice openai-codexまたはopenclaw models auth login --provider openai-codex - デフォルトトランスポートは
auto(WebSocket優先、SSEフォールバック) - モデルごとに
agents.defaults.models["openai-codex/<model>"].params.transport("sse"、"websocket"、"auto")でオーバーライド可能 - 直接
openai/*と同じ/fastトグルとparams.fastMode設定を共有 openai-codex/gpt-5.3-codex-sparkはCodex OAuthカタログが公開している場合に利用可能。エンタイトルメントに依存- ポリシーに関する注意: OpenAI Codex OAuthはOpenClawのような外部ツール/ワークフローで明示的にサポートされています。
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}
OpenCode
- 認証:
OPENCODE_API_KEY(またはOPENCODE_ZEN_API_KEY) - Zenランタイムプロバイダー:
opencode - Goランタイムプロバイダー:
opencode-go - モデル例:
opencode/claude-opus-4-6、opencode-go/kimi-k2.5 - CLI:
openclaw onboard --auth-choice opencode-zenまたはopenclaw onboard --auth-choice opencode-go
{
agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}
Google Gemini(APIキー)
- プロバイダー:
google - 認証:
GEMINI_API_KEY - オプションローテーション:
GEMINI_API_KEYS、GEMINI_API_KEY_1、GEMINI_API_KEY_2、GOOGLE_API_KEYフォールバック、およびOPENCLAW_LIVE_GEMINI_KEY(単一オーバーライド) - モデル例:
google/gemini-3.1-pro-preview、google/gemini-3-flash-preview - 互換性:
google/gemini-3.1-flash-previewを使用するレガシーOpenClaw設定はgoogle/gemini-3-flash-previewに正規化されます - CLI:
openclaw onboard --auth-choice gemini-api-key
Google Vertex、Antigravity、Gemini CLI
- プロバイダー:
google-vertex、google-antigravity、google-gemini-cli - 認証: Vertexはgcloud ADCを使用。Antigravity/Gemini CLIはそれぞれの認証フローを使用
- 注意: OpenClawでのAntigravityとGemini CLI OAuthは非公式の統合です。サードパーティクライアントの使用後にGoogleアカウントの制限を報告したユーザーもいます。Googleの利用規約を確認し、重要でないアカウントでの使用を検討してください。
- Antigravity OAuthはバンドルプラグイン(
google-antigravity-auth、デフォルトで無効)として同梱。- 有効化:
openclaw plugins enable google-antigravity-auth - ログイン:
openclaw models auth login --provider google-antigravity --set-default
- 有効化:
- Gemini CLI OAuthはバンドルプラグイン(
google-gemini-cli-auth、デフォルトで無効)として同梱。- 有効化:
openclaw plugins enable google-gemini-cli-auth - ログイン:
openclaw models auth login --provider google-gemini-cli --set-default - 注意: クライアントIDやシークレットを
openclaw.jsonに貼り付ける必要はありません。CLIログインフローはGatewayホスト上の認証プロファイルにトークンを保存します。
- 有効化:
Z.AI(GLM)
- プロバイダー:
zai - 認証:
ZAI_API_KEY - モデル例:
zai/glm-5 - CLI:
openclaw onboard --auth-choice zai-api-key- エイリアス:
z.ai/*とz-ai/*はzai/*に正規化されます
- エイリアス:
Vercel AI Gateway
- プロバイダー:
vercel-ai-gateway - 認証:
AI_GATEWAY_API_KEY - モデル例:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Kilo Gateway
- プロバイダー:
kilocode - 認証:
KILOCODE_API_KEY - モデル例:
kilocode/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --kilocode-api-key <key> - ベースURL:
https://api.kilo.ai/api/gateway/ - 拡張組み込みカタログにはGLM-5 Free、MiniMax M2.5 Free、GPT-5.2、Gemini 3 Pro Preview、Gemini 3 Flash Preview、Grok Code Fast 1、Kimi K2.5が含まれます。
セットアップの詳細は/providers/kilocodeを参照してください。
その他の組み込みプロバイダー
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - モデル例:
openrouter/anthropic/claude-sonnet-4-5 - Kilo Gateway:
kilocode(KILOCODE_API_KEY) - モデル例:
kilocode/anthropic/claude-opus-4.6 - xAI:
xai(XAI_API_KEY) - Mistral:
mistral(MISTRAL_API_KEY) - モデル例:
mistral/mistral-large-latest - CLI:
openclaw onboard --auth-choice mistral-api-key - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- CerebrasのGLMモデルはID
zai-glm-4.7とzai-glm-4.6を使用。 - OpenAI互換ベースURL:
https://api.cerebras.ai/v1
- CerebrasのGLMモデルはID
- GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENまたはHF_TOKEN)--- OpenAI互換ルーター。モデル例:huggingface/deepseek-ai/DeepSeek-R1。CLI:openclaw onboard --auth-choice huggingface-api-key。Hugging Face (Inference)を参照。
models.providers 経由のプロバイダー(カスタム/ベースURL)
models.providers(または models.json)を使ってカスタムプロバイダーやOpenAI/Anthropic互換プロキシを追加します。
Moonshot AI(Kimi)
MoonshotはOpenAI互換エンドポイントを使用するため、カスタムプロバイダーとして設定:
- プロバイダー:
moonshot - 認証:
MOONSHOT_API_KEY - モデル例:
moonshot/kimi-k2.5
Kimi K2モデルID:
{/_ moonshot-kimi-k2-model-refs:start _/ && null}
moonshot/kimi-k2.5moonshot/kimi-k2-0905-previewmoonshot/kimi-k2-turbo-previewmoonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbo{/_ moonshot-kimi-k2-model-refs:end _/ && null}
{
agents: {
defaults: { model: { primary: "moonshot/kimi-k2.5" } },
},
models: {
mode: "merge",
providers: {
moonshot: {
baseUrl: "https://api.moonshot.ai/v1",
apiKey: "${MOONSHOT_API_KEY}",
api: "openai-completions",
models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
},
},
},
}
Kimi Coding
Kimi CodingはMoonshot AIのAnthropic互換エンドポイントを使用:
- プロバイダー:
kimi-coding - 認証:
KIMI_API_KEY - モデル例:
kimi-coding/k2p5
{
env: { KIMI_API_KEY: "sk-..." },
agents: {
defaults: { model: { primary: "kimi-coding/k2p5" } },
},
}
Qwen OAuth(無料枠)
QwenはデバイスコードフローでQwen Coder+VisionへのOAuthアクセスを提供します。バンドルプラグインを有効にしてログイン:
openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default
モデル参照:
qwen-portal/coder-modelqwen-portal/vision-model
セットアップの詳細と注意事項は/providers/qwenを参照。
Volcano Engine(Doubao)
Volcano Engine(火山引擎)は中国でのDoubaoおよびその他のモデルへのアクセスを提供します。
- プロバイダー:
volcengine(コーディング:volcengine-plan) - 認証:
VOLCANO_ENGINE_API_KEY - モデル例:
volcengine/doubao-seed-1-8-251228 - CLI:
openclaw onboard --auth-choice volcengine-api-key
{
agents: {
defaults: { model: { primary: "volcengine/doubao-seed-1-8-251228" } },
},
}
利用可能なモデル:
volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)volcengine/doubao-seed-code-preview-251028volcengine/kimi-k2-5-260127(Kimi K2.5)volcengine/glm-4-7-251222(GLM 4.7)volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)
コーディングモデル(volcengine-plan):
volcengine-plan/ark-code-latestvolcengine-plan/doubao-seed-codevolcengine-plan/kimi-k2.5volcengine-plan/kimi-k2-thinkingvolcengine-plan/glm-4.7
BytePlus(International)
BytePlus ARKはVolcano Engineと同じモデルを国際ユーザー向けに提供します。
- プロバイダー:
byteplus(コーディング:byteplus-plan) - 認証:
BYTEPLUS_API_KEY - モデル例:
byteplus/seed-1-8-251228 - CLI:
openclaw onboard --auth-choice byteplus-api-key
{
agents: {
defaults: { model: { primary: "byteplus/seed-1-8-251228" } },
},
}
利用可能なモデル:
byteplus/seed-1-8-251228(Seed 1.8)byteplus/kimi-k2-5-260127(Kimi K2.5)byteplus/glm-4-7-251222(GLM 4.7)
コーディングモデル(byteplus-plan):
byteplus-plan/ark-code-latestbyteplus-plan/doubao-seed-codebyteplus-plan/kimi-k2.5byteplus-plan/kimi-k2-thinkingbyteplus-plan/glm-4.7
Synthetic
SyntheticはAnthropic互換モデルを synthetic プロバイダーで提供:
- プロバイダー:
synthetic - 認証:
SYNTHETIC_API_KEY - モデル例:
synthetic/hf:MiniMaxAI/MiniMax-M2.5 - CLI:
openclaw onboard --auth-choice synthetic-api-key
{
agents: {
defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
},
},
},
}
MiniMax
MiniMaxはカスタムエンドポイントを使用するため models.providers で設定:
- MiniMax(Anthropic互換):
--auth-choice minimax-api - 認証:
MINIMAX_API_KEY
セットアップの詳細、モデルオプション、設定スニペットは/providers/minimaxを参照。
Ollama
Ollamaはバンドルプロバイダープラグインとして同梱され、OllamaのネイティブAPIを使用:
- プロバイダー:
ollama - 認証: 不要(ローカルサーバー)
- モデル例:
ollama/llama3.3 - インストール: https://ollama.com/download
# Ollamaをインストールしてモデルをプル:
ollama pull llama3.3
{
agents: {
defaults: { model: { primary: "ollama/llama3.3" } },
},
}
OLLAMA_API_KEY でオプトインすると http://127.0.0.1:11434 でローカル検出され、バンドルプロバイダープラグインがOllamaを openclaw onboard とモデルピッカーに直接追加します。オンボーディング、クラウド/ローカルモード、カスタム設定については/providers/ollamaを参照してください。
vLLM
vLLMはローカル/セルフホストのOpenAI互換サーバー用のバンドルプロバイダープラグインとして同梱:
- プロバイダー:
vllm - 認証: オプション(サーバーに依存)
- デフォルトベースURL:
http://127.0.0.1:8000/v1
ローカルでの自動検出をオプトイン(サーバーが認証を強制しない場合は任意の値で可):
export VLLM_API_KEY="vllm-local"
モデルを設定(/v1/models が返すIDのいずれかに置き換え):
{
agents: {
defaults: { model: { primary: "vllm/your-model-id" } },
},
}
詳細は/providers/vllmを参照。
SGLang
SGLangは高速セルフホストOpenAI互換サーバー用のバンドルプロバイダープラグインとして同梱:
- プロバイダー:
sglang - 認証: オプション(サーバーに依存)
- デフォルトベースURL:
http://127.0.0.1:30000/v1
ローカルでの自動検出をオプトイン(サーバーが認証を強制しない場合は任意の値で可):
export SGLANG_API_KEY="sglang-local"
モデルを設定(/v1/models が返すIDのいずれかに置き換え):
{
agents: {
defaults: { model: { primary: "sglang/your-model-id" } },
},
}
詳細は/providers/sglangを参照。
ローカルプロキシ(LM Studio、vLLM、LiteLLMなど)
例(OpenAI互換):
{
agents: {
defaults: {
model: { primary: "lmstudio/minimax-m2.5-gs32" },
models: { "lmstudio/minimax-m2.5-gs32": { alias: "Minimax" } },
},
},
models: {
providers: {
lmstudio: {
baseUrl: "http://localhost:1234/v1",
apiKey: "LMSTUDIO_KEY",
api: "openai-completions",
models: [
{
id: "minimax-m2.5-gs32",
name: "MiniMax M2.5",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 200000,
maxTokens: 8192,
},
],
},
},
},
}
注意:
- カスタムプロバイダーの場合、
reasoning、input、cost、contextWindow、maxTokensはオプションです。省略時のOpenClawデフォルト:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- 推奨: プロキシ/モデルの制限に合った明示的な値を設定。
- 非ネイティブエンドポイント(ホストが
api.openai.comでない空でないbaseUrl)のapi: "openai-completions"では、OpenClawはサポートされていないdeveloperロールによるプロバイダー400エラーを避けるためcompat.supportsDeveloperRole: falseを強制します。 baseUrlが空/省略の場合、OpenClawはデフォルトのOpenAI動作(api.openai.comに解決)を維持します。- 安全のため、非ネイティブの
openai-completionsエンドポイントでは明示的なcompat.supportsDeveloperRole: trueもオーバーライドされます。
CLIの例
openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
関連: 完全な設定例は/gateway/configurationを参照。