モデルプロバイダー

このページではLLM/モデルプロバイダーについて解説します(WhatsApp/TelegramなどのチャットチャネルではなくAIモデル提供元です)。 モデル選択のルールについては/concepts/modelsを参照してください。

基本ルール

  • モデル参照は provider/model 形式(例: opencode/claude-opus-4-6)。
  • agents.defaults.models を設定するとそれが許可リストになります。
  • CLIヘルパー: openclaw onboardopenclaw models listopenclaw models set <provider/model>

APIキーローテーション

  • 選択されたプロバイダーに対する汎用ローテーションをサポート。
  • 複数キーの設定方法:
    • OPENCLAW_LIVE_<PROVIDER>_KEY(単一のライブオーバーライド、最高優先度)
    • <PROVIDER>_API_KEYS(カンマまたはセミコロン区切りリスト)
    • <PROVIDER>_API_KEY(プライマリキー)
    • <PROVIDER>_API_KEY_*(番号付きリスト、例: <PROVIDER>_API_KEY_1
  • Googleプロバイダーの場合、GOOGLE_API_KEY もフォールバックとして含まれます。
  • キー選択順序は優先度を保持し、値の重複を排除します。
  • レート制限レスポンス(例: 429rate_limitquotaresource exhausted)の場合のみ次のキーでリトライ。
  • 非レート制限の失敗は即座に失敗し、キーローテーションは行われません。
  • すべての候補キーが失敗した場合、最後の試行のエラーが返されます。

組み込みプロバイダー(pi-aiカタログ)

OpenClawにはpi-aiカタログが同梱されています。これらのプロバイダーは models.providers の設定不要です。認証を設定してモデルを選択するだけで使えます。

OpenAI

  • プロバイダー: openai
  • 認証: OPENAI_API_KEY
  • オプションローテーション: OPENAI_API_KEYSOPENAI_API_KEY_1OPENAI_API_KEY_2、および OPENCLAW_LIVE_OPENAI_KEY(単一オーバーライド)
  • モデル例: openai/gpt-5.4openai/gpt-5.4-pro
  • CLI: openclaw onboard --auth-choice openai-api-key
  • デフォルトトランスポートは auto(WebSocket優先、SSEフォールバック)
  • モデルごとに agents.defaults.models["openai/<model>"].params.transport"sse""websocket""auto")でオーバーライド可能
  • OpenAI Responses WebSocketウォームアップは params.openaiWsWarmuptrue/false)でデフォルト有効
  • OpenAI優先処理は agents.defaults.models["openai/<model>"].params.serviceTier で有効化可能
  • OpenAIファストモードはモデルごとに agents.defaults.models["<provider>/<model>"].params.fastMode で有効化可能
  • openai/gpt-5.3-codex-spark はOpenClawで意図的に抑制されています。ライブOpenAI APIがこれを拒否するため、SparkはCodex専用として扱われます
{
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

Anthropic

  • プロバイダー: anthropic
  • 認証: ANTHROPIC_API_KEY または claude setup-token
  • オプションローテーション: ANTHROPIC_API_KEYSANTHROPIC_API_KEY_1ANTHROPIC_API_KEY_2、および OPENCLAW_LIVE_ANTHROPIC_KEY(単一オーバーライド)
  • モデル例: anthropic/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice token(setup-tokenを貼り付け)または openclaw models auth paste-token --provider anthropic
  • 直接APIキーモデルは共有の /fast トグルと params.fastMode をサポート。OpenClawはこれをAnthropicの service_tierauto vs standard_only)にマッピングします
  • ポリシーに関する注意: setup-tokenのサポートは技術的な互換性です。AnthropicはClaude Code以外でのサブスクリプション使用を過去にブロックしたことがあります。現在のAnthropicの利用規約を確認し、リスク許容度に基づいて判断してください。
  • 推奨: サブスクリプションsetup-token認証よりもAnthropic APIキー認証がより安全で推奨されるパスです。
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Code(Codex)

  • プロバイダー: openai-codex
  • 認証: OAuth(ChatGPT)
  • モデル例: openai-codex/gpt-5.4
  • CLI: openclaw onboard --auth-choice openai-codex または openclaw models auth login --provider openai-codex
  • デフォルトトランスポートは auto(WebSocket優先、SSEフォールバック)
  • モデルごとに agents.defaults.models["openai-codex/<model>"].params.transport"sse""websocket""auto")でオーバーライド可能
  • 直接 openai/* と同じ /fast トグルと params.fastMode 設定を共有
  • openai-codex/gpt-5.3-codex-spark はCodex OAuthカタログが公開している場合に利用可能。エンタイトルメントに依存
  • ポリシーに関する注意: OpenAI Codex OAuthはOpenClawのような外部ツール/ワークフローで明示的にサポートされています。
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

OpenCode

  • 認証: OPENCODE_API_KEY(または OPENCODE_ZEN_API_KEY
  • Zenランタイムプロバイダー: opencode
  • Goランタイムプロバイダー: opencode-go
  • モデル例: opencode/claude-opus-4-6opencode-go/kimi-k2.5
  • CLI: openclaw onboard --auth-choice opencode-zen または openclaw onboard --auth-choice opencode-go
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini(APIキー)

  • プロバイダー: google
  • 認証: GEMINI_API_KEY
  • オプションローテーション: GEMINI_API_KEYSGEMINI_API_KEY_1GEMINI_API_KEY_2GOOGLE_API_KEY フォールバック、および OPENCLAW_LIVE_GEMINI_KEY(単一オーバーライド)
  • モデル例: google/gemini-3.1-pro-previewgoogle/gemini-3-flash-preview
  • 互換性: google/gemini-3.1-flash-preview を使用するレガシーOpenClaw設定は google/gemini-3-flash-preview に正規化されます
  • CLI: openclaw onboard --auth-choice gemini-api-key

Google Vertex、Antigravity、Gemini CLI

  • プロバイダー: google-vertexgoogle-antigravitygoogle-gemini-cli
  • 認証: Vertexはgcloud ADCを使用。Antigravity/Gemini CLIはそれぞれの認証フローを使用
  • 注意: OpenClawでのAntigravityとGemini CLI OAuthは非公式の統合です。サードパーティクライアントの使用後にGoogleアカウントの制限を報告したユーザーもいます。Googleの利用規約を確認し、重要でないアカウントでの使用を検討してください。
  • Antigravity OAuthはバンドルプラグイン(google-antigravity-auth、デフォルトで無効)として同梱。
    • 有効化: openclaw plugins enable google-antigravity-auth
    • ログイン: openclaw models auth login --provider google-antigravity --set-default
  • Gemini CLI OAuthはバンドルプラグイン(google-gemini-cli-auth、デフォルトで無効)として同梱。
    • 有効化: openclaw plugins enable google-gemini-cli-auth
    • ログイン: openclaw models auth login --provider google-gemini-cli --set-default
    • 注意: クライアントIDやシークレットを openclaw.json に貼り付ける必要はありません。CLIログインフローはGatewayホスト上の認証プロファイルにトークンを保存します。

Z.AI(GLM)

  • プロバイダー: zai
  • 認証: ZAI_API_KEY
  • モデル例: zai/glm-5
  • CLI: openclaw onboard --auth-choice zai-api-key
    • エイリアス: z.ai/*z-ai/*zai/* に正規化されます

Vercel AI Gateway

  • プロバイダー: vercel-ai-gateway
  • 認証: AI_GATEWAY_API_KEY
  • モデル例: vercel-ai-gateway/anthropic/claude-opus-4.6
  • CLI: openclaw onboard --auth-choice ai-gateway-api-key

Kilo Gateway

  • プロバイダー: kilocode
  • 認証: KILOCODE_API_KEY
  • モデル例: kilocode/anthropic/claude-opus-4.6
  • CLI: openclaw onboard --kilocode-api-key <key>
  • ベースURL: https://api.kilo.ai/api/gateway/
  • 拡張組み込みカタログにはGLM-5 Free、MiniMax M2.5 Free、GPT-5.2、Gemini 3 Pro Preview、Gemini 3 Flash Preview、Grok Code Fast 1、Kimi K2.5が含まれます。

セットアップの詳細は/providers/kilocodeを参照してください。

その他の組み込みプロバイダー

  • OpenRouter: openrouterOPENROUTER_API_KEY
  • モデル例: openrouter/anthropic/claude-sonnet-4-5
  • Kilo Gateway: kilocodeKILOCODE_API_KEY
  • モデル例: kilocode/anthropic/claude-opus-4.6
  • xAI: xaiXAI_API_KEY
  • Mistral: mistralMISTRAL_API_KEY
  • モデル例: mistral/mistral-large-latest
  • CLI: openclaw onboard --auth-choice mistral-api-key
  • Groq: groqGROQ_API_KEY
  • Cerebras: cerebrasCEREBRAS_API_KEY
    • CerebrasのGLMモデルはID zai-glm-4.7zai-glm-4.6 を使用。
    • OpenAI互換ベースURL: https://api.cerebras.ai/v1
  • GitHub Copilot: github-copilotCOPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN
  • Hugging Face Inference: huggingfaceHUGGINGFACE_HUB_TOKEN または HF_TOKEN)--- OpenAI互換ルーター。モデル例: huggingface/deepseek-ai/DeepSeek-R1。CLI: openclaw onboard --auth-choice huggingface-api-keyHugging Face (Inference)を参照。

models.providers 経由のプロバイダー(カスタム/ベースURL)

models.providers(または models.json)を使ってカスタムプロバイダーやOpenAI/Anthropic互換プロキシを追加します。

Moonshot AI(Kimi)

MoonshotはOpenAI互換エンドポイントを使用するため、カスタムプロバイダーとして設定:

  • プロバイダー: moonshot
  • 認証: MOONSHOT_API_KEY
  • モデル例: moonshot/kimi-k2.5

Kimi K2モデルID:

{/_ moonshot-kimi-k2-model-refs:start _/ && null}

  • moonshot/kimi-k2.5
  • moonshot/kimi-k2-0905-preview
  • moonshot/kimi-k2-turbo-preview
  • moonshot/kimi-k2-thinking
  • moonshot/kimi-k2-thinking-turbo {/_ moonshot-kimi-k2-model-refs:end _/ && null}
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
      },
    },
  },
}

Kimi Coding

Kimi CodingはMoonshot AIのAnthropic互換エンドポイントを使用:

  • プロバイダー: kimi-coding
  • 認証: KIMI_API_KEY
  • モデル例: kimi-coding/k2p5
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi-coding/k2p5" } },
  },
}

Qwen OAuth(無料枠)

QwenはデバイスコードフローでQwen Coder+VisionへのOAuthアクセスを提供します。バンドルプラグインを有効にしてログイン:

openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default

モデル参照:

  • qwen-portal/coder-model
  • qwen-portal/vision-model

セットアップの詳細と注意事項は/providers/qwenを参照。

Volcano Engine(Doubao)

Volcano Engine(火山引擎)は中国でのDoubaoおよびその他のモデルへのアクセスを提供します。

  • プロバイダー: volcengine(コーディング: volcengine-plan
  • 認証: VOLCANO_ENGINE_API_KEY
  • モデル例: volcengine/doubao-seed-1-8-251228
  • CLI: openclaw onboard --auth-choice volcengine-api-key
{
  agents: {
    defaults: { model: { primary: "volcengine/doubao-seed-1-8-251228" } },
  },
}

利用可能なモデル:

  • volcengine/doubao-seed-1-8-251228(Doubao Seed 1.8)
  • volcengine/doubao-seed-code-preview-251028
  • volcengine/kimi-k2-5-260127(Kimi K2.5)
  • volcengine/glm-4-7-251222(GLM 4.7)
  • volcengine/deepseek-v3-2-251201(DeepSeek V3.2 128K)

コーディングモデル(volcengine-plan):

  • volcengine-plan/ark-code-latest
  • volcengine-plan/doubao-seed-code
  • volcengine-plan/kimi-k2.5
  • volcengine-plan/kimi-k2-thinking
  • volcengine-plan/glm-4.7

BytePlus(International)

BytePlus ARKはVolcano Engineと同じモデルを国際ユーザー向けに提供します。

  • プロバイダー: byteplus(コーディング: byteplus-plan
  • 認証: BYTEPLUS_API_KEY
  • モデル例: byteplus/seed-1-8-251228
  • CLI: openclaw onboard --auth-choice byteplus-api-key
{
  agents: {
    defaults: { model: { primary: "byteplus/seed-1-8-251228" } },
  },
}

利用可能なモデル:

  • byteplus/seed-1-8-251228(Seed 1.8)
  • byteplus/kimi-k2-5-260127(Kimi K2.5)
  • byteplus/glm-4-7-251222(GLM 4.7)

コーディングモデル(byteplus-plan):

  • byteplus-plan/ark-code-latest
  • byteplus-plan/doubao-seed-code
  • byteplus-plan/kimi-k2.5
  • byteplus-plan/kimi-k2-thinking
  • byteplus-plan/glm-4.7

Synthetic

SyntheticはAnthropic互換モデルを synthetic プロバイダーで提供:

  • プロバイダー: synthetic
  • 認証: SYNTHETIC_API_KEY
  • モデル例: synthetic/hf:MiniMaxAI/MiniMax-M2.5
  • CLI: openclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.5", name: "MiniMax M2.5" }],
      },
    },
  },
}

MiniMax

MiniMaxはカスタムエンドポイントを使用するため models.providers で設定:

  • MiniMax(Anthropic互換): --auth-choice minimax-api
  • 認証: MINIMAX_API_KEY

セットアップの詳細、モデルオプション、設定スニペットは/providers/minimaxを参照。

Ollama

Ollamaはバンドルプロバイダープラグインとして同梱され、OllamaのネイティブAPIを使用:

  • プロバイダー: ollama
  • 認証: 不要(ローカルサーバー)
  • モデル例: ollama/llama3.3
  • インストール: https://ollama.com/download
# Ollamaをインストールしてモデルをプル:
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}

OLLAMA_API_KEY でオプトインすると http://127.0.0.1:11434 でローカル検出され、バンドルプロバイダープラグインがOllamaを openclaw onboard とモデルピッカーに直接追加します。オンボーディング、クラウド/ローカルモード、カスタム設定については/providers/ollamaを参照してください。

vLLM

vLLMはローカル/セルフホストのOpenAI互換サーバー用のバンドルプロバイダープラグインとして同梱:

  • プロバイダー: vllm
  • 認証: オプション(サーバーに依存)
  • デフォルトベースURL: http://127.0.0.1:8000/v1

ローカルでの自動検出をオプトイン(サーバーが認証を強制しない場合は任意の値で可):

export VLLM_API_KEY="vllm-local"

モデルを設定(/v1/models が返すIDのいずれかに置き換え):

{
  agents: {
    defaults: { model: { primary: "vllm/your-model-id" } },
  },
}

詳細は/providers/vllmを参照。

SGLang

SGLangは高速セルフホストOpenAI互換サーバー用のバンドルプロバイダープラグインとして同梱:

  • プロバイダー: sglang
  • 認証: オプション(サーバーに依存)
  • デフォルトベースURL: http://127.0.0.1:30000/v1

ローカルでの自動検出をオプトイン(サーバーが認証を強制しない場合は任意の値で可):

export SGLANG_API_KEY="sglang-local"

モデルを設定(/v1/models が返すIDのいずれかに置き換え):

{
  agents: {
    defaults: { model: { primary: "sglang/your-model-id" } },
  },
}

詳細は/providers/sglangを参照。

ローカルプロキシ(LM Studio、vLLM、LiteLLMなど)

例(OpenAI互換):

{
  agents: {
    defaults: {
      model: { primary: "lmstudio/minimax-m2.5-gs32" },
      models: { "lmstudio/minimax-m2.5-gs32": { alias: "Minimax" } },
    },
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "LMSTUDIO_KEY",
        api: "openai-completions",
        models: [
          {
            id: "minimax-m2.5-gs32",
            name: "MiniMax M2.5",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

注意:

  • カスタムプロバイダーの場合、reasoninginputcostcontextWindowmaxTokens はオプションです。省略時のOpenClawデフォルト:
    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192
  • 推奨: プロキシ/モデルの制限に合った明示的な値を設定。
  • 非ネイティブエンドポイント(ホストが api.openai.com でない空でない baseUrl)の api: "openai-completions" では、OpenClawはサポートされていない developer ロールによるプロバイダー400エラーを避けるため compat.supportsDeveloperRole: false を強制します。
  • baseUrl が空/省略の場合、OpenClawはデフォルトのOpenAI動作(api.openai.com に解決)を維持します。
  • 安全のため、非ネイティブの openai-completions エンドポイントでは明示的な compat.supportsDeveloperRole: true もオーバーライドされます。

CLIの例

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list

関連: 完全な設定例は/gateway/configurationを参照。