OpenAI

OpenAI は GPT モデルの開発者向け API を提供しています。Codex は、サブスクリプションアクセス用の ChatGPT サインインと、従量課金アクセス用の API キーサインインに対応しています。Codex クラウドには ChatGPT サインインが必要です。OpenAI は OpenClaw などの外部ツール/ワークフローでのサブスクリプション OAuth 利用を公式にサポートしています。

オプション A: OpenAI API キー(OpenAI Platform)

最適な用途: 直接 API アクセスと従量課金。 OpenAI ダッシュボードから API キーを取得してください。

CLI セットアップ

openclaw onboard --auth-choice openai-api-key
# または非インタラクティブ
openclaw onboard --openai-api-key "$OPENAI_API_KEY"

設定例

{
  env: { OPENAI_API_KEY: "sk-..." },
  agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}

OpenAI の現在の API モデルドキュメントでは、直接 API 利用に gpt-5.4gpt-5.4-pro が記載されています。OpenClaw はどちらも openai/* Responses パスでフォワードします。OpenClaw は古い openai/gpt-5.3-codex-spark 行を意図的に非表示にしています。これは、直接 OpenAI API 呼び出しでライブトラフィックが拒否されるためです。

OpenClaw は直接 OpenAI API パスで openai/gpt-5.3-codex-spark を公開しませんpi-ai はそのモデル用のビルトイン行を保持していますが、現在のライブ OpenAI API リクエストでは拒否されます。Spark は OpenClaw では Codex 専用として扱われます。

オプション B: OpenAI Code(Codex)サブスクリプション

最適な用途: API キーの代わりに ChatGPT/Codex サブスクリプションアクセスを使用する場合。 Codex クラウドには ChatGPT サインインが必要ですが、Codex CLI は ChatGPT または API キーでのサインインに対応しています。

CLI セットアップ(Codex OAuth)

# ウィザードで Codex OAuth を実行
openclaw onboard --auth-choice openai-codex

# または OAuth を直接実行
openclaw models auth login --provider openai-codex

設定例(Codex サブスクリプション)

{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}

OpenAI の現在の Codex ドキュメントでは gpt-5.4 が現行の Codex モデルとして記載されています。OpenClaw はこれを ChatGPT/Codex OAuth 用に openai-codex/gpt-5.4 にマッピングします。

Codex アカウントに Codex Spark の利用資格がある場合、OpenClaw は以下もサポートします:

  • openai-codex/gpt-5.3-codex-spark

OpenClaw は Codex Spark を Codex 専用として扱い、直接 API キーパス openai/gpt-5.3-codex-spark は公開しません。

OpenClaw は pi-ai が検出した openai-codex/gpt-5.3-codex-spark も保持します。これは利用資格依存かつ実験的なものとして扱ってください。Codex Spark は GPT-5.4 /fast とは別物であり、利用可否はサインイン中の Codex / ChatGPT アカウントに依存します。

トランスポートのデフォルト

OpenClaw はモデルストリーミングに pi-ai を使用します。openai/*openai-codex/* の両方で、デフォルトのトランスポートは "auto"(WebSocket 優先、SSE フォールバック)です。

agents.defaults.models.<provider/model>.params.transport で設定できます:

  • "sse": SSE を強制
  • "websocket": WebSocket を強制
  • "auto": WebSocket を試行後、SSE にフォールバック

openai/*(Responses API)では、WebSocket トランスポート使用時に OpenClaw がデフォルトで WebSocket ウォームアップも有効化します(openaiWsWarmup: true)。

関連する OpenAI ドキュメント:

{
  agents: {
    defaults: {
      model: { primary: "openai-codex/gpt-5.4" },
      models: {
        "openai-codex/gpt-5.4": {
          params: {
            transport: "auto",
          },
        },
      },
    },
  },
}

OpenAI WebSocket ウォームアップ

OpenAI のドキュメントではウォームアップはオプションとされています。OpenClaw は WebSocket トランスポート使用時の初回レイテンシを低減するため、openai/* でデフォルト有効にしています。

ウォームアップの無効化

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            openaiWsWarmup: false,
          },
        },
      },
    },
  },
}

ウォームアップの明示的有効化

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            openaiWsWarmup: true,
          },
        },
      },
    },
  },
}

OpenAI 優先処理

OpenAI の API は service_tier=priority による優先処理を提供しています。OpenClaw では、agents.defaults.models["openai/<model>"].params.serviceTier を設定することで、直接 openai/* Responses リクエストにこのフィールドを渡せます。

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            serviceTier: "priority",
          },
        },
      },
    },
  },
}

サポートされる値は autodefaultflexpriority です。

OpenAI ファストモード

OpenClaw は openai/*openai-codex/* の両セッションで共通のファストモードトグルを提供しています:

  • チャット/UI: /fast status|on|off
  • 設定: agents.defaults.models["<provider>/<model>"].params.fastMode

ファストモードが有効の場合、OpenClaw は低レイテンシの OpenAI プロファイルを適用します:

  • ペイロードで reasoning が未指定の場合、reasoning.effort = "low" を設定
  • ペイロードで verbosity が未指定の場合、text.verbosity = "low" を設定
  • api.openai.com への直接 openai/* Responses 呼び出しに service_tier = "priority" を設定

設定例:

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            fastMode: true,
          },
        },
        "openai-codex/gpt-5.4": {
          params: {
            fastMode: true,
          },
        },
      },
    },
  },
}

セッション中のオーバーライドは設定より優先されます。Sessions UI でセッションオーバーライドをクリアすると、設定されたデフォルトに戻ります。

OpenAI Responses サーバーサイドコンパクション

直接 OpenAI Responses モデル(api.openai.combaseUrlapi: "openai-responses" を使用する openai/*)では、OpenClaw が OpenAI サーバーサイドコンパクションのペイロードヒントを自動的に有効化するようになりました:

  • store: true を強制(モデル互換性で supportsStore: false が設定されている場合を除く)
  • context_management: [{ type: "compaction", compact_threshold: ... }] を注入

デフォルトでは、compact_threshold はモデルの contextWindow70%(不明な場合は 80000)に設定されます。

サーバーサイドコンパクションの明示的有効化

互換性のある Responses モデル(例: Azure OpenAI Responses)で context_management の注入を強制したい場合に使用:

{
  agents: {
    defaults: {
      models: {
        "azure-openai-responses/gpt-5.4": {
          params: {
            responsesServerCompaction: true,
          },
        },
      },
    },
  },
}

カスタムしきい値での有効化

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            responsesServerCompaction: true,
            responsesCompactThreshold: 120000,
          },
        },
      },
    },
  },
}

サーバーサイドコンパクションの無効化

{
  agents: {
    defaults: {
      models: {
        "openai/gpt-5.4": {
          params: {
            responsesServerCompaction: false,
          },
        },
      },
    },
  },
}

responsesServerCompactioncontext_management の注入のみを制御します。直接 OpenAI Responses モデルは、互換性設定で supportsStore: false が指定されない限り、引き続き store: true を強制します。

補足

  • モデル参照は常に provider/model 形式です(/concepts/models 参照)。
  • 認証の詳細と再利用ルールは /concepts/oauth を参照してください。