OpenAI
OpenAI は GPT モデルの開発者向け API を提供しています。Codex は、サブスクリプションアクセス用の ChatGPT サインインと、従量課金アクセス用の API キーサインインに対応しています。Codex クラウドには ChatGPT サインインが必要です。OpenAI は OpenClaw などの外部ツール/ワークフローでのサブスクリプション OAuth 利用を公式にサポートしています。
オプション A: OpenAI API キー(OpenAI Platform)
最適な用途: 直接 API アクセスと従量課金。 OpenAI ダッシュボードから API キーを取得してください。
CLI セットアップ
openclaw onboard --auth-choice openai-api-key
# または非インタラクティブ
openclaw onboard --openai-api-key "$OPENAI_API_KEY"
設定例
{
env: { OPENAI_API_KEY: "sk-..." },
agents: { defaults: { model: { primary: "openai/gpt-5.4" } } },
}
OpenAI の現在の API モデルドキュメントでは、直接 API 利用に gpt-5.4 と gpt-5.4-pro が記載されています。OpenClaw はどちらも openai/* Responses パスでフォワードします。OpenClaw は古い openai/gpt-5.3-codex-spark 行を意図的に非表示にしています。これは、直接 OpenAI API 呼び出しでライブトラフィックが拒否されるためです。
OpenClaw は直接 OpenAI API パスで openai/gpt-5.3-codex-spark を公開しません。pi-ai はそのモデル用のビルトイン行を保持していますが、現在のライブ OpenAI API リクエストでは拒否されます。Spark は OpenClaw では Codex 専用として扱われます。
オプション B: OpenAI Code(Codex)サブスクリプション
最適な用途: API キーの代わりに ChatGPT/Codex サブスクリプションアクセスを使用する場合。 Codex クラウドには ChatGPT サインインが必要ですが、Codex CLI は ChatGPT または API キーでのサインインに対応しています。
CLI セットアップ(Codex OAuth)
# ウィザードで Codex OAuth を実行
openclaw onboard --auth-choice openai-codex
# または OAuth を直接実行
openclaw models auth login --provider openai-codex
設定例(Codex サブスクリプション)
{
agents: { defaults: { model: { primary: "openai-codex/gpt-5.4" } } },
}
OpenAI の現在の Codex ドキュメントでは gpt-5.4 が現行の Codex モデルとして記載されています。OpenClaw はこれを ChatGPT/Codex OAuth 用に openai-codex/gpt-5.4 にマッピングします。
Codex アカウントに Codex Spark の利用資格がある場合、OpenClaw は以下もサポートします:
openai-codex/gpt-5.3-codex-spark
OpenClaw は Codex Spark を Codex 専用として扱い、直接 API キーパス openai/gpt-5.3-codex-spark は公開しません。
OpenClaw は pi-ai が検出した openai-codex/gpt-5.3-codex-spark も保持します。これは利用資格依存かつ実験的なものとして扱ってください。Codex Spark は GPT-5.4 /fast とは別物であり、利用可否はサインイン中の Codex / ChatGPT アカウントに依存します。
トランスポートのデフォルト
OpenClaw はモデルストリーミングに pi-ai を使用します。openai/* と openai-codex/* の両方で、デフォルトのトランスポートは "auto"(WebSocket 優先、SSE フォールバック)です。
agents.defaults.models.<provider/model>.params.transport で設定できます:
"sse": SSE を強制"websocket": WebSocket を強制"auto": WebSocket を試行後、SSE にフォールバック
openai/*(Responses API)では、WebSocket トランスポート使用時に OpenClaw がデフォルトで WebSocket ウォームアップも有効化します(openaiWsWarmup: true)。
関連する OpenAI ドキュメント:
{
agents: {
defaults: {
model: { primary: "openai-codex/gpt-5.4" },
models: {
"openai-codex/gpt-5.4": {
params: {
transport: "auto",
},
},
},
},
},
}
OpenAI WebSocket ウォームアップ
OpenAI のドキュメントではウォームアップはオプションとされています。OpenClaw は WebSocket トランスポート使用時の初回レイテンシを低減するため、openai/* でデフォルト有効にしています。
ウォームアップの無効化
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: false,
},
},
},
},
},
}
ウォームアップの明示的有効化
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
openaiWsWarmup: true,
},
},
},
},
},
}
OpenAI 優先処理
OpenAI の API は service_tier=priority による優先処理を提供しています。OpenClaw では、agents.defaults.models["openai/<model>"].params.serviceTier を設定することで、直接 openai/* Responses リクエストにこのフィールドを渡せます。
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
serviceTier: "priority",
},
},
},
},
},
}
サポートされる値は auto、default、flex、priority です。
OpenAI ファストモード
OpenClaw は openai/* と openai-codex/* の両セッションで共通のファストモードトグルを提供しています:
- チャット/UI:
/fast status|on|off - 設定:
agents.defaults.models["<provider>/<model>"].params.fastMode
ファストモードが有効の場合、OpenClaw は低レイテンシの OpenAI プロファイルを適用します:
- ペイロードで reasoning が未指定の場合、
reasoning.effort = "low"を設定 - ペイロードで verbosity が未指定の場合、
text.verbosity = "low"を設定 api.openai.comへの直接openai/*Responses 呼び出しにservice_tier = "priority"を設定
設定例:
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
fastMode: true,
},
},
"openai-codex/gpt-5.4": {
params: {
fastMode: true,
},
},
},
},
},
}
セッション中のオーバーライドは設定より優先されます。Sessions UI でセッションオーバーライドをクリアすると、設定されたデフォルトに戻ります。
OpenAI Responses サーバーサイドコンパクション
直接 OpenAI Responses モデル(api.openai.com の baseUrl で api: "openai-responses" を使用する openai/*)では、OpenClaw が OpenAI サーバーサイドコンパクションのペイロードヒントを自動的に有効化するようになりました:
store: trueを強制(モデル互換性でsupportsStore: falseが設定されている場合を除く)context_management: [{ type: "compaction", compact_threshold: ... }]を注入
デフォルトでは、compact_threshold はモデルの contextWindow の 70%(不明な場合は 80000)に設定されます。
サーバーサイドコンパクションの明示的有効化
互換性のある Responses モデル(例: Azure OpenAI Responses)で context_management の注入を強制したい場合に使用:
{
agents: {
defaults: {
models: {
"azure-openai-responses/gpt-5.4": {
params: {
responsesServerCompaction: true,
},
},
},
},
},
}
カスタムしきい値での有効化
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: true,
responsesCompactThreshold: 120000,
},
},
},
},
},
}
サーバーサイドコンパクションの無効化
{
agents: {
defaults: {
models: {
"openai/gpt-5.4": {
params: {
responsesServerCompaction: false,
},
},
},
},
},
}
responsesServerCompaction は context_management の注入のみを制御します。直接 OpenAI Responses モデルは、互換性設定で supportsStore: false が指定されない限り、引き続き store: true を強制します。
補足
- モデル参照は常に
provider/model形式です(/concepts/models 参照)。 - 認証の詳細と再利用ルールは /concepts/oauth を参照してください。