ローカルモデル
ローカル実行は可能ですが、OpenClawは大きなコンテキストとプロンプトインジェクションに対する強力な防御を期待します。小さなカードではコンテキストが切り詰められ、安全性が低下します。目標は高く設定してください:Mac Studio 2台以上のフル構成、または同等のGPUリグ(約30,000ドル以上)。単一の24 GB GPUは軽いプロンプトでのみ動作し、レイテンシーも高くなります。実行可能な最大/フルサイズのモデルバリアントを使用してください。積極的に量子化された「small」チェックポイントはプロンプトインジェクションのリスクを高めます(Securityを参照)。
最も手軽なローカルセットアップにはOllamaとopenclaw onboardから始めてください。このページは、ハイエンドのローカルスタックとカスタムOpenAI互換ローカルサーバー向けの実践的なガイドです。
推奨:LM Studio + MiniMax M2.5(Responses API、フルサイズ)
現時点で最良のローカルスタック。LM StudioでMiniMax M2.5を読み込み、ローカルサーバー(デフォルトhttp://127.0.0.1:1234)を有効にして、Responses APIで推論を最終テキストから分離します。
{
agents: {
defaults: {
model: { primary: "lmstudio/minimax-m2.5-gs32" },
models: {
"anthropic/claude-opus-4-6": { alias: "Opus" },
"lmstudio/minimax-m2.5-gs32": { alias: "Minimax" },
},
},
},
models: {
mode: "merge",
providers: {
lmstudio: {
baseUrl: "http://127.0.0.1:1234/v1",
apiKey: "lmstudio",
api: "openai-responses",
models: [
{
id: "minimax-m2.5-gs32",
name: "MiniMax M2.5 GS32",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 196608,
maxTokens: 8192,
},
],
},
},
},
}
セットアップチェックリスト
- LM Studioをインストール:https://lmstudio.ai
- LM Studioで利用可能な最大のMiniMax M2.5ビルドをダウンロード(「small」や過度に量子化されたバリアントは避ける)、サーバーを起動し、
http://127.0.0.1:1234/v1/modelsにリストされることを確認。 - モデルを読み込んだ状態を維持。コールドロードは起動レイテンシーを追加します。
- LM Studioのビルドが異なる場合は
contextWindow/maxTokensを調整。 - WhatsAppの場合、最終テキストのみが送信されるようResponses APIを使用。
ローカル実行時でもホステッドモデルを設定に残してください。models.mode: "merge"でフォールバックを利用可能に保ちます。
ハイブリッド設定:ホステッドプライマリ、ローカルフォールバック
{
agents: {
defaults: {
model: {
primary: "anthropic/claude-sonnet-4-5",
fallbacks: ["lmstudio/minimax-m2.5-gs32", "anthropic/claude-opus-4-6"],
},
models: {
"anthropic/claude-sonnet-4-5": { alias: "Sonnet" },
"lmstudio/minimax-m2.5-gs32": { alias: "MiniMax Local" },
"anthropic/claude-opus-4-6": { alias: "Opus" },
},
},
},
models: {
mode: "merge",
providers: {
lmstudio: {
baseUrl: "http://127.0.0.1:1234/v1",
apiKey: "lmstudio",
api: "openai-responses",
models: [
{
id: "minimax-m2.5-gs32",
name: "MiniMax M2.5 GS32",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 196608,
maxTokens: 8192,
},
],
},
},
},
}
ローカルファースト(ホステッドをセーフティネットとして)
プライマリとフォールバックの順序を入れ替えます。プロバイダーブロックとmodels.mode: "merge"は同じまま保持し、ローカルマシンがダウンした場合にSonnetやOpusにフォールバックできるようにします。
リージョナルホスティング/データルーティング
- ホステッドのMiniMax/Kimi/GLMバリアントはOpenRouterにもリージョン固定エンドポイントで存在します(例:米国ホスト)。
models.mode: "merge"を使用してAnthropic/OpenAIフォールバックを維持しながら、選択した管轄区域にトラフィックを留めるためにそこのリージョナルバリアントを選択してください。 - ローカルオンリーが最も強力なプライバシーパスです。ホステッドのリージョナルルーティングは、プロバイダー機能が必要だがデータフローを制御したい場合の中間的選択肢です。
その他のOpenAI互換ローカルプロキシ
vLLM、LiteLLM、OAI-proxy、またはカスタムゲートウェイは、OpenAIスタイルの/v1エンドポイントを公開していれば動作します。上記のプロバイダーブロックをエンドポイントとモデルIDに置き換えてください:
{
models: {
mode: "merge",
providers: {
local: {
baseUrl: "http://127.0.0.1:8000/v1",
apiKey: "sk-local",
api: "openai-responses",
models: [
{
id: "my-local-model",
name: "Local Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 120000,
maxTokens: 8192,
},
],
},
},
},
}
ホステッドモデルをフォールバックとして利用可能に保つためmodels.mode: "merge"を維持してください。
トラブルシューティング
- Gatewayからプロキシに到達できるか?
curl http://127.0.0.1:1234/v1/models - LM Studioのモデルがアンロードされている? リロードしてください。コールドスタートは「ハング」のよくある原因です。
- コンテキストエラー?
contextWindowを下げるか、サーバー制限を上げてください。 - セキュリティ:ローカルモデルはプロバイダー側のフィルターをスキップします。エージェントを狭く保ち、プロンプトインジェクションの影響範囲を制限するためにコンパクションをオンにしてください。