LiteLLM
LiteLLMは、100以上のモデルプロバイダーへの統一APIを提供するオープンソースのLLMゲートウェイです。OpenClawをLiteLLM経由で接続すると、コスト管理の集約、ログ記録、OpenClawの設定を変更せずにバックエンドを切り替える柔軟性が得られます。
OpenClawでLiteLLMを使うメリット
- コスト管理 — 全モデルにわたるOpenClawの利用コストを正確に把握
- モデルルーティング — Claude、GPT-4、Gemini、Bedrockを設定変更なしで切り替え
- バーチャルキー — OpenClaw用に支出制限付きのキーを作成
- ログ記録 — デバッグのためのリクエスト/レスポンス全ログ
- フォールバック — プライマリプロバイダーがダウンした場合の自動切り替え
クイックスタート
オンボーディング経由
openclaw onboard --auth-choice litellm-api-key
手動セットアップ
- LiteLLM Proxyを起動します:
pip install 'litellm[proxy]'
litellm --model claude-opus-4-6
- OpenClawをLiteLLMに向けます:
export LITELLM_API_KEY="your-litellm-key"
openclaw
これだけです。OpenClawはLiteLLM経由でルーティングされるようになりました。
設定
環境変数
export LITELLM_API_KEY="sk-litellm-key"
設定ファイル
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 64000,
},
{
id: "gpt-4o",
name: "GPT-4o",
reasoning: false,
input: ["text", "image"],
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "litellm/claude-opus-4-6" },
},
},
}
バーチャルキー
OpenClaw用に支出制限付きの専用キーを作成できます:
curl -X POST "http://localhost:4000/key/generate" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY" \
-H "Content-Type: application/json" \
-d '{
"key_alias": "openclaw",
"max_budget": 50.00,
"budget_duration": "monthly"
}'
生成されたキーをLITELLM_API_KEYとして使用してください。
モデルルーティング
LiteLLMはモデルリクエストを異なるバックエンドにルーティングできます。LiteLLMのconfig.yamlで設定します:
model_list:
- model_name: claude-opus-4-6
litellm_params:
model: claude-opus-4-6
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o
litellm_params:
model: gpt-4o
api_key: os.environ/OPENAI_API_KEY
OpenClawはclaude-opus-4-6をリクエストし続け、ルーティングはLiteLLMが処理します。
使用量の確認
LiteLLMのダッシュボードまたはAPIで確認できます:
# キー情報
curl "http://localhost:4000/key/info" \
-H "Authorization: Bearer sk-litellm-key"
# 支出ログ
curl "http://localhost:4000/spend/logs" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY"
補足
- LiteLLMのデフォルト実行先は
http://localhost:4000です - OpenClawはOpenAI互換の
/v1/chat/completionsエンドポイント経由で接続します - LiteLLM経由でもOpenClawの全機能が制限なく利用できます