LiteLLM
LiteLLM es un gateway de LLM de codigo abierto que proporciona una API unificada para mas de 100 proveedores de modelos. Enruta OpenClaw a traves de LiteLLM para obtener seguimiento centralizado de costos, registro y la flexibilidad de cambiar backends sin modificar tu configuracion de OpenClaw.
Por que usar LiteLLM con OpenClaw?
- Seguimiento de costos — Ve exactamente cuanto gasta OpenClaw en todos los modelos
- Enrutamiento de modelos — Cambia entre Claude, GPT-4, Gemini, Bedrock sin cambiar la configuracion
- Claves virtuales — Crea claves con limites de gasto para OpenClaw
- Registro — Logs completos de solicitudes/respuestas para depuracion
- Respaldos — Conmutacion automatica si tu proveedor principal esta caido
Inicio rapido
Via onboarding
openclaw onboard --auth-choice litellm-api-key
Configuracion manual
- Inicia LiteLLM Proxy:
pip install 'litellm[proxy]'
litellm --model claude-opus-4-6
- Apunta OpenClaw a LiteLLM:
export LITELLM_API_KEY="your-litellm-key"
openclaw
Eso es todo. OpenClaw ahora enruta a traves de LiteLLM.
Configuracion
Variables de entorno
export LITELLM_API_KEY="sk-litellm-key"
Archivo de configuracion
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 64000,
},
{
id: "gpt-4o",
name: "GPT-4o",
reasoning: false,
input: ["text", "image"],
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "litellm/claude-opus-4-6" },
},
},
}
Claves virtuales
Crea una clave dedicada para OpenClaw con limites de gasto:
curl -X POST "http://localhost:4000/key/generate" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY" \
-H "Content-Type: application/json" \
-d '{
"key_alias": "openclaw",
"max_budget": 50.00,
"budget_duration": "monthly"
}'
Usa la clave generada como LITELLM_API_KEY.
Enrutamiento de modelos
LiteLLM puede enrutar solicitudes de modelos a diferentes backends. Configuralo en tu config.yaml de LiteLLM:
model_list:
- model_name: claude-opus-4-6
litellm_params:
model: claude-opus-4-6
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o
litellm_params:
model: gpt-4o
api_key: os.environ/OPENAI_API_KEY
OpenClaw sigue solicitando claude-opus-4-6 — LiteLLM se encarga del enrutamiento.
Ver el uso
Consulta el dashboard o la API de LiteLLM:
# Informacion de la clave
curl "http://localhost:4000/key/info" \
-H "Authorization: Bearer sk-litellm-key"
# Logs de gasto
curl "http://localhost:4000/spend/logs" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY"
Notas
- LiteLLM se ejecuta en
http://localhost:4000por defecto - OpenClaw se conecta a traves del endpoint compatible con OpenAI
/v1/chat/completions - Todas las funcionalidades de OpenClaw funcionan a traves de LiteLLM — sin limitaciones