vLLM
vLLM puede servir modelos de codigo abierto (y algunos personalizados) a traves de una API HTTP compatible con OpenAI. OpenClaw puede conectarse a vLLM usando la API openai-completions.
OpenClaw tambien puede descubrir automaticamente los modelos disponibles de vLLM cuando activas VLLM_API_KEY (cualquier valor sirve si tu servidor no exige autenticacion) y no defines una entrada explicita models.providers.vllm.
Inicio rapido
- Inicia vLLM con un servidor compatible con OpenAI.
Tu URL base debe exponer endpoints /v1 (por ejemplo /v1/models, /v1/chat/completions). vLLM normalmente se ejecuta en:
http://127.0.0.1:8000/v1
- Activa el proveedor (cualquier valor sirve si no hay autenticacion configurada):
export VLLM_API_KEY="vllm-local"
- Selecciona un modelo (reemplaza con uno de los IDs de modelo de tu vLLM):
{
agents: {
defaults: {
model: { primary: "vllm/your-model-id" },
},
},
}
Descubrimiento de modelos (proveedor implicito)
Cuando VLLM_API_KEY esta establecida (o existe un perfil de autenticacion) y no defines models.providers.vllm, OpenClaw consultara:
GET http://127.0.0.1:8000/v1/models
…y convertira los IDs devueltos en entradas de modelos.
Si estableces models.providers.vllm explicitamente, el descubrimiento automatico se omite y debes definir los modelos manualmente.
Configuracion explicita (modelos manuales)
Usa la configuracion explicita cuando:
- vLLM se ejecuta en un host/puerto diferente.
- Quieres fijar los valores de
contextWindow/maxTokens. - Tu servidor requiere una clave API real (o quieres controlar los headers).
{
models: {
providers: {
vllm: {
baseUrl: "http://127.0.0.1:8000/v1",
apiKey: "${VLLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "your-model-id",
name: "Local vLLM Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
}
Solucion de problemas
- Verifica que el servidor sea accesible:
curl http://127.0.0.1:8000/v1/models
- Si las solicitudes fallan con errores de autenticacion, establece una
VLLM_API_KEYreal que coincida con la configuracion de tu servidor, o configura el proveedor explicitamente enmodels.providers.vllm.