SGLang

SGLang puede servir modelos de codigo abierto a traves de una API HTTP compatible con OpenAI. OpenClaw puede conectarse a SGLang usando la API openai-completions.

OpenClaw tambien puede descubrir automaticamente los modelos disponibles de SGLang cuando activas SGLANG_API_KEY (cualquier valor sirve si tu servidor no exige autenticacion) y no defines una entrada explicita models.providers.sglang.

Inicio rapido

  1. Inicia SGLang con un servidor compatible con OpenAI.

Tu URL base debe exponer endpoints /v1 (por ejemplo /v1/models, /v1/chat/completions). SGLang normalmente se ejecuta en:

  • http://127.0.0.1:30000/v1
  1. Activa el proveedor (cualquier valor sirve si no hay autenticacion configurada):
export SGLANG_API_KEY="sglang-local"
  1. Ejecuta la configuracion y elige SGLang, o establece un modelo directamente:
openclaw onboard
{
  agents: {
    defaults: {
      model: { primary: "sglang/your-model-id" },
    },
  },
}

Descubrimiento de modelos (proveedor implicito)

Cuando SGLANG_API_KEY esta establecida (o existe un perfil de autenticacion) y no defines models.providers.sglang, OpenClaw consultara:

  • GET http://127.0.0.1:30000/v1/models

y convertira los IDs devueltos en entradas de modelos.

Si estableces models.providers.sglang explicitamente, el descubrimiento automatico se omite y debes definir los modelos manualmente.

Configuracion explicita (modelos manuales)

Usa la configuracion explicita cuando:

  • SGLang se ejecuta en un host/puerto diferente.
  • Quieres fijar los valores de contextWindow/maxTokens.
  • Tu servidor requiere una clave API real (o quieres controlar los headers).
{
  models: {
    providers: {
      sglang: {
        baseUrl: "http://127.0.0.1:30000/v1",
        apiKey: "${SGLANG_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "your-model-id",
            name: "Local SGLang Model",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 128000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}

Solucion de problemas

  • Verifica que el servidor sea accesible:
curl http://127.0.0.1:30000/v1/models
  • Si las solicitudes fallan con errores de autenticacion, establece una SGLANG_API_KEY real que coincida con la configuracion de tu servidor, o configura el proveedor explicitamente en models.providers.sglang.