LiteLLM
LiteLLM은 100개 이상의 모델 프로바이더에 대한 통합 API를 제공하는 오픈소스 LLM 게이트웨이입니다. LiteLLM을 통해 OpenClaw를 라우팅하면 중앙화된 비용 추적, 로깅, 설정 변경 없이 백엔드를 전환할 수 있는 유연성을 얻을 수 있습니다.
LiteLLM을 OpenClaw과 함께 사용하는 이유
- 비용 추적 — OpenClaw가 모든 모델에서 사용하는 비용을 정확히 확인
- 모델 라우팅 — 설정 변경 없이 Claude, GPT-4, Gemini, Bedrock 간 전환
- 가상 키 — OpenClaw용 지출 한도가 있는 키 생성
- 로깅 — 디버깅을 위한 전체 요청/응답 로그
- 폴백 — 기본 프로바이더 장애 시 자동 장애 복구
빠른 시작
온보딩을 통해
openclaw onboard --auth-choice litellm-api-key
수동 설정
- LiteLLM Proxy를 시작합니다:
pip install 'litellm[proxy]'
litellm --model claude-opus-4-6
- OpenClaw를 LiteLLM에 연결합니다:
export LITELLM_API_KEY="your-litellm-key"
openclaw
완료입니다. 이제 OpenClaw가 LiteLLM을 통해 라우팅됩니다.
설정
환경 변수
export LITELLM_API_KEY="sk-litellm-key"
설정 파일
{
models: {
providers: {
litellm: {
baseUrl: "http://localhost:4000",
apiKey: "${LITELLM_API_KEY}",
api: "openai-completions",
models: [
{
id: "claude-opus-4-6",
name: "Claude Opus 4.6",
reasoning: true,
input: ["text", "image"],
contextWindow: 200000,
maxTokens: 64000,
},
{
id: "gpt-4o",
name: "GPT-4o",
reasoning: false,
input: ["text", "image"],
contextWindow: 128000,
maxTokens: 8192,
},
],
},
},
},
agents: {
defaults: {
model: { primary: "litellm/claude-opus-4-6" },
},
},
}
가상 키
OpenClaw용 지출 한도가 있는 전용 키를 생성합니다:
curl -X POST "http://localhost:4000/key/generate" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY" \
-H "Content-Type: application/json" \
-d '{
"key_alias": "openclaw",
"max_budget": 50.00,
"budget_duration": "monthly"
}'
생성된 키를 LITELLM_API_KEY로 사용합니다.
모델 라우팅
LiteLLM은 모델 요청을 서로 다른 백엔드로 라우팅할 수 있습니다. LiteLLM config.yaml에서 설정합니다:
model_list:
- model_name: claude-opus-4-6
litellm_params:
model: claude-opus-4-6
api_key: os.environ/ANTHROPIC_API_KEY
- model_name: gpt-4o
litellm_params:
model: gpt-4o
api_key: os.environ/OPENAI_API_KEY
OpenClaw는 계속 claude-opus-4-6을 요청하고, LiteLLM이 라우팅을 처리합니다.
사용량 확인
LiteLLM의 대시보드 또는 API를 확인합니다:
# 키 정보
curl "http://localhost:4000/key/info" \
-H "Authorization: Bearer sk-litellm-key"
# 지출 로그
curl "http://localhost:4000/spend/logs" \
-H "Authorization: Bearer $LITELLM_MASTER_KEY"
참고 사항
- LiteLLM은 기본적으로
http://localhost:4000에서 실행됩니다 - OpenClaw는 OpenAI 호환
/v1/chat/completions엔드포인트를 통해 연결됩니다 - 모든 OpenClaw 기능이 LiteLLM을 통해 작동하며 제한이 없습니다