Venice AI (Venice Highlight)
Venice ist unser Highlight-Venice-Setup für Privacy-First-Inferenz mit optionalem anonymisiertem Zugang zu proprietären Modellen.
Venice AI bietet datenschutzorientierte KI-Inferenz mit Unterstützung für unzensierte Modelle und Zugang zu großen proprietären Modellen über ihren anonymisierten Proxy. Alle Inferenz ist standardmäßig privat — kein Training mit deinen Daten, kein Logging.
Warum Venice in OpenClaw
- Private Inferenz für Open-Source-Modelle (kein Logging).
- Unzensierte Modelle, wenn du sie brauchst.
- Anonymisierter Zugang zu proprietären Modellen (Opus/GPT/Gemini), wenn Qualität zählt.
- OpenAI-kompatible
/v1-Endpunkte.
Datenschutz-Modi
Venice bietet zwei Datenschutzstufen — zu verstehen, welche du nutzt, ist der Schlüssel zur Modellwahl:
| Modus | Beschreibung | Modelle |
|---|---|---|
| Private | Vollständig privat. Prompts/Antworten werden niemals gespeichert oder protokolliert. Kurzlebig. | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored usw. |
| Anonymized | Über Venice proxied mit entfernten Metadaten. Der zugrundeliegende Anbieter (OpenAI, Anthropic, Google, xAI) sieht anonymisierte Anfragen. | Claude, GPT, Gemini, Grok |
Features
- Datenschutzorientiert: Wähle zwischen “private” (vollständig privat) und “anonymized” (proxied)
- Unzensierte Modelle: Zugang zu Modellen ohne Inhaltsbeschränkungen
- Zugang zu großen Modellen: Claude, GPT, Gemini und Grok über Venice’ anonymisierten Proxy nutzen
- OpenAI-kompatible API: Standard-
/v1-Endpunkte für einfache Integration - Streaming: Auf allen Modellen unterstützt
- Function Calling: Auf ausgewählten Modellen unterstützt (prüfe die Modellfähigkeiten)
- Vision: Auf Modellen mit Vision-Fähigkeit unterstützt
- Keine harten Rate-Limits: Fair-Use-Drosselung kann bei extremer Nutzung greifen
Einrichtung
1. API-Key erhalten
- Registriere dich auf venice.ai
- Gehe zu Settings -> API Keys -> Create new key
- Kopiere deinen API-Key (Format:
vapi_xxxxxxxxxxxx)
2. OpenClaw konfigurieren
Option A: Umgebungsvariable
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Option B: Interaktive Einrichtung (empfohlen)
openclaw onboard --auth-choice venice-api-key
Dies wird:
- Nach deinem API-Key fragen (oder den vorhandenen
VENICE_API_KEYverwenden) - Alle verfügbaren Venice-Modelle anzeigen
- Dich dein Standardmodell auswählen lassen
- Den Provider automatisch konfigurieren
Option C: Nicht-interaktiv
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
3. Einrichtung überprüfen
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
Modellauswahl
Nach der Einrichtung zeigt OpenClaw alle verfügbaren Venice-Modelle. Wähle nach deinen Bedürfnissen:
- Standardmodell:
venice/kimi-k2-5für starkes privates Reasoning plus Vision. - Hochleistungsoption:
venice/claude-opus-4-6für den stärksten anonymisierten Venice-Pfad. - Datenschutz: Wähle “private” Modelle für vollständig private Inferenz.
- Leistung: Wähle “anonymized” Modelle, um über Venice’ Proxy auf Claude, GPT, Gemini zuzugreifen.
Standardmodell jederzeit ändern:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
Alle verfügbaren Modelle auflisten:
openclaw models list | grep venice
Per openclaw configure konfigurieren
- Führe
openclaw configureaus - Wähle Model/auth
- Wähle Venice AI
Welches Modell soll ich verwenden?
| Anwendungsfall | Empfohlenes Modell | Begründung |
|---|---|---|
| Allgemeiner Chat (Standard) | kimi-k2-5 | Starkes privates Reasoning plus Vision |
| Beste Gesamtqualität | claude-opus-4-6 | Stärkste anonymisierte Venice-Option |
| Datenschutz + Coding | qwen3-coder-480b-a35b-instruct | Privates Coding-Modell mit großem Kontext |
| Private Vision | kimi-k2-5 | Vision-Unterstützung ohne den privaten Modus zu verlassen |
| Schnell + günstig | qwen3-4b | Leichtgewichtiges Reasoning-Modell |
| Komplexe private Aufgaben | deepseek-v3.2 | Starkes Reasoning, aber kein Venice-Tool-Support |
| Unzensiert | venice-uncensored | Keine Inhaltsbeschränkungen |
Verfügbare Modelle (41 insgesamt)
Private Modelle (26) — Vollständig privat, kein Logging
| Model-ID | Name | Kontext | Features |
|---|---|---|---|
kimi-k2-5 | Kimi K2.5 | 256k | Standard, Reasoning, Vision |
kimi-k2-thinking | Kimi K2 Thinking | 256k | Reasoning |
llama-3.3-70b | Llama 3.3 70B | 128k | Allgemein |
llama-3.2-3b | Llama 3.2 3B | 128k | Allgemein |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 128k | Allgemein, Tools deaktiviert |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 128k | Reasoning |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 128k | Allgemein |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 256k | Coding |
qwen3-coder-480b-a35b-instruct-turbo | Qwen3 Coder 480B Turbo | 256k | Coding |
qwen3-5-35b-a3b | Qwen3.5 35B A3B | 256k | Reasoning, Vision |
qwen3-next-80b | Qwen3 Next 80B | 256k | Allgemein |
qwen3-vl-235b-a22b | Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | Schnell, Reasoning |
deepseek-v3.2 | DeepSeek V3.2 | 160k | Reasoning, Tools deaktiviert |
venice-uncensored | Venice Uncensored (Dolphin-Mistral) | 32k | Unzensiert, Tools deaktiviert |
mistral-31-24b | Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it | Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 128k | Allgemein |
nvidia-nemotron-3-nano-30b-a3b | NVIDIA Nemotron 3 Nano 30B | 128k | Allgemein |
olafangensan-glm-4.7-flash-heretic | GLM 4.7 Flash Heretic | 128k | Reasoning |
zai-org-glm-4.6 | GLM 4.6 | 198k | Allgemein |
zai-org-glm-4.7 | GLM 4.7 | 198k | Reasoning |
zai-org-glm-4.7-flash | GLM 4.7 Flash | 128k | Reasoning |
zai-org-glm-5 | GLM 5 | 198k | Reasoning |
minimax-m21 | MiniMax M2.1 | 198k | Reasoning |
minimax-m25 | MiniMax M2.5 | 198k | Reasoning |
Anonymisierte Modelle (15) — Über Venice Proxy
| Model-ID | Name | Kontext | Features |
|---|---|---|---|
claude-opus-4-6 | Claude Opus 4.6 (via Venice) | 1M | Reasoning, Vision |
claude-opus-4-5 | Claude Opus 4.5 (via Venice) | 198k | Reasoning, Vision |
claude-sonnet-4-6 | Claude Sonnet 4.6 (via Venice) | 1M | Reasoning, Vision |
claude-sonnet-4-5 | Claude Sonnet 4.5 (via Venice) | 198k | Reasoning, Vision |
openai-gpt-54 | GPT-5.4 (via Venice) | 1M | Reasoning, Vision |
openai-gpt-53-codex | GPT-5.3 Codex (via Venice) | 400k | Reasoning, Vision, Coding |
openai-gpt-52 | GPT-5.2 (via Venice) | 256k | Reasoning |
openai-gpt-52-codex | GPT-5.2 Codex (via Venice) | 256k | Reasoning, Vision, Coding |
openai-gpt-4o-2024-11-20 | GPT-4o (via Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 | GPT-4o Mini (via Venice) | 128k | Vision |
gemini-3-1-pro-preview | Gemini 3.1 Pro (via Venice) | 1M | Reasoning, Vision |
gemini-3-pro-preview | Gemini 3 Pro (via Venice) | 198k | Reasoning, Vision |
gemini-3-flash-preview | Gemini 3 Flash (via Venice) | 256k | Reasoning, Vision |
grok-41-fast | Grok 4.1 Fast (via Venice) | 1M | Reasoning, Vision |
grok-code-fast-1 | Grok Code Fast 1 (via Venice) | 256k | Reasoning, Coding |
Modellerkennung
OpenClaw erkennt automatisch Modelle von der Venice-API, wenn VENICE_API_KEY gesetzt ist. Falls die API nicht erreichbar ist, fällt es auf einen statischen Katalog zurück.
Der /models-Endpunkt ist öffentlich (keine Authentifizierung zum Auflisten nötig), aber für Inferenz ist ein gültiger API-Key erforderlich.
Streaming & Tool-Unterstützung
| Feature | Unterstützung |
|---|---|
| Streaming | Alle Modelle |
| Function Calling | Die meisten Modelle (prüfe supportsFunctionCalling in der API) |
| Vision/Bilder | Modelle mit “Vision”-Feature |
| JSON-Modus | Unterstützt über response_format |
Preise
Venice nutzt ein Credit-basiertes System. Aktuelle Preise findest du unter venice.ai/pricing:
- Private Modelle: In der Regel günstiger
- Anonymisierte Modelle: Ähnlich wie direkte API-Preise + kleine Venice-Gebühr
Vergleich: Venice vs. direkte API
| Aspekt | Venice (Anonymized) | Direkte API |
|---|---|---|
| Datenschutz | Metadaten entfernt, anonymisiert | Mit deinem Konto verknüpft |
| Latenz | +10-50ms (Proxy) | Direkt |
| Features | Die meisten Features unterstützt | Alle Features |
| Abrechnung | Venice-Credits | Provider-Abrechnung |
Nutzungsbeispiele
# Das private Standardmodell verwenden
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# Claude Opus über Venice verwenden (anonymisiert)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# Unzensiertes Modell verwenden
openclaw agent --model venice/venice-uncensored --message "Draft options"
# Vision-Modell mit Bild verwenden
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# Coding-Modell verwenden
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
Fehlerbehebung
API-Key wird nicht erkannt
echo $VENICE_API_KEY
openclaw models list | grep venice
Stelle sicher, dass der Key mit vapi_ beginnt.
Modell nicht verfügbar
Der Venice-Modellkatalog wird dynamisch aktualisiert. Führe openclaw models list aus, um aktuell verfügbare Modelle zu sehen. Einige Modelle können vorübergehend offline sein.
Verbindungsprobleme
Die Venice-API läuft unter https://api.venice.ai/api/v1. Stelle sicher, dass dein Netzwerk HTTPS-Verbindungen erlaubt.
Beispiel-Konfigurationsdatei
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}