Venice AI(Venice 重點推薦)
Venice 是我們主打的隱私優先推理方案,可選擇以匿名方式存取專有模型。
Venice AI 提供隱私導向的 AI 推理服務,支援無審查模型,並可透過匿名代理存取主要的專有模型。所有推理預設為私密——不會用你的資料訓練模型,也不會記錄日誌。
為什麼在 OpenClaw 中使用 Venice
- 私密推理:開源模型不記錄日誌。
- 無審查模型:需要時可使用。
- 匿名存取:需要高品質輸出時,可匿名存取專有模型(Opus/GPT/Gemini)。
- OpenAI 相容的
/v1端點。
隱私模式
Venice 提供兩種隱私等級——理解這一點是選擇模型的關鍵:
| 模式 | 說明 | 模型 |
|---|---|---|
| 私密 | 完全私密。提示與回應絕不儲存或記錄,用完即消。 | Llama、Qwen、DeepSeek、Kimi、MiniMax、Venice Uncensored 等 |
| 匿名 | 經 Venice 代理並移除中繼資料。底層供應商(OpenAI、Anthropic、Google、xAI)看到的是匿名請求。 | Claude、GPT、Gemini、Grok |
功能特色
- 隱私導向:可選擇「私密」(完全私密)或「匿名」(經代理)模式
- 無審查模型:存取無內容限制的模型
- 主流模型存取:透過 Venice 的匿名代理使用 Claude、GPT、Gemini 和 Grok
- OpenAI 相容 API:標準
/v1端點,輕鬆整合 - 串流:所有模型皆支援
- 函式呼叫:部分模型支援(請查看模型功能)
- 視覺辨識:具備視覺能力的模型支援
- 無硬性速率限制:極端使用量下可能觸發公平使用限流
設定
1. 取得 API 金鑰
- 在 venice.ai 註冊
- 前往 Settings → API Keys → Create new key
- 複製你的 API 金鑰(格式為
vapi_xxxxxxxxxxxx)
2. 設定 OpenClaw
方法 A:環境變數
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
方法 B:互動式設定(建議)
openclaw onboard --auth-choice venice-api-key
精靈會:
- 要求輸入 API 金鑰(或使用現有的
VENICE_API_KEY) - 顯示所有可用的 Venice 模型
- 讓你選擇預設模型
- 自動完成供應商設定
方法 C:非互動模式
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
3. 驗證設定
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
模型選擇
設定完成後,OpenClaw 會顯示所有可用的 Venice 模型。根據你的需求選擇:
- 預設模型:
venice/kimi-k2-5,兼具私密推理與視覺辨識。 - 高效能選項:
venice/claude-opus-4-6,Venice 匿名路徑中最強的選擇。 - 隱私優先:選擇「私密」模型以獲得完全私密的推理。
- 品質優先:選擇「匿名」模型,透過 Venice 代理存取 Claude、GPT、Gemini。
隨時切換預設模型:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
列出所有可用模型:
openclaw models list | grep venice
透過 openclaw configure 設定
- 執行
openclaw configure - 選擇 Model/auth
- 選擇 Venice AI
該選哪個模型?
| 使用場景 | 建議模型 | 原因 |
|---|---|---|
| 一般對話(預設) | kimi-k2-5 | 強大的私密推理加上視覺辨識 |
| 最佳整體品質 | claude-opus-4-6 | Venice 匿名選項中最強 |
| 隱私 + 程式碼 | qwen3-coder-480b-a35b-instruct | 大 context 的私密程式碼模型 |
| 私密視覺辨識 | kimi-k2-5 | 不離開私密模式也能辨識圖片 |
| 快速低成本 | qwen3-4b | 輕量推理模型 |
| 複雜的私密任務 | deepseek-v3.2 | 強大推理,但不支援 Venice 工具呼叫 |
| 無審查 | venice-uncensored | 無內容限制 |
可用模型(共 41 個)
私密模型(26 個)— 完全私密,不記錄日誌
| Model ID | 名稱 | Context | 特色 |
|---|---|---|---|
kimi-k2-5 | Kimi K2.5 | 256k | 預設、推理、視覺 |
kimi-k2-thinking | Kimi K2 Thinking | 256k | 推理 |
llama-3.3-70b | Llama 3.3 70B | 128k | 通用 |
llama-3.2-3b | Llama 3.2 3B | 128k | 通用 |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 128k | 通用,工具停用 |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 128k | 推理 |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 128k | 通用 |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 256k | 程式碼 |
qwen3-coder-480b-a35b-instruct-turbo | Qwen3 Coder 480B Turbo | 256k | 程式碼 |
qwen3-5-35b-a3b | Qwen3.5 35B A3B | 256k | 推理、視覺 |
qwen3-next-80b | Qwen3 Next 80B | 256k | 通用 |
qwen3-vl-235b-a22b | Qwen3 VL 235B(視覺) | 256k | 視覺 |
qwen3-4b | Venice Small(Qwen3 4B) | 32k | 快速、推理 |
deepseek-v3.2 | DeepSeek V3.2 | 160k | 推理,工具停用 |
venice-uncensored | Venice Uncensored(Dolphin-Mistral) | 32k | 無審查,工具停用 |
mistral-31-24b | Venice Medium(Mistral) | 128k | 視覺 |
google-gemma-3-27b-it | Google Gemma 3 27B Instruct | 198k | 視覺 |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 128k | 通用 |
nvidia-nemotron-3-nano-30b-a3b | NVIDIA Nemotron 3 Nano 30B | 128k | 通用 |
olafangensan-glm-4.7-flash-heretic | GLM 4.7 Flash Heretic | 128k | 推理 |
zai-org-glm-4.6 | GLM 4.6 | 198k | 通用 |
zai-org-glm-4.7 | GLM 4.7 | 198k | 推理 |
zai-org-glm-4.7-flash | GLM 4.7 Flash | 128k | 推理 |
zai-org-glm-5 | GLM 5 | 198k | 推理 |
minimax-m21 | MiniMax M2.1 | 198k | 推理 |
minimax-m25 | MiniMax M2.5 | 198k | 推理 |
匿名模型(15 個)— 經 Venice 代理
| Model ID | 名稱 | Context | 特色 |
|---|---|---|---|
claude-opus-4-6 | Claude Opus 4.6(經 Venice) | 1M | 推理、視覺 |
claude-opus-4-5 | Claude Opus 4.5(經 Venice) | 198k | 推理、視覺 |
claude-sonnet-4-6 | Claude Sonnet 4.6(經 Venice) | 1M | 推理、視覺 |
claude-sonnet-4-5 | Claude Sonnet 4.5(經 Venice) | 198k | 推理、視覺 |
openai-gpt-54 | GPT-5.4(經 Venice) | 1M | 推理、視覺 |
openai-gpt-53-codex | GPT-5.3 Codex(經 Venice) | 400k | 推理、視覺、程式碼 |
openai-gpt-52 | GPT-5.2(經 Venice) | 256k | 推理 |
openai-gpt-52-codex | GPT-5.2 Codex(經 Venice) | 256k | 推理、視覺、程式碼 |
openai-gpt-4o-2024-11-20 | GPT-4o(經 Venice) | 128k | 視覺 |
openai-gpt-4o-mini-2024-07-18 | GPT-4o Mini(經 Venice) | 128k | 視覺 |
gemini-3-1-pro-preview | Gemini 3.1 Pro(經 Venice) | 1M | 推理、視覺 |
gemini-3-pro-preview | Gemini 3 Pro(經 Venice) | 198k | 推理、視覺 |
gemini-3-flash-preview | Gemini 3 Flash(經 Venice) | 256k | 推理、視覺 |
grok-41-fast | Grok 4.1 Fast(經 Venice) | 1M | 推理、視覺 |
grok-code-fast-1 | Grok Code Fast 1(經 Venice) | 256k | 推理、程式碼 |
模型探索
當 VENICE_API_KEY 已設定時,OpenClaw 會自動從 Venice API 探索模型。若 API 無法連線,則退回靜態目錄。
/models 端點是公開的(列出模型不需認證),但推理需要有效的 API 金鑰。
串流與工具支援
| 功能 | 支援情況 |
|---|---|
| 串流 | 所有模型皆支援 |
| 函式呼叫 | 多數模型支援(請查看 API 中的 supportsFunctionCalling) |
| 視覺/圖片 | 標示「視覺」特色的模型支援 |
| JSON 模式 | 透過 response_format 支援 |
定價
Venice 採用點數制。目前費率請查看 venice.ai/pricing:
- 私密模型:費用通常較低
- 匿名模型:類似直接 API 定價,加上少量 Venice 費用
比較:Venice vs 直接 API
| 面向 | Venice(匿名) | 直接 API |
|---|---|---|
| 隱私 | 移除中繼資料,匿名化 | 連結你的帳號 |
| 延遲 | +10-50ms(經代理) | 直連 |
| 功能 | 多數功能支援 | 完整功能 |
| 帳單 | Venice 點數 | 供應商計費 |
使用範例
# 使用預設私密模型
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# 透過 Venice 使用 Claude Opus(匿名)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# 使用無審查模型
openclaw agent --model venice/venice-uncensored --message "Draft options"
# 使用視覺模型搭配圖片
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# 使用程式碼模型
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
疑難排解
API 金鑰無法辨識
echo $VENICE_API_KEY
openclaw models list | grep venice
確認金鑰以 vapi_ 開頭。
模型無法使用
Venice 模型目錄會動態更新。執行 openclaw models list 查看目前可用的模型。部分模型可能暫時離線。
連線問題
Venice API 位於 https://api.venice.ai/api/v1,請確認你的網路允許 HTTPS 連線。
設定檔範例
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}