Venice AI(Venice ハイライト)
Venice はプライバシーファーストの推論を提供する、OpenClaw おすすめの Venice セットアップです。プロプライエタリモデルへの匿名化アクセスもオプションで利用できます。
Venice AI はプライバシー重視の AI 推論を提供しており、検閲なしモデルのサポートや、匿名化プロキシ経由での主要プロプライエタリモデルへのアクセスが可能です。すべての推論はデフォルトでプライベート—データの学習利用もログの記録もありません。
OpenClaw で Venice を使う理由
- オープンソースモデルのプライベート推論(ログなし)。
- 必要に応じて検閲なしモデルを利用可能。
- 品質が重要な場合にプロプライエタリモデル(Opus/GPT/Gemini)への匿名化アクセス。
- OpenAI 互換の
/v1エンドポイント。
プライバシーモード
Venice は 2 段階のプライバシーレベルを提供しています。モデル選択の際にはこの違いの理解が重要です:
| モード | 説明 | モデル |
|---|---|---|
| Private | 完全プライベート。プロンプト/レスポンスは一切保存・記録されません。エフェメラル。 | Llama, Qwen, DeepSeek, Kimi, MiniMax, Venice Uncensored など |
| Anonymized | Venice 経由でプロキシされ、メタデータが除去されます。基盤プロバイダー(OpenAI, Anthropic, Google, xAI)は匿名化されたリクエストを受け取ります。 | Claude, GPT, Gemini, Grok |
機能
- プライバシー重視: 「Private」(完全プライベート)と「Anonymized」(プロキシ経由)を選択可能
- 検閲なしモデル: コンテンツ制限なしのモデルにアクセス
- 主要モデルへのアクセス: Venice の匿名化プロキシ経由で Claude、GPT、Gemini、Grok を利用
- OpenAI 互換 API: 統合が容易な標準
/v1エンドポイント - ストリーミング: 全モデルで対応
- Function calling: 一部のモデルで対応(API でモデルの機能を確認してください)
- ビジョン: ビジョン機能対応モデルで利用可能
- ハードなレート制限なし: 極端な使用時にフェアユースのスロットリングが適用される場合があります
セットアップ
1. API キーの取得
- venice.ai でサインアップ
- Settings → API Keys → Create new key に移動
- API キーをコピー(形式:
vapi_xxxxxxxxxxxx)
2. OpenClaw の設定
オプション A: 環境変数
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
オプション B: インタラクティブセットアップ(推奨)
openclaw onboard --auth-choice venice-api-key
これにより以下が行われます:
- API キーの入力を要求(既存の
VENICE_API_KEYがある場合はそれを使用) - 利用可能な Venice モデルをすべて表示
- デフォルトモデルを選択
- プロバイダーを自動設定
オプション C: 非インタラクティブ
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
3. セットアップの確認
openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"
モデル選択
セットアップ後、OpenClaw は利用可能な Venice モデルをすべて表示します。用途に応じて選択してください:
- デフォルトモデル:
venice/kimi-k2-5— 強力なプライベート推論にビジョン対応。 - 高性能オプション:
venice/claude-opus-4-6— 最も高性能な匿名化 Venice パス。 - プライバシー重視: 完全プライベート推論には「Private」モデルを選択。
- 機能重視: Venice のプロキシ経由で Claude、GPT、Gemini にアクセスするには「Anonymized」モデルを選択。
デフォルトモデルはいつでも変更可能:
openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6
利用可能な全モデルの一覧:
openclaw models list | grep venice
openclaw configure での設定
openclaw configureを実行- Model/auth を選択
- Venice AI を選択
どのモデルを使うべきか
| ユースケース | 推奨モデル | 理由 |
|---|---|---|
| 汎用チャット(デフォルト) | kimi-k2-5 | 強力なプライベート推論+ビジョン |
| 最高品質 | claude-opus-4-6 | 最も高性能な匿名化 Venice オプション |
| プライバシー+コーディング | qwen3-coder-480b-a35b-instruct | 大コンテキスト対応のプライベートコーディングモデル |
| プライベートビジョン | kimi-k2-5 | プライベートモードのまま ビジョンをサポート |
| 高速+低コスト | qwen3-4b | 軽量推論モデル |
| 複雑なプライベートタスク | deepseek-v3.2 | 強力な推論だが Venice ツール非対応 |
| 検閲なし | venice-uncensored | コンテンツ制限なし |
利用可能なモデル(全 41 種)
Private モデル(26 種)— 完全プライベート、ログなし
| Model ID | Name | Context | Features |
|---|---|---|---|
kimi-k2-5 | Kimi K2.5 | 256k | Default, reasoning, vision |
kimi-k2-thinking | Kimi K2 Thinking | 256k | Reasoning |
llama-3.3-70b | Llama 3.3 70B | 128k | General |
llama-3.2-3b | Llama 3.2 3B | 128k | General |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 128k | General, tools disabled |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 128k | Reasoning |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 128k | General |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 256k | Coding |
qwen3-coder-480b-a35b-instruct-turbo | Qwen3 Coder 480B Turbo | 256k | Coding |
qwen3-5-35b-a3b | Qwen3.5 35B A3B | 256k | Reasoning, vision |
qwen3-next-80b | Qwen3 Next 80B | 256k | General |
qwen3-vl-235b-a22b | Qwen3 VL 235B (Vision) | 256k | Vision |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | Fast, reasoning |
deepseek-v3.2 | DeepSeek V3.2 | 160k | Reasoning, tools disabled |
venice-uncensored | Venice Uncensored (Dolphin-Mistral) | 32k | Uncensored, tools disabled |
mistral-31-24b | Venice Medium (Mistral) | 128k | Vision |
google-gemma-3-27b-it | Google Gemma 3 27B Instruct | 198k | Vision |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 128k | General |
nvidia-nemotron-3-nano-30b-a3b | NVIDIA Nemotron 3 Nano 30B | 128k | General |
olafangensan-glm-4.7-flash-heretic | GLM 4.7 Flash Heretic | 128k | Reasoning |
zai-org-glm-4.6 | GLM 4.6 | 198k | General |
zai-org-glm-4.7 | GLM 4.7 | 198k | Reasoning |
zai-org-glm-4.7-flash | GLM 4.7 Flash | 128k | Reasoning |
zai-org-glm-5 | GLM 5 | 198k | Reasoning |
minimax-m21 | MiniMax M2.1 | 198k | Reasoning |
minimax-m25 | MiniMax M2.5 | 198k | Reasoning |
Anonymized モデル(15 種)— Venice プロキシ経由
| Model ID | Name | Context | Features |
|---|---|---|---|
claude-opus-4-6 | Claude Opus 4.6 (via Venice) | 1M | Reasoning, vision |
claude-opus-4-5 | Claude Opus 4.5 (via Venice) | 198k | Reasoning, vision |
claude-sonnet-4-6 | Claude Sonnet 4.6 (via Venice) | 1M | Reasoning, vision |
claude-sonnet-4-5 | Claude Sonnet 4.5 (via Venice) | 198k | Reasoning, vision |
openai-gpt-54 | GPT-5.4 (via Venice) | 1M | Reasoning, vision |
openai-gpt-53-codex | GPT-5.3 Codex (via Venice) | 400k | Reasoning, vision, coding |
openai-gpt-52 | GPT-5.2 (via Venice) | 256k | Reasoning |
openai-gpt-52-codex | GPT-5.2 Codex (via Venice) | 256k | Reasoning, vision, coding |
openai-gpt-4o-2024-11-20 | GPT-4o (via Venice) | 128k | Vision |
openai-gpt-4o-mini-2024-07-18 | GPT-4o Mini (via Venice) | 128k | Vision |
gemini-3-1-pro-preview | Gemini 3.1 Pro (via Venice) | 1M | Reasoning, vision |
gemini-3-pro-preview | Gemini 3 Pro (via Venice) | 198k | Reasoning, vision |
gemini-3-flash-preview | Gemini 3 Flash (via Venice) | 256k | Reasoning, vision |
grok-41-fast | Grok 4.1 Fast (via Venice) | 1M | Reasoning, vision |
grok-code-fast-1 | Grok Code Fast 1 (via Venice) | 256k | Reasoning, coding |
モデル検出
VENICE_API_KEY が設定されていると、OpenClaw は Venice API からモデルを自動検出します。API に到達できない場合は静的カタログにフォールバックします。
/models エンドポイントは公開されており(一覧取得に認証不要)、推論には有効な API キーが必要です。
ストリーミングとツールのサポート
| 機能 | サポート状況 |
|---|---|
| ストリーミング | 全モデル対応 |
| Function calling | ほとんどのモデルで対応(API の supportsFunctionCalling を確認) |
| ビジョン/画像 | 「Vision」機能付きモデルで対応 |
| JSON モード | response_format で対応 |
料金
Venice はクレジットベースのシステムです。最新の料金は venice.ai/pricing で確認してください:
- Private モデル: 一般的に低コスト
- Anonymized モデル: 直接 API 利用に近い料金 + Venice 手数料
Venice vs 直接 API の比較
| 観点 | Venice(Anonymized) | 直接 API |
|---|---|---|
| プライバシー | メタデータ除去、匿名化 | アカウントと紐付け |
| レイテンシ | +10-50ms(プロキシ) | 直接接続 |
| 機能 | ほとんどの機能をサポート | 全機能 |
| 課金 | Venice クレジット | プロバイダー課金 |
使用例
# デフォルトのプライベートモデルを使用
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"
# Venice 経由で Claude Opus を使用(匿名化)
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"
# 検閲なしモデルを使用
openclaw agent --model venice/venice-uncensored --message "Draft options"
# ビジョンモデルで画像を使用
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"
# コーディングモデルを使用
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"
トラブルシューティング
API キーが認識されない
echo $VENICE_API_KEY
openclaw models list | grep venice
キーが vapi_ で始まることを確認してください。
モデルが利用できない
Venice のモデルカタログは動的に更新されます。openclaw models list で現在利用可能なモデルを確認してください。一部のモデルは一時的にオフラインになる場合があります。
接続の問題
Venice API は https://api.venice.ai/api/v1 にあります。ネットワークが HTTPS 接続を許可していることを確認してください。
設定ファイルの例
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "kimi-k2-5",
name: "Kimi K2.5",
reasoning: true,
input: ["text", "image"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 256000,
maxTokens: 65536,
},
],
},
},
},
}