Synthetic
Synthetic stellt Anthropic-kompatible Endpunkte bereit. OpenClaw registriert es als synthetic-Provider und nutzt die Anthropic Messages API.
Schnelleinrichtung
- Setze
SYNTHETIC_API_KEY(oder nutze den Assistenten unten). - Starte das Onboarding:
openclaw onboard --auth-choice synthetic-api-key
Das Standardmodell wird gesetzt auf:
synthetic/hf:MiniMaxAI/MiniMax-M2.5
Konfigurationsbeispiel
{
env: { SYNTHETIC_API_KEY: "sk-..." },
agents: {
defaults: {
model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.5" },
models: { "synthetic/hf:MiniMaxAI/MiniMax-M2.5": { alias: "MiniMax M2.5" } },
},
},
models: {
mode: "merge",
providers: {
synthetic: {
baseUrl: "https://api.synthetic.new/anthropic",
apiKey: "${SYNTHETIC_API_KEY}",
api: "anthropic-messages",
models: [
{
id: "hf:MiniMaxAI/MiniMax-M2.5",
name: "MiniMax M2.5",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 192000,
maxTokens: 65536,
},
],
},
},
},
}
Hinweis: Der Anthropic-Client von OpenClaw hängt /v1 an die Base-URL an, verwende also https://api.synthetic.new/anthropic (nicht /anthropic/v1). Falls Synthetic seine Base-URL ändert, überschreibe models.providers.synthetic.baseUrl.
Modellkatalog
Alle unten aufgeführten Modelle haben Kosten von 0 (Input/Output/Cache).
| Model-ID | Context-Window | Max Tokens | Reasoning | Input |
|---|---|---|---|---|
hf:MiniMaxAI/MiniMax-M2.5 | 192000 | 65536 | false | text |
hf:moonshotai/Kimi-K2-Thinking | 256000 | 8192 | true | text |
hf:zai-org/GLM-4.7 | 198000 | 128000 | false | text |
hf:deepseek-ai/DeepSeek-R1-0528 | 128000 | 8192 | false | text |
hf:deepseek-ai/DeepSeek-V3-0324 | 128000 | 8192 | false | text |
hf:deepseek-ai/DeepSeek-V3.1 | 128000 | 8192 | false | text |
hf:deepseek-ai/DeepSeek-V3.1-Terminus | 128000 | 8192 | false | text |
hf:deepseek-ai/DeepSeek-V3.2 | 159000 | 8192 | false | text |
hf:meta-llama/Llama-3.3-70B-Instruct | 128000 | 8192 | false | text |
hf:meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8 | 524000 | 8192 | false | text |
hf:moonshotai/Kimi-K2-Instruct-0905 | 256000 | 8192 | false | text |
hf:openai/gpt-oss-120b | 128000 | 8192 | false | text |
hf:Qwen/Qwen3-235B-A22B-Instruct-2507 | 256000 | 8192 | false | text |
hf:Qwen/Qwen3-Coder-480B-A35B-Instruct | 256000 | 8192 | false | text |
hf:Qwen/Qwen3-VL-235B-A22B-Instruct | 250000 | 8192 | false | text + image |
hf:zai-org/GLM-4.5 | 128000 | 128000 | false | text |
hf:zai-org/GLM-4.6 | 198000 | 128000 | false | text |
hf:deepseek-ai/DeepSeek-V3 | 128000 | 8192 | false | text |
hf:Qwen/Qwen3-235B-A22B-Thinking-2507 | 256000 | 8192 | true | text |
Hinweise
- Modellreferenzen folgen dem Format
synthetic/<modelId>. - Wenn du eine Modell-Allowlist (
agents.defaults.models) aktivierst, füge jedes Modell hinzu, das du verwenden möchtest. - Siehe Model providers für Provider-Regeln.