Le coût caché du logiciel gratuit
OpenClaw est sous licence MIT et entièrement gratuit à auto-héberger. Mais dès que votre agent commence à réfléchir — en envoyant des prompts à Claude, GPT-4 ou tout autre LLM — vous commencez à payer. Pour de nombreux utilisateurs, la facture mensuelle d'API est la plus grande surprise après la configuration de leur premier agent.
Ce guide détaille les coûts réels, partage des stratégies d'optimisation pratiques et montre comment faire fonctionner un agent performant 24h/24 pour moins de 100 $/mois.
Où va l'argent
Le coût mensuel d'un agent OpenClaw typique se décompose approximativement ainsi :
| Catégorie | Pourcentage | Coût typique |
|---|---|---|
| Tokens API LLM | 70-85 % | 60-200 $ |
| Hébergement/matériel | 10-20 % | 8-30 $ |
| Base de données vectorielle / stockage | 2-5 % | 0-5 $ |
| Divers (domaine, monitoring) | 1-3 % | 0-5 $ |
La grande majorité du coût provient des tokens API. C'est là que les efforts d'optimisation doivent se concentrer.
Stratégie 1 : Routage de modèles
L'optimisation de coût la plus efficace est de ne pas utiliser votre meilleur modèle pour tout. OpenClaw prend en charge le routage de modèles — la configuration de différents modèles pour différents types de tâches :
- •Raisonnement complexe (analyse approfondie, génération de code, planification multi-étapes) : Claude Sonnet 4.5 ou GPT-4
- •Tâches légères (questions-réponses simples, mise en forme, résumé) : Claude Haiku 4.5, GPT-4.1-nano ou Grok Fast
- •Opérations de routine (planification, rappels, recherches simples) : Modèles locaux via Ollama
Une configuration de routage bien paramétrée peut réduire les coûts API de 50 à 70 % par rapport à l'utilisation d'un seul modèle premium pour tout.
Exemple de configuration
models:
default: claude-haiku-4-5
reasoning: claude-sonnet-4-5
coding: claude-sonnet-4-5
simple: grok-4.1-fast
local: ollama/qwen3.5
La plupart des interactions quotidiennes (vérification du calendrier, transfert de messages, recherches simples) utilisent le modèle économique. Seules les tâches complexes déclenchent le modèle coûteux.
Stratégie 2 : Modèles locaux avec Ollama
Exécuter un modèle local élimine entièrement les coûts API pour les tâches qui ne nécessitent pas une intelligence de pointe. Avec Ollama, vous pouvez exécuter des modèles comme Qwen 3.5, Llama 3 ou Mistral sur votre propre matériel :
- •Mac mini M4 (16 Go) : Exécute des modèles 7B-14B confortablement à environ 30 tokens/s
- •Mac mini M4 Pro (48 Go) : Exécute des modèles 70B à une vitesse utilisable
- •Tout PC Linux avec 16 Go+ de RAM : Suffisant pour les modèles 7B
Pour les tâches purement internes (tri des e-mails, gestion du calendrier, planification des rappels), un modèle local est souvent suffisant — et le coût est nul après l'achat du matériel.
Stratégie 3 : Optimisation des coûts matériels
Option A : Raspberry Pi (50-100 $)
Un Raspberry Pi 5 avec 8 Go de RAM peut exécuter les services principaux d'OpenClaw (passerelle, planificateur, mémoire) sans problème. Il ne peut pas exécuter de LLM locaux, mais il peut router toute l'inférence vers les API cloud. Coût total : environ 8 $/an en électricité.
Option B : Mac mini (599-799 $)
Le choix le plus populaire dans la communauté. Un Mac mini M4 exécute OpenClaw 24h/24 avec de la marge pour l'inférence de modèles locaux. La consommation électrique est d'environ 10-15 W en veille, soit environ 15 $/an en électricité.
Option C : VPS cloud (5-15 $/mois)
- •Alibaba Cloud : Déploiement OpenClaw en un clic, à partir de 99 CNY/an (environ 14 $)
- •Tencent Cloud : 99 CNY/an avec image OpenClaw pré-installée
- •Volcengine (ByteDance) : Tarifs compétitifs avec accès intégré aux LLM chinois
Les fournisseurs occidentaux comme Hetzner, DigitalOcean et Contabo proposent des instances VPS adaptées à OpenClaw à partir de 5-10 $/mois.
Stratégie 4 : Inférence locale sur Intel AI PC
Intel a publié un guide d'optimisation pour l'exécution d'OpenClaw sur les PC IA Intel. L'idée clé : en déchargeant des portions du raisonnement de l'agent et du traitement du contexte sur le matériel local (en utilisant le NPU et le GPU intégré d'Intel), vous pouvez réduire significativement la consommation de tokens cloud.
Les organisations utilisant cette approche rapportent une réduction de 40 à 60 % des coûts API tout en maintenant une qualité de réponse comparable pour les tâches courantes.
Exemples de coûts réels
Configuration économique (20-30 $/mois) - Hébergement Raspberry Pi 5 (0 $ — déjà possédé) - Claude Haiku pour la plupart des tâches (15-20 $/mois) - Claude Sonnet uniquement pour les tâches complexes (5-10 $/mois) - Stockage vectoriel gratuit
Configuration intermédiaire (80-120 $/mois) - Hébergement Mac mini M4 (0 $ — déjà possédé) - Claude Sonnet 4.5 comme modèle quotidien (60-80 $/mois) - Haiku/Grok Fast pour les tâches légères (10-20 $/mois) - Modèle local Ollama pour les tâches internes (0 $) - Base de données vectorielle gérée (5-10 $/mois)
Configuration utilisateur avancé (150-250 $/mois) - Serveur dédié ou Mac haut de gamme (0 $ — déjà possédé) - Claude Opus pour les tâches critiques (50-80 $/mois) - Sonnet pour les opérations quotidiennes (60-100 $/mois) - Plusieurs agents spécialisés (30-70 $/mois supplémentaires)
Liste de vérification des gains rapides
- 1.Activez le routage de modèles — cela seul permet d'économiser plus de 50 %
- 2.Définissez des limites de tokens par conversation — évitez les coûts incontrôlés des boucles d'agent longues
- 3.Utilisez les modèles Haiku/nano pour le transfert de messages et les recherches simples
- 4.Mettez en cache les requêtes fréquentes — le système de mémoire d'OpenClaw réduit les appels API redondants
- 5.Surveillez les dépenses quotidiennes — configurez des alertes à 80 % de votre budget mensuel
- 6.Envisagez les modèles locaux pour toute tâche ne nécessitant pas un raisonnement de pointe
En résumé
Une installation OpenClaw bien optimisée coûte 80-120 $/mois pour un agent IA performant, toujours disponible — moins que ce que la plupart des outils IA SaaS facturent par utilisateur. La clé est de traiter la sélection de modèle comme un problème de routage : utilisez le modèle le moins cher capable de gérer chaque tâche, et réservez les modèles coûteux pour le travail qui les nécessite véritablement.
Pour plus de conseils d'optimisation des coûts, consultez le canal #cost-tips sur Discord.