OpenClaw a été conçu dès le départ pour être agnostique de modèle. On peut changer le backend LLM sans modifier ses skills, ses intégrations de messagerie ni ses workflows. Cette décision de conception — prise tôt dans la vie du projet — s'est révélée être l'une de ses caractéristiques les plus stratégiquement importantes, en particulier en Chine.
Alors que l'article précédent sur l'expansion d'OpenClaw en Chine couvrait l'histoire de la croissance du marché, cet article plonge dans le volet technique : quels LLMs chinois sont intégrés, comment ils se connectent, et quelles plateformes ont été construites par-dessus.
Alibaba Qwen : Support au niveau de la documentation officielle
Le Model Studio d'Alibaba Cloud a publié une documentation officielle pour l'utilisation des modèles Qwen avec OpenClaw. Ce n'est pas un hack communautaire — c'est un guide d'intégration de première partie hébergé sur alibabacloud.com.
Qwen (通义千问) est la famille LLM phare d'Alibaba. L'intégration fonctionne via l'endpoint API compatible OpenAI fourni par Alibaba Cloud, ce qui signifie qu'OpenClaw le traite comme n'importe quel autre fournisseur compatible OpenAI. La configuration est simple : pointer son instance OpenClaw vers l'endpoint Alibaba Cloud, fournir sa clé API et sélectionner la variante du modèle Qwen souhaitée.
C'est important car Alibaba Cloud propose également l'hébergement d'OpenClaw dans 19 régions à partir de 4 $/mois. Un utilisateur en Chine peut déployer une instance OpenClaw sur Alibaba Cloud, propulsée par Qwen, avec des intégrations de messagerie chinoises — une stack entièrement domestique sans dépendance envers des fournisseurs d'IA ou une infrastructure étrangers.
Moonshot AI et Kimi Claw : Construire une plateforme sur OpenClaw
Moonshot AI (月之暗面) est allé plus loin que toute autre entreprise d'IA chinoise. Ils n'ont pas simplement intégré leurs modèles Kimi avec OpenClaw — ils ont construit toute une plateforme autour.
Kimi Claw est une plateforme dédiée d'agents IA construite sur le standard d'orchestration OpenClaw. Elle a été lancée avec :
- •Le support natif des modèles Kimi comme backend de raisonnement
- •Une bibliothèque de plus de 5 000 skills communautaires
- •Un environnement d'hébergement géré pour que les utilisateurs n'aient pas besoin d'auto-héberger
- •L'intégration avec les plateformes de messagerie chinoises
Il existe également un skill officiel `kimi-integration` dans la bibliothèque de skills d'OpenClaw, fournissant un guide étape par étape pour intégrer les modèles Kimi et Kimi Code de Moonshot AI dans n'importe quelle instance OpenClaw.
L'expansion Moonshot China a été suffisamment significative pour être mentionnée comme fonctionnalité nommée dans les notes de version d'OpenClaw v2026.2.3, aux côtés du support Cloudflare AI Gateway. C'est un signal de l'importance qu'a prise le marché chinois pour le projet central.
Pour le déploiement local, des guides existent pour exécuter OpenClaw avec Ollama et Kimi K2.5, offrant aux utilisateurs une option entièrement hors ligne. ## MiniMax M2.1
MiniMax, l'entreprise d'IA chinoise derrière l'application Talkie, a documenté l'intégration avec OpenClaw via son modèle M2.1. L'intégration suit le même schéma d'API compatible OpenAI, ce qui en fait un remplacement direct pour les utilisateurs souhaitant expérimenter avec différentes caractéristiques de modèles.
Feishu/Lark : La première plateforme de chat chinoise officielle
OpenClaw v2026.2.2 a introduit le support officiel de Feishu (飞书) / Lark — décrit dans les notes de version comme « le début de la plateforme en tant que premier client de chat chinois ». C'était une étape importante : la première fois qu'une plateforme de messagerie chinoise recevait un support de première partie dans le projet central, et non un simple plugin communautaire.
Le skill officiel `feishu-bridge` connecte un bot Feishu à OpenClaw via une connexion longue WebSocket. Détail clé : aucun serveur public, domaine ou ngrok n'est requis. Le bridge initie une connexion sortante depuis l'instance OpenClaw vers les serveurs de Feishu, ce qui signifie qu'il fonctionne derrière NAT et pare-feu — une nécessité pratique dans les environnements réseau chinois.
DingTalk et WeCom : Connecteurs communautaires
Pour DingTalk (钉钉) d'Alibaba et WeCom (企业微信) de Tencent, la communauté a pris les devants :
- •Connecteur DingTalk par `xiaomingx` : Relie les messages webhook sortants de DingTalk au Gateway OpenClaw. Disponible en tant que skill dans le registre officiel.
- •Plugin WeCom par `sunnoy` (`openclaw-plugin-wecom`) : Un plugin Bot IA pour Enterprise WeChat avec sortie en streaming, gestion dynamique des agents, intégration de chat de groupe et liste blanche de commandes.
- •Connecteur Feishu par `m1heng` (`clawdbot-feishu`) : Une intégration Feishu alternative construite par la communauté.
Ces connecteurs signifient que les trois principales plateformes de messagerie d'entreprise chinoises — Feishu, DingTalk et WeCom — disposent toutes d'intégrations OpenClaw fonctionnelles, couvrant la grande majorité de la communication professionnelle en Chine.
L'écosystème des forks chinois
Plusieurs forks communautaires offrent des expériences optimisées pour les utilisateurs chinois :
- •openclaw-cn (par jiulingyun) : Version chinoise avec intégration Feishu intégrée et optimisation de l'environnement réseau domestique — probablement pour résoudre les problèmes de connectivité liés au Grand Pare-feu.
- •openclaw-cn (par AI-ZiMo) : Un autre fork chinois, régulièrement synchronisé avec le projet upstream.
- •OpenClaw CN sur SourceForge : Décrit comme « axé sur le fait de rendre un puissant framework d'agents open source utilisable et compréhensible pour les développeurs sinophones ».
Ces forks gèrent les réalités pratiques de l'exécution d'OpenClaw en Chine : routage réseau, sélection des endpoints API, configuration du modèle par défaut et localisation de l'interface.
L'avantage architectural
Ce qui rend tout cela possible, c'est la séparation nette d'OpenClaw entre la couche d'orchestration et la couche de modèle. Le projet ne suppose pas que l'on utilise OpenAI. Tout fournisseur exposant une API compatible OpenAI — et la plupart des fournisseurs chinois de LLM le font — fonctionne comme backend direct.
C'est un choix architectural délibéré, et il porte ses fruits. Alors que d'autres frameworks d'agents IA sont étroitement couplés à des fournisseurs spécifiques, la flexibilité d'OpenClaw en a fait la couche d'orchestration par défaut pour le divers écosystème LLM chinois.
Perspectives
La trajectoire est claire : les entreprises d'IA chinoises ne se contentent pas d'utiliser OpenClaw — elles construisent dessus. La plateforme Kimi Claw de Moonshot AI est l'exemple le plus ambitieux, mais la documentation officielle d'Alibaba et l'intégration de Baidu dans son application de recherche de 700 millions d'utilisateurs suggèrent qu'il s'agit d'une tendance à l'échelle de l'industrie.
À mesure que la transition vers la fondation progresse, l'une des questions clés sera de savoir comment la structure de gouvernance équilibrera les besoins de la communauté mondiale avec les exigences spécifiques du marché chinois — différents fournisseurs de LLM, différentes plateformes de messagerie, différentes contraintes réseau et différents environnements réglementaires.