china llm qwen kimi feishu moonshot

Más allá de OpenAI: cómo los LLM chinos impulsan los agentes de OpenClaw

OpenClaws.io Team

OpenClaws.io Team

@openclaws

February 23, 2026

8 min de lectura

Más allá de OpenAI: cómo los LLM chinos impulsan los agentes de OpenClaw

OpenClaw fue diseñado para ser agnóstico de modelos. Puedes cambiar el backend LLM sin modificar tus skills, tus integraciones de mensajería ni tus flujos de trabajo. Esta decisión de diseño — tomada temprano en la vida del proyecto — ha resultado ser una de sus características más estratégicamente importantes, especialmente en China.

Mientras el artículo anterior sobre la expansión de OpenClaw en China cubría la historia del crecimiento del mercado, este artículo profundiza en el lado técnico: qué LLMs chinos están integrados, cómo se conectan y qué plataformas se han construido encima.

Alibaba Qwen: Soporte a nivel de documentación oficial

El Model Studio de Alibaba Cloud ha publicado documentación oficial para usar modelos Qwen con OpenClaw. No es un hack de la comunidad — es una guía de integración de primera parte alojada en alibabacloud.com.

Qwen (通义千问) es la familia LLM insignia de Alibaba. La integración funciona a través del endpoint API compatible con OpenAI que proporciona Alibaba Cloud, lo que significa que OpenClaw lo trata como cualquier otro proveedor compatible con OpenAI. La configuración es sencilla: apunta tu instancia de OpenClaw al endpoint de Alibaba Cloud, proporciona tu clave API y selecciona tu variante del modelo Qwen.

Esto importa porque Alibaba Cloud también ofrece hosting de OpenClaw en 19 regiones desde $4/mes. Un usuario en China puede levantar una instancia de OpenClaw en Alibaba Cloud, impulsada por Qwen, con integraciones de mensajería chinas — un stack completamente doméstico sin dependencia de proveedores de IA o infraestructura extranjeros.

Moonshot AI y Kimi Claw: Construyendo una plataforma sobre OpenClaw

Moonshot AI (月之暗面) ha ido más lejos que cualquier otra empresa china de IA. No solo han integrado sus modelos Kimi con OpenClaw — han construido toda una plataforma a su alrededor.

Kimi Claw es una plataforma dedicada de agentes IA construida sobre el estándar de orquestación de OpenClaw. Se lanzó con:

  • Soporte nativo para modelos Kimi como backend de razonamiento
  • Una biblioteca de 5.000+ skills de la comunidad
  • Un entorno de hosting gestionado para que los usuarios no necesiten auto-alojar
  • Integración con plataformas de mensajería chinas

También existe un skill oficial `kimi-integration` en la biblioteca de skills de OpenClaw, que proporciona una guía paso a paso para integrar los modelos Kimi y Kimi Code de Moonshot AI en cualquier instancia de OpenClaw.

La Moonshot China Expansion fue lo suficientemente significativa como para ser mencionada como característica nombrada en las notas de la versión v2026.2.3 de OpenClaw, junto al soporte de Cloudflare AI Gateway. Es una señal de lo importante que se ha vuelto el mercado chino para el proyecto central.

Para despliegue local, existen guías para ejecutar OpenClaw con Ollama y Kimi K2.5, dando a los usuarios una opción completamente offline.

MiniMax M2.1

MiniMax, la empresa china de IA detrás de la app Talkie, ha documentado la integración con OpenClaw a través de su modelo M2.1. La integración sigue el mismo patrón de API compatible con OpenAI, convirtiéndolo en un reemplazo directo para usuarios que quieran experimentar con diferentes características de modelos.

Feishu/Lark: La primera plataforma de chat china oficial

OpenClaw v2026.2.2 introdujo soporte oficial para Feishu (飞书) / Lark — descrito en las notas de la versión como "el debut de la plataforma como primer cliente de chat chino". Fue un hito: la primera vez que una plataforma de mensajería china recibió soporte de primera parte en el proyecto central, no solo un plugin de la comunidad.

El skill oficial `feishu-bridge` conecta un bot de Feishu a OpenClaw vía conexión larga WebSocket. Detalle clave: no se requiere servidor público, dominio ni ngrok. El puente inicia una conexión saliente desde tu instancia de OpenClaw hacia los servidores de Feishu, lo que significa que funciona detrás de NAT y firewalls — una necesidad práctica en entornos de red chinos.

DingTalk y WeCom: Conectores de la comunidad

Para DingTalk (钉钉) de Alibaba y WeCom (企业微信) de Tencent, la comunidad ha dado el paso:

  • Conector DingTalk por `xiaomingx`: Conecta mensajes webhook salientes de DingTalk al Gateway de OpenClaw. Disponible como skill en el registro oficial.
  • Plugin WeCom por `sunnoy` (`openclaw-plugin-wecom`): Un plugin de Bot IA para Enterprise WeChat con soporte de salida en streaming, gestión dinámica de agentes, integración de chat grupal y lista blanca de comandos.
  • Conector Feishu por `m1heng` (`clawdbot-feishu`): Una integración alternativa de Feishu construida por la comunidad.

Estos conectores significan que las tres principales plataformas de mensajería empresarial chinas — Feishu, DingTalk y WeCom — tienen integraciones funcionales con OpenClaw, cubriendo la gran mayoría de la comunicación laboral china.

El ecosistema de forks chinos

Múltiples forks de la comunidad proporcionan experiencias optimizadas para usuarios chinos:

  • openclaw-cn (por jiulingyun): Versión china con integración Feishu incorporada y optimización del entorno de red doméstico — probablemente abordando problemas de conectividad relacionados con el Gran Cortafuegos.
  • openclaw-cn (por AI-ZiMo): Otro fork chino, sincronizado regularmente con el proyecto upstream.
  • OpenClaw CN en SourceForge: Descrito como "enfocado en hacer que un potente framework de agentes open source sea usable y comprensible para desarrolladores de habla china".

Estos forks manejan las realidades prácticas de ejecutar OpenClaw en China: enrutamiento de red, selección de endpoints API, configuración de modelo por defecto y localización de la interfaz.

La ventaja arquitectónica

Lo que hace posible todo esto es la separación limpia de OpenClaw entre la capa de orquestación y la capa de modelo. El proyecto no asume que usas OpenAI. Cualquier proveedor que exponga una API compatible con OpenAI — y la mayoría de los proveedores chinos de LLM lo hacen — funciona como backend directo.

Esta es una elección arquitectónica deliberada, y está dando dividendos. Mientras otros frameworks de agentes IA están fuertemente acoplados a proveedores específicos, la flexibilidad de OpenClaw lo ha convertido en la capa de orquestación por defecto para el diverso ecosistema LLM de China.

Qué viene después

La trayectoria es clara: las empresas chinas de IA no solo usan OpenClaw — construyen sobre él. La plataforma Kimi Claw de Moonshot AI es el ejemplo más ambicioso, pero la documentación oficial de Alibaba y la integración de Baidu en su app de búsqueda de 700 millones de usuarios sugieren que es una tendencia de toda la industria.

A medida que avanza la transición a fundación, una de las preguntas clave será cómo la estructura de gobernanza equilibra las necesidades de la comunidad global con los requisitos específicos del mercado chino — diferentes proveedores de LLM, diferentes plataformas de mensajería, diferentes restricciones de red y diferentes entornos regulatorios.

Mantente al día

Recibe novedades sobre nuevas funciones e integraciones. Sin spam, cancela cuando quieras.