
Huawei ha dado un paso importante en IA física (inteligencia artificial aplicada al mundo real) al invertir, a través de Huawei Habo, en GigaAI, una joven empresa china centrada en los modelos de mundo. La compañía acaba de cerrar una ronda de financiación Serie A1 de alrededor de cien millones de yuanes (en torno a 13 millones de euros al cambio), apenas dos meses después de que su filial GigaVision cerrara varias rondas pre‑A. Huawei deja claro que quiere liderar la próxima generación de robots y vehículos autónomos.
GigaAI se presenta como la primera startup china dedicada en exclusiva a la investigación de modelos de mundo para IA física. Su objetivo es construir sistemas de inteligencia general capaces de entender y predecir cómo funciona el entorno, para que un robot, un coche o cualquier agente físico pueda moverse, tomar decisiones y aprender con menos pruebas sobre el terreno. Si tiene éxito, permitiría no solo mayor autonomía, sino también una menor tasa de errores en situaciones desconocidas.
Fundada en 2023, GigaAI desarrolla una pila completa de software y hardware diseñada para la robótica y la conducción autónoma. Su ecosistema incluye la plataforma GigaWorld (orientada a la conducción y a sistemas encarnados), el modelo fundamental GigaBrain y la ontología general Maker: una capa de conocimiento que permite a diferentes robots o agentes compartir una representación común del entorno físico. Todo esto busca acelerar el despliegue de soluciones complejas sin depender tanto de pruebas lentas y caras con vehículos o robots reales.
La clave son los modelos de mundo: en vez de aprender únicamente con datos reales, GigaAI crea un entorno simulado altamente realista donde el sistema puede practicar millones de veces antes de tocar un coche o un brazo robótico. Eso ayuda a aliviar dos grandes problemas de la robótica moderna: la falta de datos de calidad y la brecha entre simulación y realidad. Expresado así puede parecer sencillo, aunque en realidad es extremadamente complejo.
Este movimiento encaja con el giro estratégico de Huawei hacia la llamada World Action (WA), frente a los enfoques Vision-Language-Action (VLA, modelos visión‑lenguaje‑acción) que se apoyan mucho en grandes modelos de lenguaje. En lugar de traducir todo lo que ve la cámara a «palabras» internas y luego decidir, la idea de WA es que el sistema reciba directamente señales de visión, sonido o fuerza y pase casi del sensor al movimiento, apoyándose en modelos de mundo muy precisos.
Directivos como Jin Yuzhi, responsable de la unidad de soluciones inteligentes para automoción de Huawei (Huawei Intelligent Automotive Solutions Business Unit, la unidad de negocio (BU) de coche conectado), ya han señalado que esta ruta puede ser más difícil al principio, pero más adecuada para lograr una conducción verdaderamente autónoma. Si GigaAI consigue modelos de mundo robustos, Huawei puede integrarlos en sus plataformas de asistencia avanzada a la conducción y, a medio plazo, en soluciones de conducción autónoma que compitan con lo que están haciendo empresas como Tesla o XPeng.
Para el usuario corriente, todo esto se traduce en promesas muy concretas: vehículos con sistemas de asistencia más seguros, capaces de anticipar mejor curvas, peatones distraídos o tramos en obras, y robots de servicio que no solo sigan scripts, sino que entiendan mejor la casa, la fábrica o el almacén donde trabajan. China ya está apostando fuerte por los robots humanoides y la robótica industrial, y este tipo de IA física puede ser el pegamento que les faltaba.
En el ecosistema de Huawei, la apuesta por GigaAI también puede reforzar su posición frente a rivales globales: la misma experiencia en modelos de mundo que alimenta un coche podría terminar adaptándose a robots domésticos, almacenes inteligentes o incluso a productos de consumo conectados con HarmonyOS. Aún está por ver cuándo se traducirá en productos comerciales, pero la dirección ya está definida. Habrá que seguir de cerca esta apuesta de Huawei por la IA física, que podría marcar el rumbo de la próxima generación de robots y vehículos autónomos.