Multiverse lleva modelos comprimidos de IA al borde: privacidad y ahorro sin centro de datos
Multiverse apuesta por modelos de IA tan compactos que pueden ejecutarse en el dispositivo del usuario, ofreciendo privacidad y menor dependencia del cloud. Lanzó una app demo y un portal API para que empresas y desarrolladores prueben su tecnología CompactifAI.
Resumen
Multiverse Computing, la startup española especializada en compresión de modelos de IA, está impulsando una estrategia clara: llevar modelos suficientemente pequeños para ejecutarse en dispositivos locales, fuera de centros de datos y nubes públicas. Con su tecnología CompactifAI y modelos como Gilda y HyperNova 60B 2602, la compañía busca ofrecer respuestas más rápidas y operaciones más económicas, además de reducir riesgos asociados a proveedores externos.
Qué propone Multiverse
La compañía ha comprimido modelos de grandes laboratorios —entre ellos versiones derivadas de OpenAI, Meta, DeepSeek y Mistral— y los ha puesto a disposición mediante dos frentes: una app de demostración llamada CompactifAI y un portal de API orientado a desarrolladores y empresas. El objetivo es claro: mostrar que modelos pequeños y optimizados no solo son viables, sino que traen ventajas prácticas en costos, latencia y privacidad.
CompactifAI y el modelo Gilda: IA que puede quedarse en su dispositivo
La app CompactifAI funciona como un chat de IA al estilo ChatGPT. La novedad es que incorpora a Gilda, un modelo comprimido tan pequeño que, según Multiverse, puede ejecutarse localmente y sin conexión. Eso implica que los datos del usuario no salen del dispositivo, una ventaja notable en términos de privacidad y resistencia ante fallas de red.
Sin embargo, esta experiencia local depende del hardware: el teléfono o la tablet deben tener suficiente RAM y almacenamiento. En equipos más antiguos —muchos modelos de iPhone incluidos— la app conmutará automáticamente hacia modelos en la nube mediante API. Ese enrutamiento entre procesamiento local y remoto lo gestiona un sistema llamado Ash Nazg, una referencia deliberada al anillo único de Tolkien. Cuando la aplicación recurre al procesamiento en la nube, pierde gran parte de su propuesta de privacidad.
Según datos de Sensor Tower citados por la compañía, CompactifAI tuvo menos de 5.000 descargas en el último mes, lo que sugiere que la app actualmente funciona más como escaparate que como producto masivo de consumo.
API empresarial: acceso directo a modelos comprimidos
El cambio estratégico para Multiverse es la apertura de un portal de API de autoservicio que permite a desarrolladores y empresas integrar sus modelos comprimidos sin pasar por mercados de terceros como AWS Marketplace. “El CompactifAI API portal [now] gives developers direct access to compressed models with the transparency and control needed to run them in production”, dijo Enrique Lizaso, CEO de Multiverse, en un comunicado.
Entre las funcionalidades clave del portal figura el monitoreo en tiempo real del uso, una característica importante cuando las organizaciones evalúan trade-offs entre costo, rendimiento y gobernanza.
Rendimiento y costos: el caso de HyperNova 60B 2602
Multiverse asegura que su modelo HyperNova 60B 2602, basado en gpt-oss-120b, entrega respuestas más rápidas y a menor costo que el modelo original del que deriva. Esa ventaja es particularmente relevante para flujos de trabajo con agentes que ejecutan tareas complejas de programación de forma autónoma, donde latencia y eficiencia de cómputo inciden directamente en la utilidad y el costo del sistema.
¿Por qué importa esto ahora? Riesgo financiero y dependencia de la nube
El movimiento de Multiverse llega en un contexto de incertidumbre financiera en el ecosistema tecnológico: firmas de capital riesgo han recomendado a empresas que dependan de compromisos escritos por capacidad de cómputo, después de que las moras de compañías privadas alcanzaran niveles altos en los últimos años. Una dependencia excesiva de un proveedor de infraestructura puede exponer a las empresas a riesgos de contraparte y fallas operativas.
Modelos que se ejecutan en el borde reducen ese punto de riesgo: no hay contratos de capacidad que mantener con un proveedor de infraestructuras, ni transferencia continua de datos sensibles a la nube.
Aplicaciones prácticas y relevancia para América Latina
Para mercados latinoamericanos, la propuesta tiene varias aristas interesantes:
- Conectividad: en regiones con cobertura limitada o costos elevados de datos, ejecutar IA localmente permite funcionalidades críticas sin depender de una conexión constante.
- Soberanía de datos: empresas y entidades gubernamentales pueden preferir mantener datos en dispositivos locales por razones regulatorias o de privacidad.
- Costos operativos: reducir el consumo de infraestructura en la nube puede ser atractivo para compañías con presupuestos ajustados.
- Casos en campo: drones, satélites, maquinaria industrial o entornos remotos —frecuentes en proyectos de minería, agricultura de precisión o monitoreo ambiental en LATAM— se benefician cuando la inferencia ocurre en el borde.
No obstante, muchas empresas en la región deberán evaluar si su parque de dispositivos cumple requisitos de hardware para aprovechar los modelos locales o si, por ahora, seguirán confiando en soluciones híbridas.
Límites y competencia
A pesar de los avances, los modelos comprimidos todavía enfrentan limitaciones: desempeño reducido en equipos antiguos, pérdida de la privacidad al recurrir a la nube y la necesidad de gestionar correctamente enrutamientos entre local y remoto. Apple, por ejemplo, ha adoptado una estrategia híbrida combinando modelos locales y en la nube.
Además, otros actores del mercado también avanzan en el terreno de modelos pequeños y eficientes. Mistral, por ejemplo, presentó recientemente Mistral Small 4 y un sistema llamado Forge para que empresas construyan modelos a la medida, incluyendo opciones compactas con trade-offs configurables.
Clientes, financiamiento y perspectiva
Multiverse ya declara más de 100 clientes globales, entre los que figuran el Bank of Canada, Bosch e Iberdrola. La compañía cerró una Serie B de 215 millones de dólares el año pasado y, según rumores reproducidos en la prensa, estaría buscando una nueva ronda de financiación por alrededor de €500 millones con una valoración superior a €1.5 mil millones. Estos movimientos indican interés institucional, aunque el mercado y la ejecución definirán la escalabilidad real de su propuesta.
Conclusión
La apuesta de Multiverse por modelos comprimidos que pueden ejecutarse en el borde combina tres motivadores clave: menor dependencia de proveedores de infraestructura, reducción de costos y mayor control sobre los datos. Para empresas latinoamericanas, estas capacidades pueden traducirse en soluciones más resilientes y adecuadas a entornos con conectividad limitada o requisitos de soberanía de datos.
Sin embargo, la adopción masiva todavía exige superar barreras de hardware en dispositivos de usuario y demostrar que el rendimiento de estos modelos compactos satisface las demandas productivas. La nueva API de Multiverse y la visibilidad que aporta CompactifAI son pasos para que desarrolladores y empresas evalúen esa ecuación y decidan cuándo y dónde desplegar IA en el borde.
En un mercado donde la eficiencia y la gobernanza de datos pesan cada vez más, la compresión efectiva de modelos podría ser una palanca clave para llevar la inteligencia artificial a escenarios reales fuera del centro de datos.
Fuente original: TechCrunch AI