Dónde se están descarrilando las ruedas de la economía de la IA
En una conversación en la Milken Global Conference, cinco ejecutivos y científicos de la IA trazaron por qué la expansión del sector choca con límites físicos: oferta de chips, energía, datos reales y debates sobre arquitectura. Sus conclusiones marcan prioridades para empresas y gobiernos.
Introducción
La explosión del interés e inversión en inteligencia artificial se enfrenta a límites que no son solo teóricos: son físicos, energéticos y de datos. En la Milken Global Conference en Beverly Hills, cinco personas que operan en distintas capas de la cadena de suministro de la IA compartieron una visión común: el entusiasmo por escalar modelos y servicios choca hoy con cuellos de botella tangibles.
Los participantes —Christophe Fouquet (ASML), Francis deSouza (Google Cloud), Qasar Younis (Applied Intuition), Dimitry Shevelenko (Perplexity) y Eve Bodnia (Logical Intelligence)— abordaron desde la producción de chips hasta nuevas arquitecturas de inteligencia. Sus puntos de vista trazan un mapa útil para tomadores de decisión en América Latina que deben planear inversiones en nube, infraestructura y talento.
Los cuellos de botella en la producción de chips
ASML, la empresa neerlandesa que domina la litografía extrema ultravioleta (EUV), es clave para fabricar los chips modernos. Christophe Fouquet recordó que, pese a una aceleración notable en fabricación, la industria enfrentará restricciones de suministro durante los próximos años. En términos prácticos, los grandes hyperscalers —Google, Microsoft, Amazon, Meta— no necesariamente recibirán la capacidad de cómputo que necesitan en el corto plazo.
Francis deSouza añadió una perspectiva de demanda: Google Cloud reportó ingresos que superaron los 20.000 millones de dólares en un trimestre (crecimiento del 63%) y, según sus cifras, su backlog comprometido casi se duplicó en un trimestre, pasando de 250.000 a 460.000 millones de dólares. Esa brecha entre demanda y entrega plantea prioridades de asignación de hardware que afectarán precios y tiempos de despliegue.
Para América Latina esto implica que la disponibilidad de instancias potentes en nube podría demorarse o encarecerse, afectando a proyectos que dependen de entrenamiento a gran escala o del acceso rápido a inferencia en producción. Las organizaciones deben planear alternativas: optimizar modelos, explorar acuerdos con proveedores locales de nube o priorizar cargas críticas.
El problema energético y soluciones disruptivas
Si los chips son el primer cuello de botella, la energía es el siguiente limitante. DeSouza reveló que Google explora centros de datos en órbita como respuesta a restricciones energéticas, porque el acceso a energía más abundante fuera de la Tierra es una posibilidad real. Sin embargo, operar en el espacio presenta desafíos técnicos: en el vacío no existe convección, por lo que disipar calor depende de radiación, un proceso más lento y complejo que los sistemas de refrigeración terrestres.
Más relevante en el corto plazo es la eficiencia lograda por la integración vertical: co-diseñar chips, infraestructuras y modelos. Google defiende que ejecutar su modelo Gemini en TPU diseñadas ad hoc permite más flops por vatio que configuraciones con componentes comerciales. Fouquet subrayó que la energía tiene un precio y que la economía del cómputo debe considerar ese costo.
Para la región latinoamericana, donde la matriz energética y los costos varían ampliamente entre países, la eficiencia energética y la integración con fuentes renovables serán factores decisivos al decidir dónde ubicar cargas de IA y cómo gestionar picos de consumo.
La restricción que no se resuelve con silicio: los datos del mundo real
Applied Intuition, que desarrolla sistemas autónomos para vehículos, minería y defensa, enfatiza un límite distinto: la calidad y cantidad de datos del mundo real. Qasar Younis explicó que muchos fenómenos solo pueden capturarse enviando máquinas al mundo físico y observando qué ocurre; la simulación sintética aún no cierra esa brecha por completo.
Esto tiene implicaciones para cualquier proyecto que requiera entender comportamientos complejos en entornos locales: desde robots industriales hasta vehículos autónomos en ciudades latinoamericanas, donde la variabilidad del entorno puede diferir de los datos disponibles en simuladores desarrollados en otras regiones. La recolección responsable de datos reales, las alianzas con actores locales y la inversión en validación en terreno serán imprescindibles.
Una arquitectura alternativa: modelos basados en energía
Eve Bodnia presentó un enfoque radicalmente distinto al dominante paradigma de grandes modelos de lenguaje (LLMs). Su startup, Logical Intelligence, trabaja con modelos basados en energía (EBMs), que no predicen el siguiente token sino que buscan comprender las reglas subyacentes en los datos. Bodnia afirmó que su mayor modelo tiene 200 millones de parámetros (muy por debajo de los cientos de miles de millones en LLMs) y que es capaz de operar miles de veces más rápido en ciertos casos.
Además, estos modelos están diseñados para actualizar su conocimiento en línea, sin necesidad de retraining masivo. Para dominios como diseño de chips, robótica o control físico, donde se requiere entender leyes y reglas del entorno, Bodnia argumenta que EBMs pueden ser una mejor correspondencia conceptual.
Importante: el investigador Yan LeCun se vinculó como presidente fundador del consejo técnico de Logical Intelligence, una señal de que voces influyentes de la comunidad científica están interesadas en explorar alternativas arquitectónicas.
Agentes digitales, guardrails y confianza
Perplexity, originalmente un producto de búsqueda, está evolucionando hacia lo que llama un “trabajador digital”: sistemas que actúan como personal a cargo de tareas, no sólo herramientas a disposición del trabajador humano. Dimitry Shevelenko describió la posibilidad de que cada profesional comande un equipo virtual numeroso de agentes que ejecutan tareas concretas.
Esa transición plantea preguntas operativas y regulatorias sobre supervisión, transparencia y responsabilidad. En América Latina, las organizaciones que adopten agentes digitales deberán diseñar guardrails claros, integrarlos con procesos de cumplimiento locales y gestionar riesgos de sesgos o decisiones automatizadas incorrectas.
Qué deberían considerar los líderes en América Latina
- Plan de contingencia de cómputo: diversificar proveedores de nube y planear optimizaciones de modelos para reducir dependencia de hardware de alta gama.
- Estrategia energética: evaluar la eficiencia por flops y la posibilidad de integrar renovables o ubicaciones con costos energéticos favorables.
- Datos locales y validación en terreno: para soluciones que interactúan con el mundo real, invertir en recolección y validación locales es clave.
- Evaluar alternativas arquitectónicas: seguir desarrollos como EBMs puede ofrecer ventajas en ciertos dominios técnicos.
- Gobernanza de agentes: establecer marcos de control, auditoría y responsabilidad antes de desplegar trabajadores digitales a escala.
Conclusión
La era de la IA es también la era de límites físicos y económicos que condicionan el ritmo de adopción. Desde la fábrica de semiconductores hasta la gestión del calor en centros de datos, pasando por la necesidad de datos reales y cuestionamientos sobre la arquitectura de la inteligencia, las decisiones que tomen empresas y gobiernos en los próximos años definirán quién compite y quién se queda rezagado. Para América Latina, la combinación de planificación estratégica, inversión en capacidades locales y atención a eficiencia y gobernanza será crucial para convertir estas limitaciones en oportunidades competitivas.
Fuente original: TechCrunch AI