Ultrasonido adaptativo: cómo la IA basada en física transforma la imagen clínica

NVIDIA y Siemens Healthineers presentan NV-Raw2Insights-US, un modelo que aprende de las señales crudas del ultrasonido para estimar la velocidad del sonido y corregir el enfoque en tiempo real. La solución promete integrar computación de alto rendimiento con equipos clínicos existentes y abrir la puerta a imágenes ultrasonográficas adaptativas impulsadas por IA.

Por Redaccion TD
Ultrasonido adaptativo: cómo la IA basada en física transforma la imagen clínica

Introducción

El ultrasonido es una herramienta clínica esencial por su seguridad, portabilidad y capacidad de imagen en tiempo real. Tradicionalmente, las imágenes se generan mediante tuberías de reconstrucción diseñadas a mano que simplifican las mediciones crudas del sensor y asumen propiedades físicas globales, como una velocidad del sonido constante en el tejido. Esa simplificación puede introducir errores de enfoque y pérdida de información relevante.

En la era de la inteligencia artificial y los modelos fundacionales surge una pregunta clave: ¿podemos abandonar la reconstrucción clásica y aprender directamente de las señales crudas del transductor para obtener información que hoy se descarta? NVIDIA, junto con investigadores de Siemens Healthineers, desarrolló NV-Raw2Insights-US para explorar esa posibilidad.

¿Qué es Raw2Insights y por qué importa?

Raw2Insights es una familia de modelos que no parte de imágenes ya reconstruidas, sino de los ecos acústicos capturados por el transductor. En ultrasonido, lo que aparece en pantalla es una interpretación posterior de millones de pequeños ecos; la información original sobre cómo el sonido viajó y se deformó por distintos tejidos se pierde en gran medida durante la reconstrucción tradicional.

NV-Raw2Insights-US aprende directamente de esos datos de canal crudos. Al “escuchar” la señal original, el modelo puede inferir propiedades físicas específicas del paciente, como un mapa personalizado de la velocidad del sonido. Esa estimación sirve para ajustar el enfoque de imagen en tiempo real, corrigiendo distorsiones que antes requerían cálculos complejos y demorados.

La propuesta cambia el paradigma: de procesar imágenes a entender y adaptar la física detrás de cada exploración individual.

Cómo funciona NV-Raw2Insights-US

El modelo toma como entrada las señales de canal que provienen directamente del transductor, sin pasar por la reconstrucción convencional. Con hardware de alto rendimiento, la inferencia acelerada produce una estimación de la velocidad del sonido para el paciente en una sola pasada.

Ese mapa de velocidad se envía de regreso al equipo de ultrasonido para mejorar el enfoque durante la captura en vivo. En la práctica, esto permite imágenes más nítidas y coherentes, reduciendo errores derivados de asumir una velocidad del sonido uniforme en todo el cuerpo.

Según el equipo, este enfoque incorpora principios físicos en la arquitectura de IA, lo que ayuda a disminuir artefactos y mejorar la fidelidad diagnóstica sin necesidad de rediseñar por completo el hardware del escáner.

Despliegue: llevar datos crudos desde el transductor hasta la GPU

Un desafío importante es que los datos de canal crudos son de muy alto ancho de banda y no siempre están accesibles en escáneres clínicos comerciales. Para resolverlo, NVIDIA desarrolló Holoscan Sensor Bridge (HSB), una IP FPGA de código abierto que posibilita transferencia de datos de alta velocidad y baja latencia al GPU mediante RDMA sobre Converged Ethernet.

En la demostración, un kit de desarrollo Altera Agilex-7 con HSB captura la salida DisplayPort de un escáner ACUSON Sequoia —la denominación aplicada fue “Data over DisplayPort”—. HSB empaqueta los datos y los envía por Ethernet a un sistema como NVIDIA IGX, donde la información queda en memoria GPU para la inferencia.

La inferencia de NV-Raw2Insights-US se ejecuta en una GPU de clase Blackwell dentro de la plataforma Holoscan, diseñada para cargas de trabajo en tiempo real en el borde (edge). El resultado —el mapa de velocidad del sonido— se reinyecta al flujo de imagen del escáner para mejorar el enfoque en vivo.

Capacidades y ventajas del sistema

  • Integración por software: la arquitectura permite acelerar dispositivos médicos existentes mediante modificaciones mayoritariamente de software, aprovechando salidas DisplayPort ya disponibles.
  • Enfoque definido por software: al desplazar la inteligencia hacia el software, el sistema puede mejorar mediante actualizaciones sin cambiar el hardware clínico.
  • Plataforma modular: con los datos de canal ya en memoria GPU, es posible añadir nuevos modelos de IA que amplíen funcionalidades (p. ej., segmentación, cuantificación o detección de artefactos) sin rehacer la canalización básica.

Estas características abren un camino para que los escáneres se vuelvan más adaptativos y evolutivos, con versiones sucesivas de software que introduzcan capacidades diagnósticas nuevas.

Relevancia para América Latina

Para tomadores de decisión y líderes clínicos en la región, esta aproximación tiene implicaciones prácticas: mejorar la calidad de imagen en tiempo real puede incrementar la confianza diagnóstica en entornos con recursos limitados, donde el acceso a equipos avanzados o segundas lecturas es variable. Además, la posibilidad de actualizar dispositivos vía software aporta una ruta de valor para prolongar la vida útil del parque tecnológico existente.

Sin embargo, es importante recordar que la tecnología está en fase de desarrollo investigacional y no está autorizada para venta en Estados Unidos u otros países según el comunicado del proyecto. Los responsables de adopción en centros de salud deben contemplar marcos regulatorios locales y los procesos de validación clínica antes de desplegar soluciones de este tipo.

Perspectiva final

NV-Raw2Insights-US ejemplifica una tendencia creciente: desplazar la inteligencia desde algoritmos de reconstrucción tradicionales hacia modelos que incorporan física y aprenden desde la señal cruda. Esa transición reduce errores introducidos por suposiciones simplificadoras y permite personalizar la imagen para cada paciente.

Más allá de mejorar la nitidez de imagen, la arquitectura propuesta establece una base modular para futuras aplicaciones de IA en ultrasonido, facilitando la incorporación de nuevos modelos diagnósticos sobre la misma infraestructura de datos.

Para quienes diseñan políticas de compra tecnológica, líderes clínicos y equipos de innovación hospitalaria en América Latina, el mensaje clave es doble: existe un potencial real para elevar la calidad diagnóstica mediante IA aplicada a datos crudos, pero la adopción requiere atención a la integración de hardware, la certificación regulatoria y la evaluación clínica en el contexto local.

Recursos y referencias

  • Documento técnico citado: “Ultrasound Autofocusing: Common Midpoint Phase Error Optimization via Differentiable Beamforming”, IEEE Transactions on Medical Imaging, Vol. 45, Issue 2, Feb. 2026.
  • Estudio relacionado: “Investigating Pulse-Echo Sound Speed Estimation in Breast Ultrasound with Deep Learning”, arXiv:2302.03064, 2023.
  • Documentación NVIDIA Holoscan SDK: https://developer.nvidia.com/holoscan-sdk

Agradecimientos: el proyecto se realizó en colaboración con Siemens Healthineers y contó con la cooperación directa de investigadores del grupo AI & Advanced Platforms. La tecnología está en desarrollo investigacional y su disponibilidad futura no está garantizada.

Fuente original: Hugging Face Blog