Cómo los equipos humano-robot están transformando las operaciones submarinas
Investigadores del MIT Lincoln Laboratory desarrollan sistemas que permiten a vehículos autónomos submarinos (AUV) colaborar en tiempo real con buzos para localizar fallas, inspeccionar infraestructura y asistir en misiones complejas. El enfoque combina navegación robusta, percepción multimodal y comunicación acústica eficiente para superar las limitaciones del entorno marino.
Resumen
Un proyecto del MIT Lincoln Laboratory explora cómo buzos y vehículos autónomos submarinos (AUV) pueden formar equipos complementarios para misiones complejas en el mar: desde ubicar daños en cables submarinos hasta apoyar búsquedas y operaciones de contraminado. El trabajo, liderado por Madeline Miller en el Advanced Undersea Systems and Technology Group, busca aprovechar las fortalezas de ambos —la destreza y la capacidad de reconocimiento humano frente al procesamiento, movilidad y resistencia robótica— para optimizar tareas que hoy requieren singulares sacrificios operativos.
Por qué es necesario el teaming humano-robot bajo el agua
Las misiones submarinas que involucran intervención humana suelen hacerse porque requieren manipulación fina o juicio visual que los robots no realizan bien. Incluso los ROVs (vehículos operados remotamente) tienen limitaciones en manipulación. Los buzos, por su parte, tienen ventaja en destreza y en la capacidad de reconocer objetos complejos en contexto, pero sufren por la lentitud de movimiento, la fatiga y la falta de poder de cómputo a profundidad.
Los AUVs complementan esas fortalezas: pueden cubrir distancias, procesar información y permanecer más tiempo en misión. Integrarlos con buzos permite, por ejemplo, que un AUV identifique y localice la sección dañada de un cable y que un buzo se movilice únicamente para la reparación precisa, reduciendo tiempo y riesgo operativo.
Desafíos técnicos: navegación y percepción en un entorno adverso
El entorno submarino presenta desafíos únicos. En profundidad hay poca luz y la columna de agua puede contener organismos y partículas que reducen la visibilidad. En esas condiciones las cámaras ópticas fallan y el sonar —aunque útil— produce imágenes sin color, con formas y sombras que pueden ser difíciles de interpretar.
Además, históricamente ha faltado grandes conjuntos de datos rotulados de imágenes sonar para entrenar modelos de percepción. Y la propia dinámica oceánica complica la interpretación: un avión partido en varios fragmentos o una llanta recubierta de mejillones pueden perder las formas típicas que los algoritmos esperan reconocer.
Por eso el proyecto prioriza dos capacidades: una navegación robusta que mantenga sincronizadas las posiciones del buzo y del AUV, y una percepción multimodal que combine sonar y óptica y que solicite la retroalimentación humana cuando hay incertidumbre.
Navegación colaborativa: más sensores en el buzo
La iniciativa se apoya en trabajos previos del MIT Marine Robotics Group para desarrollar algoritmos de teaming entre buzos y AUVs. En simulaciones y pruebas en condiciones calmas, los algoritmos podían estimar posiciones usando sólo mediciones periódicas de la distancia (rango) entre vehículo y buzo. Sin embargo, al llevar las pruebas al océano real, las corrientes y las fuerzas ambientales hicieron que ese esquema fuera insuficiente: el problema de optimización que estima ambas trayectorias se vuelve inestable cuando las fuerzas externas desplazan continuamente a los actores.
La lección fue clara: con condiciones reales se requieren capacidades de sensado adicionales en el buzo para mantener una navegación confiable. En la práctica, esto significa integrar mediciones de rango más frecuentes, y otros sensores de bajo peso para ayudar al algoritmo a mantener una estimación robusta frente a corrientes y perturbaciones.
Percepción interactiva: el AUV pide ayuda al buzo
En percepción, el equipo desarrolló un clasificador capaz de procesar datos ópticos y de sonar durante la misión. Cuando el algoritmo detecta un objeto pero su clasificación tiene alta incertidumbre, en lugar de decidir solo, genera una consulta para el buzo: por ejemplo, enviar una región de interés con una hipótesis (“esto parece una llanta”) y pedir confirmación o corrección.
Este enfoque humano-en-el-bucle permite aprovechar la habilidad natural del buzo para reconocer objetos complejos, mejorando la precisión sin depender exclusivamente de modelos entrenados sobre datos imperfectos. A la vez, cada interacción humana puede retroalimentar y mejorar futuros modelos.
Limitaciones de comunicación y compresión de información
Un aspecto crítico es la comunicación entre AUV y buzo: bajo el agua se usan modems acústicos con tasas de datos muy bajas y latencias altas. En esas condiciones, transmitir una imagen sin comprimir puede tomar decenas de minutos, lo que hace inviable un flujo continuo de datos pesados.
Por eso el equipo se concentra en cómo resumir la información útil en el menor número de bits: enviar cajas delimitadoras, características visuales compactas o pequeñas descripciones que permitan al buzo decidir rápidamente si confirmar, corregir o solicitar más detalle. Esta estrategia busca maximizar la utilidad de cada paquete de datos frente a las restricciones de ancho de banda y la limitación de energía y tamaño del hardware comercial disponible.
Prototipo y pruebas en mar abierto
Para facilitar transición tecnológica hacia entornos operativos, el equipo construyó una carga de sensores usando principalmente componentes comerciales (COTS). El paquete incluye sensores sonar y ópticos, un modem acústico para rango y comunicación, y varias placas de procesamiento y cómputo integrables en AUVs que ya emplea la Marina de EE. UU.
Las pruebas se llevaron a cabo en la costa del noreste de Estados Unidos: desde el mar abierto cerca de Portsmouth, New Hampshire —donde se usaron los buques Gulf Surveyor y Gulf Challenger de la University of New Hampshire como sustitutos de buzos— hasta ensayos en el río Charles en Boston con una embarcación ligera del MIT como proxy. Inicialmente las pruebas usaron kayaks y embarcaciones como reemplazo de buzos para validar algoritmos bajo condiciones controladas; luego se avanzó con embarcaciones de apoyo y, finalmente, con buzos reales.
Relevancia para América Latina
Aunque el trabajo se desarrolló en el contexto de investigación y aplicaciones militares en Estados Unidos, las capacidades que persigue son altamente relevantes para la región latinoamericana. América Latina concentra infraestructuras costeras críticas —puertos, cables submarinos, plataformas y redes de energía— y enfrenta riesgos por fenómenos naturales, accidentes marítimos y limitaciones logísticas en respuesta a emergencias.
La integración de AUVs que mapeen, clasifiquen y localicen rápidamente daños, con buzos encargados de la intervención fina, puede reducir tiempos de reparación, costos y riesgos humanos. Además, el uso de sensores COTS como base facilita que centros de investigación, empresas de servicios marítimos y fuerzas navales regionales exploren soluciones adaptadas a presupuestos y condiciones locales.
Próximos pasos y desafíos pendientes
Los desarrollos mostrados demuestran viabilidad, pero varios retos permanecen: mejorar la robustez de los modelos de percepción frente a variabilidad biológica y geomorfológica del fondo marino; ampliar y etiquetar datasets sonar representativos; optimizar protocolos de comunicación eficientes; y seguir integrando sensores portátiles para buzos sin comprometer su movilidad.
El avance hacia operaciones prácticas dependerá también de la colaboración entre investigadores, industria y operadores marítimos para validar sistemas en escenarios reales y asegurar que las soluciones sean transferibles y sostenibles.
Conclusión
El trabajo en human-machine teaming submarino avanza hacia sistemas donde AUVs y buzos actúan como equipos complementarios: los robots localizan y procesan información, y los humanos ejecutan las tareas que requieren juicio y manipulación fina. Superar las limitaciones del medio —oscuridad, turbidez, comunicaciones acústicas— requiere combinar navegación mejorada, percepción multimodal y estrategias de comunicación compacta. Para América Latina, estas tecnologías representan una oportunidad para modernizar inspección y respuesta en zonas costeras, siempre que se adapten a las condiciones y capacidades locales.
Fuente original: MIT News AI