Muñequera de ultrasonido permite controlar una mano robótica con sus propios movimientos
Investigadores del MIT desarrollaron una muñequera con un transductor de ultrasonido y un algoritmo de IA que convierte imágenes del antebrazo en posiciones de los dedos. La tecnología permite controlar manos robóticas y objetos en entornos virtuales de manera inalámbrica.
Por qué replicar la mano humana es un desafío
La mano humana es una maquinaria extraordinariamente compleja: 34 músculos, 27 articulaciones y más de 100 tendones y ligamentos trabajan en conjunto para permitir gestos finos y movimientos continuos. Esa complejidad explica por qué lograr destreza comparable en robots o en interfaces virtuales ha sido una de las tareas más difíciles en robótica y realidad extendida.
Las soluciones actuales incluyen sistemas de cámaras, guantes con sensores y el uso de señales eléctricas musculares (EMG). Cada enfoque tiene limitaciones: las cámaras son voluminosas y vulnerables a obstáculos visuales; los guantes pueden reducir la sensibilidad natural de la mano; y las señales EMG suelen ser ruidosas y poco precisas para distinguir trayectorias sutiles de movimiento.
La propuesta: una muñequera con ultrasonido y IA
Un equipo del MIT presentó una alternativa: una muñequera que incorpora un “sticker” de ultrasonido —una versión miniaturizada del transductor clínico combinada con un hidrogel que se adhiere a la piel— junto con electrónica compacta. El dispositivo genera imágenes de ultrasonido en tiempo real de los músculos, tendones y ligamentos en la muñeca mientras la mano se mueve.
Esas imágenes son procesadas por un algoritmo de inteligencia artificial que las traduce continuamente a las posiciones de los cinco dedos y la palma, permitiendo mapear hasta 22 grados de libertad de la mano. En palabras sencillas: al observar el estado de las “cuerdas” (tendones y músculos) en la muñeca, el sistema puede inferir el estado de la mano, como si estuvieran tirando de los hilos de una marioneta.
Cómo funciona el aprendizaje del movimiento
Para establecer la relación entre regiones de la imagen de ultrasonido y movimientos concretos de la mano, los investigadores registraron simultáneamente los ultrasonidos y la postura de la mano usando varias cámaras. Al correlacionar cambios en zonas específicas de la imagen con posiciones capturadas por las cámaras, pudieron etiquetar regiones del ultrasonido con los grados de libertad correspondientes (por ejemplo, extensión del pulgar o movimiento del índice).
La traducción continua y en tiempo real entre imágenes y postura habría sido inviable manualmente, por lo que recurrieron a técnicas de aprendizaje automático para que el sistema aprenda la relación y la aplique durante el uso cotidiano.
Demostraciones: desde piano hasta videojuegos
En demostraciones, una persona que lleva la muñequera puede controlar de forma inalámbrica una mano robótica: cuando el usuario apunta o hace un gesto, el robot replica el movimiento. Los investigadores mostraron que la interacción permite a la persona manipular el robot para tocar una melodía sencilla en un piano y lanzar una pequeña pelota de baloncesto hacia un aro de escritorio. También es posible usar la muñequera para interactuar con interfaces virtuales, por ejemplo pellizcando los dedos para ampliar o reducir un objeto en pantalla.
Ventajas frente a otras tecnologías
La aproximación por ultrasonido ofrece varias ventajas relevantes:
- Captura interna: a diferencia de cámaras externas, el ultrasonido ve la dinámica interna de tendones y músculos, lo que reduce problemas por oclusión o iluminación.
- No limita la sensibilidad: no requiere guantes con sensores que podrían alterar la sensación natural de la mano.
- Mejor resolución en trayectorias: puede discriminar cambios continuos y finos en el movimiento que las señales EMG a menudo no detectan.
Diseño y portabilidad
La banda integra el sticker de ultrasonido con electrónica de tamaño comparable a un teléfono celular, y el transductor tiene dimensiones similares a las de un reloj inteligente. El equipo comprobó que el dispositivo genera imágenes claras y continuas del antebrazo mientras el voluntario realiza distintos gestos.
Datos y escalabilidad: hacia un gran repositorio de movimientos
Los autores están ampliando la recolección de datos con usuarios de diversas tallas de mano, formas de dedos y patrones gestuales. La idea es construir un conjunto de datos amplio que sirva para entrenar robots humanoides en tareas delicadas, y que alimente modelos capaces de generalizar entre distintas manos. Uno de los usos potenciales mencionados por los investigadores es entrenar robots para tareas de destreza, incluso ciertos procedimientos quirúrgicos.
Además, un repositorio mayor facilitaría la adaptación del sistema a aplicaciones en videojuegos, diseño 3D, realidad aumentada y virtual, donde el seguimiento preciso de la mano mejora la usabilidad y la inmersión.
Aplicaciones relevantes para América Latina
En el contexto latinoamericano, esta tecnología puede tener aplicaciones valiosas en educación técnica, teleasistencia quirúrgica colaborativa, y en la industria del entretenimiento y los videojuegos, mercados en crecimiento en la región. Centros de investigación y empresas emergentes podrían aprovechar bandas portátiles para prototipado de interfaces naturales, capacitación remota o para mejorar la accesibilidad de dispositivos para personas con movilidad reducida.
No obstante, la adopción implica considerar factores prácticos: coste del dispositivo, adaptación a distintos tipos de piel y tallas, y cumplimiento de normativas médicas y de privacidad si se usan datos biométricos para entrenamiento o servicios.
Limitaciones y próximos pasos
Aunque prometedora, la tecnología todavía requiere pruebas a mayor escala y refinamientos para garantizar robustez frente a variaciones individuales y ruido durante el uso prolongado. El equipo del MIT ya está ampliando la base de usuarios y afinando el modelado para que la traducción sea más precisa y generalizable.
Conclusión
La muñequera de ultrasonido creada por el equipo del MIT representa un avance interesante en la captura de la dexteridad humana: combina imágenes internas con aprendizaje automático para ofrecer un seguimiento de dedos y palma en tiempo real, sin las limitaciones de cámaras externas o guantes sensorizados. Si se escalan y adaptan adecuadamente, estas bandas podrían transformar cómo controlamos manos robóticas, maestros virtuales y entornos inmersivos, con aplicaciones concretas tanto en investigación como en industrias en expansión en América Latina.
Los resultados de este trabajo fueron publicados en Nature Electronics por Xuanhe Zhao, Gengxi Lu y colaboradores del MIT y la University of Southern California.
Fuente original: MIT News AI