top of page
  • Foto del escritorPionero Digital

Los sensores y el machine learning le están dando a los robots un sexto sentido



De acuerdo a algunos científicos, los humanos si tienen un sexto sentido. No hay nada sobrenatural en ello: el sentido de propiocepción te dice acerca de las posiciones relativas de los miembros y el resto del cuerpo. Cierra tus ojos, ignora todo sonido, y aún puedes usar este "mapa" de tu cuerpo para localizar tus músculos y partes del cuerpo - tienes un sentido innato de las distancias entre ellos, y la percepción de cómo se están moviendo, mas allá del sentido del tacto.


Este sentido es invaluable para permitirnos coordinar nuestros movimientos. En los humanos, el cerebro integra a a los sentidos incluyendo el tacto, calor, y la tensión en los rotores de los músculos para permitirnos construir este mapa.


Replicar este sentido tan complejo ha presentado un gran reto para los roboticistas. Podemos imaginar simular el sentido de la vista con cámaras, del oído con micrófonos, y el tacto con almohadillas de presión. Robots con sensores químicos podrían ser mas precisos que nosotros en el olfato y gusto, pero el construir propriocepción, el sentido del robot de él mismo y su cuerpo, es mucho mas difícil, y es en gran parte el porqué los robot humanoides son tan difíciles de hacer bien.


Software de mapeo y localización simultánea (SLAM, Simultaneous Localization And Mapping) permite a los robots usar sus propios sentidos para construir una imagen de sus alrededores y ambiente, pero necesitarían un sentido agudo de la posición de sus propios cuerpos para interactuar con él. Si algo inesperado pasa, o en un ambiente oscuro donde los sentidos primarios no están disponibles, los robots pueden tener problemas para dar seguimiento a su propia posición y orientación. Para interacciones humano-robot, robótica usable (ropa y accesorios), y aplicaciones delicadas como cirugía, pequeñas diferencias pueden ser extremadamente importantes.


Soluciones paso a paso


En el caso de la robótica dura, esto se resuelve generalmente usando una seria de sensores de tensión y presión situados en cada articulación, lo cuál permite al robot determinar cómo están posicionadas sus extremidades. Eso funciona bien para robots rígidos con un número limitado de articulaciones, pero para robots mas suaves y mas flexibles, esta información es limitada. Los roboticistas enfrentan un dilema: ¿un arreglo grande y complejo de sensores para cada grado de libertad en el movimiento del robot, o habilidad limitada de propiocepción?.


Técnicas nuevas, frecuentemente incluyendo nuevos arreglos de material sensorial y algoritmos de machine-learning para llenar los vacíos, están empezando a trabajar en este problema. Mira el trabajo de Thomas George Thuruthel y sus colegas en Pisa y San Diego, que tomaron inspiración de la propiocepción de los humanos. En un nuevo artículo en Science Robotics, describieron el uso de sensores suaves distribuidos a través de un dedo robótico al azar. Esta colocación es muy similar a la adaptación de sensores en humanos y animales, en lugar de depender en la retroalimentación de un número limitado de posiciones.


Los sensores permiten al robot suave reaccionar al tacto y presión en muchos lugares diferentes, formando un mapa de él mismo mientras se contorsiona en posiciones complicadas. El algoritmo de machine-learning sirve para interpretar las señales de los sensores distribuidos al azar: al moverse el dedo, es observado por un sistema de captura de movimiento. Después de entrenar a la red neuronal del robot, puede asociar la retroalimentación de los sensores con la posición del dedo detectada en el sistema de captura de movimiento, que después puede descartarse. El robot observa sus propio movimientos para entender las formas que su cuerpo suave puede tomar, y las traduce al lenguaje de estos sensores suaves.


"Las ventajas de nuestro acercamiento son la habilidad de predecir fuerzas y movimientos complejos que el robot suave experimenta ( lo cuál es difícil con los métodos tradicionales) y el hecho de que puede ser aplicado a múltiples tipos de actuadores y sensores," dijo Michael Tolley de la Universidad de San Diego, California. "Nuestro método también incluye sensores redundantes, lo cuál mejora la robustez original de nuestras predicciones."


El uso de machine learning permite a los roboticistas crear un modelo confiable para este sistema de movimientos complejo y no-lineal para los actuadores, algo difícil de hacer directamente calculando el movimiento esperado por el robot suave. También se parece al sistema humano de propicepción, construído en sensores redundantes que cambian de posición mientras envejecemos.


En busca del brazo perfecto


Otro acercamiento a entrenar robots para usar sus cuerpos viene de Robert Kwiatkowski y Hod Lipson de la Universidad de Columbia en Nueva York. En su artículo "Task-agnostic self-modeling machines," también recientemente publicado en Science Robotics, describen un nuevo tipo de robot robótico.


Brazos y manos robóticas se están volviendo más diestras, pero entrenarlos para sujetar una colección grande de objetos y realizar tareas diferentes puede ser un proceso arduo. También es una habilidad extremadamente valiosa una vez que se obtiene bien: Amazon está muy interesado en perfeccionar el brazo robótico. Google engancho un arreglo de más de una docena de brazos robóticos para que pudieran compartir información acerca de la sujeción de nuevos objetos, en parte para reducir su tiempo de entrenamiento.


Entrenar un brazo robótico individualmente para realizar cada tarea individual toma tiempo y reduce la adaptabilidad del robot: o necesitas un algoritmo de machine-learning con un conjunto de datos de experiencias enorme, o, aún peor, necesitas programar miles de movimientos diferentes. Kwiatkowski y Lipson intentan superar esto desarrollando un sistema robótico que tenga un "fuerte sentido de él mismo": un modelo con sus tamaño, forma y movimientos propios.



Hacen esto usando machine-learning profundo. El robot comienza sin ningún conocimiento previo de su propia forma o los fundamentos físicos de su movimiento. Entonces repite una serie de mil trayectorias aleatorias, grabando el movimiento de su brazo. Kwiatkowski y Lipson comparan esto con un bebé en su primer año de vida observando los movimientos de sus propias manos y extremidades, fascinado por sujetar y levantar objetos.



Una vez más, cuando el robot se ha entrenado a si mismo para interpretar estas señales y construir un modelo robusto de su propio cuerpo, está listo para la siguiente etapa. Usando ese algoritmo de aprendizaje profundo, los investigadores le piden al robot diseñar estrategias para completar tareas de sujetar y colocar y tareas de caligrafía. En lugar de entrenarse estrecha y laboriosamente para cada tarea individual, limitando sus habilidades a un conjunto pequeño de circunstancias, el robot puede ahora crear estrategias de cómo usar su brazo para un rango de situaciones mucho mas ancho, sin ningún entrenamiento específico adicional.


Control de daños


En un experimento mas adelante, los investigadores reemplazaron parte del brazo con un componente "deforme", con la intención de simular lo que podría pasar si el robot se dañara. El robot puede entonces detectar que algo paso y "reconfigurarse" a si mismo, reconstruyendo su modelo-del-yo mediante los ejercicios de entrenamiento otra vez; fue capaz de realizar las mismas tareas con tan solo una pequeña reducción en precisión.


Las técnicas de machine learning están abriendo el campo de la robótica de formas nunca antes vistas. Combinándolas con el entendimiento de cómo los humanos y otros animales son capaces de sentir e interactual con el mundo a nuestro alrededor está llevando a la robótica cada vez más cerca de volverse realmente flexible y adaptable, y, eventualmente, omnipresente.


Pero antes de que puedan salir y cambiar el mundo, como muestran estos estudios, tendrán que comprenderse a sí mismos.


Fuentes

Singularityhub.com


0 visualizaciones0 comentarios

Comments


bottom of page