El hombre se quedó quieto en la silla, mirando fijamente un trozo de pastel en la mesa frente a él. Los cables sobresalían de los implantes de electrodos en su cerebro. Flanqueándolo había dos brazos robóticos gigantes, cada uno más grande que la parte superior de su cuerpo. Uno sostenía un cuchillo, el otro un tenedor.
“Cortar y comer la comida. Mueva la mano derecha hacia adelante para comenzar”, ordenó una voz robótica.
El hombre se concentró en mover su brazo derecho parcialmente paralizado hacia adelante. Su muñeca apenas se movió, pero la mano derecha robótica se movió suavemente hacia adelante, colocando la punta del tenedor cerca del pastel. Otro ligero movimiento de su mano izquierda envió el cuchillo hacia adelante.
Varios comandos más tarde, el hombre felizmente abrió la boca y devoró la golosina del tamaño de un bocado, cortada según sus preferencias personales con la ayuda de sus avatares robóticos. Habían pasado aproximadamente 30 años desde que pudo alimentarse por sí mismo.
La mayoría de nosotros no pensamos dos veces antes de usar nuestros dos brazos simultáneamente: comer con un cuchillo y un tenedor, abrir una botella, abrazar a un ser querido, descansar en el sofá con un controlador de videojuegos. La coordinación es algo natural en nuestro cerebro.
Sin embargo, la reconstrucción de este movimiento sin esfuerzo entre dos extremidades ha bloqueado a los expertos en interfaz cerebro-máquina (BMI) durante años. Un obstáculo principal es el nivel de complejidad: en una estimación, el uso de extremidades robóticas para las tareas de la vida diaria puede requerir 34 grados de libertad, lo que representa un desafío incluso para las configuraciones de BMI más sofisticadas.
Un nuevo estudio , dirigido por el Dr. Francesco V. Tenore de la Universidad Johns Hopkins, encontró una solución brillante. Los robots se han vuelto cada vez más autónomos gracias al aprendizaje automático. En lugar de tratar las extremidades robóticas como meras máquinas, ¿por qué no aprovechar su programación sofisticada para que humanos y robots puedan compartir los controles?
“Este enfoque de control compartido pretende aprovechar las capacidades intrínsecas de la interfaz cerebro-máquina y el sistema robótico, creando un entorno de 'lo mejor de ambos mundos' donde el usuario puede personalizar el comportamiento de una prótesis inteligente”, dijo el Dr. Francesco Tenore. .
Al igual que un sistema de vuelo automatizado, esta colaboración permite que el ser humano "pilote" el robot centrándose solo en las cosas que más importan, en este caso, qué tan grande cortar cada bocado de pastel, mientras deja las operaciones más mundanas a los semi- robot autónomo.
La esperanza es que estos "sistemas neurorobóticos", una verdadera fusión mental entre las señales neuronales del cerebro y los algoritmos inteligentes de un robot, puedan "mejorar la independencia y la funcionalidad del usuario", dijo el equipo.
Doble problema
El cerebro envía señales eléctricas a nuestros músculos para controlar el movimiento y ajusta esas instrucciones en función de la retroalimentación que recibe, por ejemplo, las que codifican la presión o la posición de una extremidad en el espacio. Las lesiones de la médula espinal u otras enfermedades que dañan esta vía de señalización cortan el control del cerebro sobre los músculos, lo que lleva a la parálisis.
Los BMI esencialmente construyen un puente a través del sistema nervioso lesionado, permitiendo que fluyan los comandos neuronales, ya sea para operar extremidades sanas o prótesis adheridas. Desde restaurar la escritura y el habla hasta percibir la estimulación y controlar las extremidades robóticas, los BMI han allanado el camino para restaurar la vida de las personas.
Sin embargo, la tecnología ha estado plagada de un contratiempo preocupante: el doble control. Hasta ahora, el éxito en los IMC se ha limitado en gran medida a mover una sola extremidad, ya sea del cuerpo o de otra manera. Sin embargo, en la vida cotidiana, necesitamos ambos brazos para las tareas más simples, un superpoder pasado por alto que los científicos llaman "movimientos bimanuales".
En 2013, el pionero del IMC, el Dr. Miguel Nicolelis de la Universidad de Duke, presentó la primera evidencia de que el control bimanual con los IMC no es imposible. En dos monos implantados con micromatrices de electrodos, las señales neuronales de aproximadamente 500 neuronas fueron suficientes para ayudar a los monos a controlar dos brazos virtuales usando solo sus mentes para resolver una tarea computarizada por una recompensa (literalmente) jugosa. Si bien fue un primer paso prometedor, los expertos en ese momento se preguntaron si la configuración podría funcionar con actividades humanas más complejas.
Mano amiga
El nuevo estudio adoptó un enfoque diferente: control compartido colaborativo. La idea es sencilla. Si el uso de señales neuronales para controlar ambos brazos robóticos es demasiado complejo para los implantes cerebrales solos, ¿por qué no permitir que la robótica inteligente elimine parte de la carga de procesamiento?
En términos prácticos, los robots primero están preprogramados para varios movimientos simples, mientras dejan espacio para que el humano controle detalles específicos según sus preferencias. Es como un paseo en bicicleta en tándem de robot y humano: la máquina pedalea a diferentes velocidades según sus instrucciones algorítmicas mientras el hombre controla el manillar y los frenos.
Para configurar el sistema, el equipo primero entrenó un algoritmo para decodificar la mente del voluntario. El hombre de 49 años sufrió una lesión en la médula espinal aproximadamente 30 años antes de la prueba. Todavía tenía un movimiento mínimo en el hombro y el codo y podía extender las muñecas. Sin embargo, su cerebro había perdido durante mucho tiempo el control sobre sus dedos, robándole cualquier control motor fino.
El equipo primero implantó seis micromatrices de electrodos en varias partes de su corteza. En el lado izquierdo de su cerebro, que controla su lado dominante, el lado derecho, insertaron dos matrices en las regiones motora y sensorial, respectivamente. Las regiones correspondientes del cerebro derecho, que controlaban su mano no dominante, recibieron una matriz cada una.
A continuación, el equipo le indicó al hombre que realizara una serie de movimientos de manos lo mejor que pudiera. Cada gesto, flexionar una muñeca izquierda o derecha, abrir o pellizcar la mano, se asignó a una dirección de movimiento. Por ejemplo, flexionar la muñeca derecha mientras se extiende la izquierda (y viceversa) correspondía a un movimiento en direcciones horizontales; Ambas manos abiertas o pellizcando códigos para movimiento vertical.
Mientras tanto, el equipo recopiló señales neuronales que codificaban cada movimiento de la mano. Los datos se usaron para entrenar un algoritmo para decodificar el gesto previsto y alimentar el par externo de brazos robóticos de ciencia ficción, con aproximadamente un 85 por ciento de éxito.
Déjalo comer pastel
Los brazos robóticos también recibieron un entrenamiento previo. Usando simulaciones, el equipo primero le dio a los brazos una idea de dónde estaría el pastel en el plato, dónde se colocaría el plato en la mesa y aproximadamente qué tan lejos estaría el pastel de la boca del participante. También ajustaron la velocidad y el rango de movimiento de los brazos robóticos; después de todo, nadie quiere ver un brazo robótico gigante agarrando con un tenedor puntiagudo volando hacia tu cara con un trozo de pastel colgando y destrozado.
En esta configuración, el participante podía controlar parcialmente la posición y la orientación de los brazos, con hasta dos grados de libertad en cada lado, por ejemplo, lo que le permitía mover cualquier brazo de izquierda a derecha, de adelante hacia atrás o girar de izquierda a derecha. . Mientras tanto, el robot se ocupaba del resto de las complejidades del movimiento.
Para ayudar aún más a la colaboración, una voz de robot gritó cada paso para ayudar al equipo a cortar un trozo de pastel y llevárselo a la boca del participante.
El hombre tuvo el primer movimiento. Concentrándose en el movimiento de su muñeca derecha, colocó la mano robótica derecha hacia el pastel. Luego, el robot se hizo cargo, moviendo automáticamente la punta del tenedor hacia el pastel. Luego, el hombre podría decidir la posición exacta del tenedor utilizando controles neuronales previamente entrenados.
Una vez configurado, el robot movió automáticamente la mano que empuñaba el cuchillo hacia la izquierda del tenedor. El hombre volvió a hacer ajustes para cortar el pastel al tamaño deseado, antes de que el robot cortara automáticamente el pastel y se lo llevara a la boca.
“Consumir el pastel era opcional, pero el participante eligió hacerlo porque estaba delicioso”, dijeron los autores.
El estudio tuvo 37 ensayos, siendo la mayoría de calibración. En general, el hombre usó su mente para comer siete bocados de pasteles, todos de "tamaño razonable" y sin dejar caer ninguno.
Ciertamente no es un sistema que llegue a su hogar en el corto plazo. Basado en un par gigantesco de brazos robóticos desarrollados por DARPA, la configuración requiere un amplio conocimiento preprogramado para el robot, lo que significa que solo puede permitir una sola tarea en un momento dado. Por ahora, el estudio es más una prueba de concepto exploratoria sobre cómo combinar señales neuronales con la autonomía del robot para expandir aún más las capacidades de BMI.
Pero a medida que las prótesis se vuelven cada vez más inteligentes y asequibles, el equipo mira hacia el futuro.
“El objetivo final es una autonomía ajustable que aproveche cualquier señal de BMI disponible para
su máxima eficacia, lo que permite al ser humano controlar los pocos DOF [grados de libertad] que tienen un impacto más directo en el rendimiento cualitativo de una tarea, mientras que el robot se encarga del resto”, dijo el equipo. Los estudios futuros explorarán, y empujarán, los límites de estas fusiones mentales entre humanos y robots.
Fuente
singularityhub.com
Comments