top of page
  • Foto del escritorPionero Digital

Google está usando radar para ayudar a las computadoras a leer y reaccionar al lenguaje corporal

Actualizado: 19 jun 2022



La tecnología se ha infiltrado rápidamente en casi todos los aspectos de nuestras vidas, pero la forma en que interactuamos con nuestros dispositivos sigue siendo menos que ideal. Desde encorvarnos sobre las pantallas de nuestras computadoras (porque si eres como yo, es prácticamente imposible mantener una buena postura por más de unos pocos minutos a la vez) hasta mirar constantemente hacia abajo a nuestros teléfonos (a menudo mientras caminas, conduces o de otra manera). estar en movimiento), la forma en que nuestros cuerpos y cerebros interactúan con la tecnología no es exactamente perfecta. Es discutible cuán fluido queremos que sea, pero un proyecto de Google está explorando esos límites.


El laboratorio de Proyectos y tecnología avanzada de Google, ATAP , se centra en el desarrollo de hardware para "cambiar la forma en que nos relacionamos con la tecnología". Su Proyecto Jacquard desarrolló hilo conductor para tejer en la ropa para que las personas pudieran interactuar con los dispositivos, por ejemplo, tocando sus antebrazos, algo así como una versión elemental basada en tela del reloj Apple. El laboratorio también ha estado trabajando en un proyecto llamado Soli , que utiliza un radar para dar a las computadoras una conciencia espacial, lo que les permite interactuar con las personas de forma no verbal.


En otras palabras, el proyecto está tratando de permitir que las computadoras reconozcan y respondan a las señales físicas de sus usuarios, de manera similar a cómo asimilamos y respondemos al lenguaje corporal. “Nos inspira la forma en que las personas interactúan entre sí”, dijo Leonardo Giusti, director de diseño de ATAP. “Como humanos, nos entendemos intuitivamente, sin decir una sola palabra. Detectamos señales sociales, gestos sutiles que entendemos y reaccionamos de forma innata. ¿Y si las computadoras nos entendieran de esta manera?


Los ejemplos incluyen una computadora que se enciende automáticamente cuando te acercas a cierta distancia o pausa un video cuando apartas la mirada de la pantalla.


El sensor funciona enviando ondas electromagnéticas en un haz amplio, que son interceptadas y reflejadas hacia la antena del radar por los objetos, o personas, que se encuentran en su camino. Las ondas reflejadas se analizan en busca de propiedades como energía, retardo de tiempo y cambio de frecuencia, que dan pistas sobre el tamaño, la forma y la distancia del reflector al sensor. Analizar los datos aún más utilizando un algoritmo de aprendizaje automático permite que el sensor determine cosas como la orientación de un objeto, su distancia desde el dispositivo y la velocidad de sus movimientos.


El equipo de ATAP ayudó a entrenar el algoritmo de Soli haciendo una serie de movimientos mientras eran rastreados por cámaras y sensores de radar. Los movimientos en los que se centraron eran los típicamente relacionados con la interacción con dispositivos digitales, como girar hacia una pantalla o alejarse de ella, acercarse o salir de un espacio o dispositivo, mirar una pantalla, etc. El objetivo final es que el sensor pueda anticipe el próximo movimiento de un usuario y proporcione una respuesta correspondiente, facilitando la interacción humano-dispositivo al permitir que los dispositivos "entiendan el contexto social que los rodea", como lo expresó el líder de interacción humano-computadora de ATAP, Eiji Hayashi .


Mejorar la forma en que interactuamos con nuestros ahora omnipresentes dispositivos no es una idea nueva. Jody Medich , investigadora principal de diseño en Microsoft y directora ejecutiva de Superhuman-X , lleva mucho tiempo abogando por lo que ella llama tecnología centrada en el ser humano, y sostiene que nuestras interfaces “están matando nuestra capacidad de pensar” al sobrecargar nuestra memoria de trabajo (que es breve). plazo y basado en tareas) con interrupciones constantes.


En 2017, Medich predijo el auge de la computación perceptual, en la que las máquinas reconocen lo que sucede a su alrededor y actúan en consecuencia. “Esto hará que la curva de desmaterialización se acelere drásticamente mientras usamos la tecnología en lugares aún más inesperados”, escribió . “Esto significa que la tecnología estará en todas partes, al igual que la interfaz”.


Parece que no estaba equivocada, pero esto plantea un par de preguntas importantes.


Primero, ¿realmente necesitamos que nuestras computadoras “entiendan” y respondan a nuestros movimientos y gestos? ¿Es este un ajuste necesario en la forma en que usamos la tecnología, o un nuevo vértice de la pereza humana? Presionar pausa en un video antes de levantarse para alejarse toma una fracción de segundo, al igual que presionar el botón de encendido para encender o apagar un dispositivo. ¿Y qué hay de esos momentos en los que queremos que la computadora permanezca encendida o que el video siga reproduciéndose incluso cuando no estamos frente a la pantalla?


En segundo lugar, ¿cuáles podrían ser las implicaciones de privacidad de estos dispositivos cargados de sensores? El equipo de ATAP enfatiza que Soli usa el radar precisamente porque protege la privacidad de los usuarios mucho más que, digamos, las cámaras; el radar no puede distinguir entre las caras o los cuerpos de las diferentes personas, solo puede decir que hay una persona en su espacio. Además, los datos del sensor Soli en Nest Hub de Google no se envían a la nube, solo se procesan localmente en los dispositivos de los usuarios, y se supone que un producto hecho para computadoras portátiles u otros dispositivos funcionaría de la misma manera.





Inicialmente, las personas pueden asustarse porque sus dispositivos pueden anticipar y responder a sus movimientos. Sin embargo, como la mayoría de las otras tecnologías que inicialmente encontramos desagradables por razones de privacidad, parece que finalmente terminamos valorando la conveniencia que estos productos nos brindan más de lo que valoramos nuestra privacidad; todo se reduce al utilitarismo.


Ya sea que queramos o no que nuestros dispositivos eventualmente se vuelvan más como extensiones de nuestros cuerpos, es probable que la tecnología se mueva en esa dirección. Los análisis desde 2019 hasta este año estiman que revisamos nuestros teléfonos entre 96 y 344 veces al día. Eso es muchas veces, y muchas interrupciones de lo que estamos haciendo para mirar estas pequeñas pantallas que ahora esencialmente dirigen nuestras vidas.


¿Hay una mejor manera? Ojalá. ¿Es esto? Por determinar.


5 visualizaciones0 comentarios

コメント


bottom of page