A medida que nuestra realidad física aumenta cada vez más, los codificadores creativos pueden acceder a un nuevo tesoro de posibilidades intrigantes. Hace varias semanas, nos topamos con uno de esos experimentos llamado TACTUM , una combinación inusual de mapeo de proyección, controles de movimiento, detección de profundidad e impresión 3D para crear dispositivos portátiles personalizados. Con toda esa tecnología, el proceso de diseño es sorprendentemente simple: todo lo que necesita es la luz sobre su piel.
TACTUM es la creación del estudio de investigación y diseño MADLAB.CC . A principios de esta semana, nos reunimos con la diseñadora e investigadora principal Madeline Gannon para obtener más información sobre el trabajo de medios mixtos, así como sobre su proceso artístico.
¿Cuál es la configuración de hardware detrás de TACTUM ?
TACTUM es una herramienta de modelado aumentada que le permite diseñar dispositivos portátiles impresos en 3D directamente en su cuerpo. Utiliza detección de profundidad y mapeo de proyección para detectar y mostrar gestos táctiles en la piel. Una persona puede simplemente tocar, empujar, frotar o pellizcar la geometría proyectada en su brazo para personalizar formularios listos para imprimir y listos para usar.
¿Qué lo inspiró a incorporar la tecnología Leap Motion en TACTUM ?
Primero implementamos TACTUM usando Microsoft Kinect. Sin embargo, nuestra segunda versión cambió a un Leap Motion Controller. Pragmáticamente, esto nos permitió probar si nuestro sistema era generalizable a muchos tipos de sensores de profundidad. La velocidad y la precisión del Leap Motion Controller también hicieron que fuera mucho más fácil y confiable proyectar el mapa de nuestra geometría digital en un cuerpo en movimiento.
Usando sus capacidades de seguimiento esquelético, pudimos proyectar dinámicamente contenido digital en un brazo en movimiento y lo usamos como un sensor táctil para detectar y rastrear interacciones táctiles con el cuerpo. El objetivo de TACTUM era crear una herramienta de modelado gestual que no dependiera de las interacciones en el aire. En cambio, usamos el controlador para detectar cómo una persona toca, pellizca o pincha su brazo, y usamos estos gestos para modificar la geometría interactiva en nuestro entorno de modelado.
¿Qué herramientas o recursos utilizó para construir TACTUM ?
Usamos la API de Leap Motion Java para crear nuestro seguimiento esquelético y detección de gestos táctiles, usamos Processing y la biblioteca Toxiclibs para crear nuestro entorno de modelado y geometría interactiva, y usamos OpenCV para calibrar nuestro mapeo de proyección.
Fuente: https://blog.leapmotion.com/
תגובות