La proliferación de la tecnología deepfake está generando preocupaciones de que la IA podría comenzar a distorsionar nuestro sentido de la realidad compartida. Una nueva investigación sugiere que las caras sintetizadas por IA no solo nos engañan para que pensemos que son personas reales, sino que en realidad confiamos más en ellas que en nuestros compañeros humanos.
En 2018, Nvidia asombró al mundo con una IA que podía producir fotos ultrarrealistas de personas que no existen. Sus investigadores se basaron en un tipo de algoritmo conocido como red adversarial generativa (GAN), que enfrenta a dos redes neuronales entre sí, una tratando de detectar falsificaciones y la otra tratando de generar otras más convincentes. Con suficiente tiempo, GANS puede generar falsificaciones notablemente buenas.
Desde entonces, las capacidades han mejorado considerablemente, con algunas implicaciones preocupantes: permitir que los estafadores engañen a las personas , hacer posible que las personas se empalmen en películas pornográficas sin su consentimiento y socavar la confianza en los medios en línea. Si bien es posible usar la propia IA para detectar falsificaciones profundas, el hecho de que las empresas tecnológicas no moderen de manera efectiva material mucho menos complicado sugiere que esto no será una panacea.
Eso significa que la pregunta más pertinente es si los humanos pueden detectar la diferencia y, lo que es más importante, cómo se relacionan con las falsificaciones profundas. Los resultados de un nuevo estudio en PNAS no son prometedores: los investigadores descubrieron que la capacidad de las personas para detectar falsificaciones no era mejor que una conjetura aleatoria y, de hecho, calificaron las caras inventadas como más confiables que las reales.
“ Nuestra evaluación del fotorrealismo de rostros sintetizados por IA indica que los motores de síntesis han atravesado el valle inquietante y son capaces de crear rostros que son indistinguibles y más confiables que los rostros reales”, escribieron los autores .
Para probar las reacciones a los rostros falsos, los investigadores utilizaron una versión actualizada de GAN de Nvidia para generar 400 de ellos , con una división de género igual y 100 rostros de cada uno de los cuatro grupos étnicos: negro, caucásico, asiático oriental y asiático del sur. Compararon cada uno de estos con caras reales extraídas de la base de datos que se usó originalmente para entrenar la GAN, que había sido juzgada como similar por una red neuronal diferente .
Luego reclutaron a 315 participantes de la plataforma de crowdsourcing de Amazon Mechanical Turk. Se pidió a cada persona que juzgara 128 rostros del conjunto de datos combinados y decidiera si eran falsos o no. Lograron una tasa de precisión de solo el 48 por ciento, en realidad peor que el 50 por ciento que debería obtener de una suposición aleatoria.
Los deepfakes a menudo tienen defectos y fallos característicos que pueden ayudar a las personas a identificarlos. Entonces, los investigadores llevaron a cabo un segundo experimento con otros 219 participantes en el que les dieron una capacitación básica sobre qué buscar antes de que juzgaran la misma cantidad de caras. Su desempeño mejoró solo levemente, al 59 por ciento.
En un experimento final, el equipo decidió ver si las reacciones viscerales más inmediatas a las caras podrían dar a las personas mejores pistas. Decidieron ver si la confiabilidad, algo que normalmente decidimos en una fracción de segundo en función de funciones difíciles de precisar, podría ayudar a las personas a realizar mejores llamadas. Pero cuando consiguieron que otros 223 participantes calificaran la confiabilidad de 128 rostros, encontraron que las personas realmente calificaron a los falsos como un 8 por ciento más confiables, una diferencia pequeña pero estadísticamente significativa.
Dados los usos nefastos que se les pueden dar a los deepfakes, ese es un hallazgo preocupante. Los investigadores sugieren que parte de la razón por la cual las caras falsas tienen una calificación más alta es porque tienden a parecerse más a las caras promedio, en las que investigaciones anteriores han encontrado que las personas tienden a confiar más. Esto surgió al observar las cuatro caras menos confiables, que eran todas reales, y las tres más confiables, que eran todas falsas.
Los investigadores dicen que sus hallazgos sugieren que aquellos que desarrollan la tecnología subyacente detrás de las falsificaciones profundas deben pensar mucho sobre lo que están haciendo. Un primer paso importante es preguntarse si los beneficios de la tecnología superan los riesgos. La industria también debería considerar incorporar salvaguardas, que podrían incluir cosas como obtener generadores falsos profundos para agregar marcas de agua a su producción.
“ Dado que es la democratización del acceso a esta poderosa tecnología lo que plantea la amenaza más importante, también alentamos a que se reconsidere el enfoque a menudo de laissez-faire para el público y la liberación ilimitada de código para que cualquiera lo incorpore a cualquier aplicación”, escriben los autores. o te.
Desafortunadamente, sin embargo, podría ser demasiado tarde para eso. Los modelos disponibles públicamente ya son capaces de producir falsificaciones profundas muy convincentes, y parece poco probable que podamos volver a poner al genio en la botella.
Fuentes
singularityhub.com
Comments