La falla de la tecnología deepfake está aumentando las preocupaciones de que la IA podría comenzar a distorsionar nuestro sentido de la realidad compartida. Una nueva investigación sugiere que las caras sintetizadas por IA no solo nos engañan para que pensemos que son personas reales, sino que en realidad confiamos más en ellas que en nuestros compañeros humanos.
En 2018, Nvidia asombró al mundo con una IA que podía producir fotos ultrarrealistas de personas que no existen. Sus investigadores se basaron en un tipo de algoritmo conocido como red adversarial generativa (GAN), que se enfrenta a dos redes neuronales entre sí, una tratando de detectar falsificaciones y la otra tratando de generar otras más convincentes. Con suficiente tiempo, GANS puede generar falsificaciones particularmente buenas.
Desde entonces, las capacidades mejoradas con dificultad, con algunas sugerencias preocupantes: permitir que los estafadores engañen a las personas , hacer posible que las personas se empalmen en películas pornográficas sin su consentimiento y socavar la confianza en los medios en línea. Si bien es posible usar la propia IA para detectar falsificaciones profundas, el hecho de que las empresas tecnológicas no moderen de manera efectiva el material, mucho menos simplificar sugiere que esto no será una panacea.
Eso significa que la pregunta más relevante es si los humanos pueden detectar la diferencia y, lo que es más importante, cómo se relacionan con las falsificaciones profundas. Los resultados de un nuevo en PNAS no son prometedores: los investigadores enfriaron que la capacidad de las personas para detectar falsificaciones no era mejor que una conjetura aleatoria y, de hecho, calificaron las caras inventadas como más confiables que las reales.
“ Nuestra evaluación del fotorrealismo de rostros sintetizados por IA indica que los motores de síntesis han atravesado el valle inquietante y son capaces de crear rostros que son indistinguibles y más confiables que los rostros reales”, escribieron los autores .
Para probar las reacciones a los rostros falsos, los investigadores utilizaron una versión actualizada de GAN de Nvidia para generar 400 de ellos , con una división de género igual y 100 rostros de cada uno de los cuatro grupos étnicos: negro, caucásico, asiático oriental y asiático del sur. Compararon cada uno de estos con caras reales extraídas de la base de datos que se usó originalmente para entrenar la GAN, que había sido juzgada como similar por una red neuronal diferente .
Luego reclutaron a 315 participantes de la plataforma de crowdsourcing de Amazon Mechanical Turk. Se pidió a cada persona que juzgara 128 rostros del conjunto de datos combinados y decidiera si eran falsos o no. Lograron una tasa de precisión de solo el 48 por ciento, en realidad peor que el 50 por ciento que debería obtener de una suposición aleatoria.
Los deepfakes a menudo tienen defectos y fallos característicos que pueden ayudar a las personas a identificarlos. Entonces, los investigadores llevaron a cabo un segundo experimento con otros 219 participantes en el que les dieron una capacitación básica sobre qué buscar antes de que juzgaran la misma cantidad de caras. Su desempeño mejoró solo levemente, al 59 por ciento.
En un experimento final, el equipo decidió ver si las reacciones viscerales más inmediatas a las caras podrían dar a las personas mejores pistas. Decidió ver si la confiabilidad, algo que normalmente se vio obligado en una fracción de segundo en función de funciones difíciles de precisar, podría ayudar a las personas a realizar mejores llamadas. Pero cuando consiguieron que otros 223 participantes calificaron la confiabilidad de 128 rostros, encontraron que las personas realmente calificaron a los falsos como un 8 por ciento más confiables, una diferencia pequeña pero estadísticamente significativa.
Dados los usos nefastos que se les puede dar a los deepfakes, ese es un hallazgo preocupante. Los investigadores sugieren que parte de la razón por la cual las caras falsas tienen una calificación más alta es porque tienden a parecer más a las caras promedio, en las investigaciones anteriores han encontrado que las personas tienden a confiar más. Esto surgió al observar las cuatro caras menos confiables, que eran todas reales, y las tres más confiables, que eran todas falsas.
Los investigadores dicen que sus evidencias demuestran que aquellos que desarrollan la tecnología subyacente detrás de las falsificaciones profundas deben pensar mucho sobre lo que están haciendo. Un primer paso importante es preguntarse si los beneficios de la tecnología superan los riesgos. La industria también debería considerar la creación de salvaguardas, que podrían incluir cosas como obtener generadores falsos profundos para agregar marcas de agua a su producción.
Dado que es la democratización del acceso a esta poderosa tecnología lo que representa la amenaza más importante, también alentamos a que se reconsidere el enfoque a menudo de laissez-faire para el público y la liberación ilimitada de código para que cualquiera pueda incorporarlo a cualquier aplicación ”, escriben los autores. o te.
Desafortunadamente, sin embargo, podría ser demasiado tarde para eso. Los disponibles públicamente ya son capaces de producir falsificaciones profundas muy convincentes, y parece poco probable que los modelos podamos volver a poner al genio en la botella.
Fuente:
Gent, E. (2022g, 21 de febrero). La gente confía más en las caras falsas generadas por IA que en las reales, según un estudio . Centro de singularidad. Recuperado el 22 de febrero de 2022, de https://singularityhub.com/2022/02/21/people-trust-deepfake-faces-more-than-real-ones-study-finds/