Volver

DeepFakes, autenticación facial y pruebas de detección de vida

Los sistemas de validación facial deben enfrentarse a diferentes retos con el objetivo de ser robustos ante ataques malintencionados. Las pruebas de detección de vida se convierten entonces en parte fundamental de su desarrollo. Actualmente, uno de los métodos de suplantación de identidad que han generado mayor interés son los DeepFakes debido a su habilidad de crear contenido nuevo por medio de algoritmos de inteligencia artificial. En este documento, se discute sobre la importancia de los métodos de detección de vida y la necesidad de preparase ante posibles ataques utilizando nuevos algoritmos.

Cuando se habla de inteligencia artificial se tiende a pensar que es un tema reciente, y cuyo desarrollo se ha dado en los últimos años. No obstante, desde hace 70 años, Alan Turing, considerado uno de los padres de inteligencia artificial, diseñó el famoso test de Turing, el cual busca, en términos generales, responder la pregunta ¿Pueden las máquinas pensar?. Esta pregunta conllevaría entonces, y tal como Turing lo menciona en su artículo [1], a definir las palabras ‘máquina’ y ‘pensar’, que pueden tener connotaciones diferentes para cada persona. Con el fin de evitar interpretaciones subjetivas, Turing prefiere contestar una pregunta relativamente similar y expresada con palabras menos ambiguas: ¿Puede un computador digital imitar el desempeño de una persona?. A esto lo llama ‘El juego de imitación’ (The imitation game). Actualmente, y tal como Turing lo predijo, es relativamente sencillo encontrar diferentes aplicaciones en los que las máquinas actúan de forma similar a como lo haría una persona. En los análisis biométricos, en la prueba de detección de vida se busca que el computador sea capaz de determinar si se está interactuando con una persona físicamente presente o sí, por el contrario, se trata de un ataque de suplantación realizado por un objeto inanimado. 

Anteriormente, hablamos sobre los métodos de suplantación de identidad utilizando reconocimiento facial y algunos algoritmos para contrarrestarlos [2]. En este artículo, nos enfocamos en definir conceptos sobre los procesos de detección de vida y su importancia en la seguridad informática, además, en la generación de imágenes sintéticas por medio de aprendizaje profundo, también denominadas DeepFakes, un tema de gran interés actual y que ha generado diferentes sensaciones respecto a la suplantación de identidad. 

Autenticación facial para proteger tus datos personales 

Los sistemas de autenticación facial o comparación 1:1, obtienen imágenes con permisos de los usuarios, con el fin de identificar si la persona es quien dice ser. Generalmente, se realiza como beneficio hacia el usuario buscando proteger su identidad, por ejemplo, en sistemas de acceso. 

Uno de los sistemas más utilizados en el control de acceso son las contraseñas, estas intentan evitar fraude y proteger a los usuarios y sus datos personales. No obstante, es claro que con el avance tecnológico y los ataques que esto supone, este tipo de tecnología se ha vuelto obsoleta y un dolor de cabeza para los usuarios. Cada cuenta de internet solicita tener contraseñas cada vez más complicadas, preferiblemente que no sean reusadas y que se cambien mínimo cada 6 meses. Esto se ha  convertido en una carga inmanejable, razón por la que los usuarios utilizan la misma clave en todos los sitios de internet y, por ende, terminan siendo los responsables de caer en ataques malintencionados. Por otra parte, los sistemas de validación facial, no se basan en mantener secreta la información, ya que el acceso se concede con la biometría de los usuarios, la cuál es públicamente conocida. Como lo menciona Dorothy Denning [3], lo que hace exitoso un sistema basado en biometría no es el mantener en secreto la llave de acceso sino la habilidad del sistema para determinar que los datos son proporcionados por una persona físicamente presente, en otras palabras, la capacidad del sistema para detectar los posibles ataques de suplantación. 

DEEPFAKE ¿Qué son y cómo afectan la validación de identidad? 

DeepFake es un término referente a la generación de imágenes falsas o sintéticas utilizando técnicas de aprendizaje profundo (Deep Learning). En el reconocimiento facial, esta técnica se popularizó y creó un gran impacto debido a que son utilizados para suplantar generalmente personas famosas, con el fin de crear contenidos falsos de las mismas. Uno de los videos más populares y que se convirtió en tendencia en internet, es el video en el que al parecer el expresidente Obama insultando al presidente Donald Trump, acción que nunca ocurrió, por lo menos, no en público y bajo las condiciones que muestra el video. 

Frente a esta situación, muchas personas se preguntan si esta tecnología puede ser utilizada para suplantar la identidad y si pueden constituir una amenaza para la tecnología de validación facial. La respuesta corta es no aún. Esto principalmente, porque este tipo de tecnología todavía deja ciertos rastros que permiten entrever que se trata de una situación falsa. En el ejemplo anterior, fue necesario el uso de una gran cantidad de videos y capacidad computacional para lograrlo, y cabe anotar, que resultados similares pueden ser logrados con editores de video tradicionales teniendo acceso a la misma cantidad de datos. 

Fuente: Buzzfeed

Para entender un poco más cómo funciona esta tecnología, es necesario revisar el concepto de las redes generativas antagónicas (GAN por sus siglas en inglés). Propuestas en 2014 por Ian Goodfellow [4], estas se encuentran conformadas por dos arquitecturas de aprendizaje profundo que compiten entre sí para obtener resultados satisfactorios. A la primera arquitectura se le conoce como generador, y como su nombre lo indica, es la encargada de generar las imágenes sintéticas, y su objetivo es lograr que estas sean lo más parecidas a la tarea solicitada, en este caso un rostro humano; A la segunda arquitectura se le denomina el discriminador, y su objetivo es entonces distinguir entre las imágenes reales y las generadas previamente. En este sentido, un buen desempeño del generador implicaría que el discriminador no pueda cumplir su objetivo, y viceversa. Como todo sistema de aprendizaje profundo, la cantidad de datos con los que se haga el entrenamiento es fundamental para obtener buenos resultados y es por esto, que la mayoría de deepfakes se realizan con personajes públicos. Cabe aclarar que las redes generativas no solamente se utilizan para crear ataques de suplantación sino que también han permitido obtener avances representativos en varios campos como en la conducción de vehículos autónomos [5] o en el análisis de imágenes médicas [6], entre otros. 

Pruebas de detección de vida vs DeepFakes: 

Los vídeos que utilizan DeepFakes no han representado una amenaza concreta todavía, pero es claro que con un mejoramiento de la tecnología esto podría cambiar en un futuro próximo. En el caso de las señales de audio, el uso de estos métodos llevó a generar una estafa telefónica por 200.000 dólares el año pasado [7].  Es importante desarrollar sistemas capaces de detectar este tipo de fraudes. Uno de los esfuerzos más recientes para contrarrestar estos ataques es el reto público de detección de DeepFakes [8] creado por Facebook en alianza de Microsoft y varias Universidades del mundo. Para este reto se suministraron 115.000 videos y se ofreció un premio de $ 1 millón de dólares para ser distribuido entre los ganadores. Los modelos resultantes se validaron con 10.000 vídeos desconocidos para los participantes. El modelo ganador, obtuvo un 82.56 % de exactitud en la clasificación de los videos conocidos, pero cuando se evaluaron los modelos sobre la base de datos desconocida los porcentajes cambiaron significativamente y el mejor modelo obtuvo un 65.18 % de exactitud; lo que revela que aún se necesitan hacer esfuerzos en ese sentido constituyéndose en un campo de investigación activo. Finalmente, una característica que llamó la atención de los organizadores es que ninguno de los modelos presentados utilizó métodos forenses tradicionales lo que permite suponer dos hipótesis: o estos modelos no son útiles para este tipo de tareas o son desconocidos para los investigadores que entraron al concurso. 

Ante el desarrollo de estas nuevas tecnologías también toma relevancia la responsabilidad que tienen los usuarios con el manejo de las redes sociales y el análisis de las fuentes de información. Por lo que se recomienda tener un comportamiento crítico ante lo que se ve y se comparte en internet. 

Conclusiones 

Los sistemas de autenticación facial más los sistemas de detección de vida constituyen herramientas útiles para proteger los datos de los usuarios. Una amenaza latente son los DeepFakes, que a pesar de ser procesos en desarrollo han incrementado los riesgos de suplantación, no solo con la utilización de imágenes, sino también con la inclusión de vídeo y audio, tomando más características de las personas. Es importante tener en cuenta que a medida que avanza la tecnología los retos de seguridad aumentan, pero es alentador saber que la comunidad científica está tomando medidas para contrarrestar sus efectos.  

Maria Ximena Bastidas Rodríguez. 

Bibliografía

[1] A. Turing, «COMPUTING MACHINERY AND INTELLIGENCE,» Mind, vol. 59, p. 433–460, 1950.  [2] M. X. Bastidas, «Detección de Suplantación de Identidad en Algoritmos de Reconocimiento Facial,» ReconoSER ID, 2020.  [3] D. E. Denning, «Why I love biometrics, It’s “liveness” not secrecy, that counts,» infosecurity-magazine, 2001.  [4] I. J. Goodfellow, J. Pouget-Abadie, M. Mirza, B. Xu, D. Warde-Farley, S. Ozair, A. Courville y Y. Bengio, «Generative Adversarial Nets,» NIPS, 2014.  [5] S. O. Patil, V. S. Variyar. y K. P. Soman, «Speed Bump Segmentation an Application of Conditional Generative Adversarial Network for Self-driving Vehicles,» Fourth International Conference on Computing Methodologies and Communication (ICCMC), 2020.  [6] X. Yi, E. Walia y PaulBabyn, «Generative adversarial network in medical imaging: A review,» Medical Image ANalysis, 2019.  [7] «Los ‘deepfakes’ de audio se usan para realizar estafas telefónicas,» la vanguardia, 2019.  [8] C. C. Ferre, B. Dolhansky, B. Pflaum, J. Bitton, J. Pan y J. Lu, «Creating a data set and a challenge for deepfakes,» Facebook artificial intelligence, 12 Junio 2020. 

3 comments

Comments are closed.