Volver

Detección de Suplantación de Identidad en Algoritmos de Reconocimiento Facial

Todo sistema de seguridad está expuesto a ataques realizados por personas malintencionadas con el fin de apropiarse de la información que ellos protegen. Dependiendo de la respuesta que dichos sistemas brinden, es posible evaluar el nivel de seguridad con el que cuentan. En este artículo se resumen algunos tipos de ataques utilizados para realizar fraudes de identidad facial, algunos de los métodos para contrarrestarlos por medio de enfoques de inteligencia artificial y los posibles retos que dichos algoritmos deben enfrentar.

Los sistemas de seguridad deben tener la capacidad de responder ante los posibles ataques que personas malintencionadas realizan con el fin de apropiarse de los contenidos que dichos sistemas protegen. En el caso de los sistemas biométricos resulta imperativo resguardar la información, ya que un uso indebido de los datos puede generar graves consecuencias para los usuarios; por ejemplo, la alteración de cuentas bancarias, usurpación de servicios y accesos, entre otros. Para este fin, en el artículo Inteligencia artificial y su impacto en la verificación de identidad [1], mencionamos que los sistemas deben incluir cada vez más nuevas estrategias y niveles de seguridad entre los que destacamos la verificación documental, el reconocimiento facial, pruebas de rostro vivo, el reconocimiento de huellas digitales y el análisis de fuentes abiertas. En este artículo, vamos a analizar diferentes ataques comúnmente utilizados para vulnerar la seguridad de los sistemas de reconocimiento facial, así como algunos de los métodos de la inteligencia artificial para contrarrestarlos.

Ataques de suplantación de identidad a través del rostro

Los métodos de suplantación de identidad consisten en utilizar rasgos artificiales para reemplazar a un usuario o crear una nueva identidad en el sistema [2].  Estos varían en complejidad, costo y cantidad de esfuerzo y habilidad utilizados en su construcción [3], y pueden ocurrir en i) el momento de verificación, es decir, durante la autenticación presentando al sensor, en este caso la cámara, una copia falsa del usuario, ii) en el momento de identificación o enrolamiento en el cual se crea una cuenta de usuario que será luego utilizado por una persona o personas diferentes a las del enrolamiento y finalmente, iii) crear una nueva identidad para evitar ser detectado [2]. Los ataques de suplantación por rostro más comunes se pueden dividir en dos grupos, i) utilizando superficies 2D, por ejemplo, fotos o videos, y ii) utilizando volúmenes 3D, por ejemplo, el uso de máscaras.

  • Ataques por medio de fotos: Constituye uno de los ataques más simples y se realiza presentando al sistema de seguridad una foto del usuario real [2]. En los tiempos actuales obtener una imagen de las personas resulta extremadamente sencillo debido al uso que se tiene de las redes sociales, ya que son los mismos usuarios lo que promulgan dicha información. Para realizar el ataque basta con imprimir la foto o proyectarla en alguna pantalla o dispositivo digital.
  • Ataques por medio de vídeos: Estos ataques representan una versión de los ataques por medio de fotografías, y consisten en reproducir un vídeo del usuario real por medio de un dispositivo digital; de esta forma es posible reproducir dinámicas y movimientos propios de los individuos [2].
  • Ataques por medio de máscaras: Este es un ataque más sofisticado en el que se utiliza una máscara 3D del rostro del cliente. Dependiendo de la calidad de este las dificultades de detectar el fraude aumenta considerablemente ya que la estructura completa del rostro es imitada [2]. Por ahora el costo de realizar una máscara de calidad hace que este tipo de ataques no sea tan utilizado como los dos anteriores, sin embargo, con el aumento y avance tecnológico de la impresión 3D es posible que la brecha se cierre en los próximos años.

Otros ataques que se pueden considerar son los generados por cirugías plásticas, los cuales son usualmente utilizados para evitar la identificación de un individuo, o los ataques generados por gemelos idénticos en los cuales uno de los gemelos adopta la identidad del otro [2]. Sin embargo, la forma de contrarrestar este tipo de ataques es aún motivo de estudio, teniendo en cuenta el nivel de dificultad en la detección. En el primer caso el rostro puede tener alteraciones significativas que evitan el reconocimiento, mientras en el segundo caso las diferencias entre los rostros de los individuos no son lo suficientemente amplias para lograr la identificación. En ambos casos es posible incluso engañar el sistema visual humano.

Métodos de Inteligencia Artificial para contrarrestar ataques de suplantación

Los métodos para contrarrestar estos ataques se denominan Anti-spoofing y son técnicas capaces de distinguir automáticamente entre una biometría real y una sintética. Estos métodos también se conocen con el término de detección de vida. Además, constituyen retos de alta complejidad en ingeniería ya que no deben ser invasivos, deben ser amigables con el usuario, rápidos, de bajo costo y buen desempeño [2]. Existen diferentes métodos utilizados para la detección de fraude en sistemas de verificación facial, la mayoría de ellos constituyen características pre-programadas, sin embargo, con la evolución reciente del aprendizaje profundo (Deep Learning), cada vez hay más desarrollos que extraen características de forma automática, a partir de los datos de entrada [3]. Es clave aclarar que no existe un método perfecto para enfrentar los métodos fraudulentos, por lo general una combinación de diferentes enfoques es lo que permite crear sistemas robustos. De acuerdo con Galbally et al [2]. es posible clasificar los métodos de Anti-spoofing en los siguientes grupos:

  • Anti-spoofing por características dinámicas: La entrada para este tipo de algoritmos corresponde a secuencias de vídeo; y se basan en la detección de micro-movimientos realizados por parte del usuario. Entre estos se pueden destacar las expresiones como pestañar, asentir, sonreír, observar en diferentes direcciones, entre otros [4]. Estos movimientos son particularmente útiles cuando se intenta contrarrestar los ataques por fotos estáticas, sin embargo, cuando se trata de ataques de video su eficacidad disminuye. Una posible solución para este problema constituye la reconstrucción 3D a partir de imágenes 2D en diferentes posiciones o utilizando versiones modificadas de algoritmos de textura como los patrones locales binarios (LBP) [5] para detectar información temporal en los vídeos, entre otros. Adicionalmente, estas técnicas no permiten solucionar ataques de replay, o repetición, en los cuales un video pregrabado se inyecta en la comunicación. Este tipo de ataques solo se solucionan si existe una interacción en tiempo real.
  • Ani-spoofing por características estáticas: Estos enfoques se utilizan cuando no es posible conseguir una secuencia de vídeo y, únicamente, se cuenta con una imagen 2D o cuando se desea hacer un análisis por cuadro por cuadro del vídeo. Este tipo de métodos se enfocan principalmente en características de reconocimiento de textura facial (LBP [5], Haralick [6], entre otros).
  • Anti-spoofing y aprendizaje profundo (Deep Learning): El aprendizaje profundo es una de las técnicas más utilizadas en la actualidad en el campo de la inteligencia artificial. Particularmente, en la detección de fraude en sistemas de identidad facial, algunos estudios utilizan, por ejemplo, LBP como algoritmo de preprocesamiento y entrada a una red convolucional [7]. Por otra parte, Liu etal [8]. proponen un sistema que utiliza una red convolucional en conjunto de una red recurrente. A diferencia de otros métodos propuestos anteriormente, deja de ver el problema de Anti-spoofing como un problema de clasificación binario (vivo vs. fraude) y añade: i) información de profundidad (una cara real tendría, por ejemplo, la nariz más cerca de la cámara, mientras que una fotografía o video presentaría todas las características a la misma distancia) y ii) medidas de frecuencia cardiaca.
  • Anti-spoofing a nivel de sensor: Aunque este es un tema reciente de investigación, existen algunas investigaciones que utilizan imágenes infrarrojas para detectar los ataques, especialmente con los relacionados con gemelos [2]. Otros estudios incluyen imágenes térmicas, las cuales obtienen la firma térmica de los individuos y han probado ser resistentes ante ataques con cirugías plásticas [3]. Este tipo de imágenes tienen la ventaja de ser invariantes a cambios de luminosidad o del ambiente [3], por lo que tienden a ser más robustas.

Maria Ximena Bastidas Rodríguez.

Conclusiones

La detección de fraude y de ataques a los sistemas de reconocimiento facial constituyen un campo activo de investigación. Cada vez es posible encontrar tecnología cuyo uso indebido permite hacer ataques cada vez más sofisticados y, por lo tanto, difíciles de detectar. En la actualidad, los ataques más comunes constituyen a los realizados por medio de fotografías de alta calidad, videos o máscaras, los cuales pueden ser adquiridos y adaptados fácilmente con la información que los mismos usuarios actualizan en redes sociales.  Desde el campo de la visión por computador, muchos métodos son utilizados para contrarrestar dichos ataques. Entre estos se pueden destacar características de movimiento o de textura y, más recientemente, los algoritmos que obtienen características automáticas a partir de los datos de entrada. Finalmente, podemos decir que en ReconoSerID trabajamos todos los días en robustecer nuestros sistemas de seguridad implementando y desarrollando algoritmos que incrementen la confianza de nuestros usuarios.

Bibliografía

[1]       R. Manrique, «Inteligencia artificial y su impacto en la verificación de identidad,» ReconoSer ID, Bogotá, Colombia, 2020.

[2]       J. G. a. S. M. a. J. Fierre, «Biometric Antispoofing Methods: A Survey in Face Recognition,» IEEE Access, vol. 2, pp. 1530-1552, 2015.

[3]       N. E. A. A. a. S. M. Ivana Chingovska, «Face Recognition Systems Under Spoofing Attacks,» de Face Recognition Across the Imaging Spectrum, Bourlai T. (eds), Springer, 2016.

[4]       M. Gavrilescu, «Study on using individual differences in facial expressions for a face recognition system immune to spoofing attacks,» IET Biometrics, 2016.

[5]       L. L. a. X. F. a. Z. X. a. X. J. a. A. Hadid, «Face spoofing detection with local binary pattern network,» Journal of Visual Communication and Image Representation, 2018.

[6]       A. A. a. R. S. a. M. Vatsa, «Face anti-spoofing using Haralick features,» IEEE 8th International Conference on Biometrics Theory, Applications and Systems (BTAS), 2016.

[7]       G. B. d. S. a. D. F. d. S. S. a. R. G. Pires, «Deep Texture Features for Robust Face Spoofing Detection,» TRANSACTIONS ON CIRCUITS AND SYSTEMS, 2017.

[8]       Y. L. a. A. J. a. X. Liu, «Learning Deep Models for Face Anti-Spoofing: Binary or Auxiliary Supervision,» CVPR, 2018.

4 comments

  • La implementación de éstas nuevas herramientas tecnológicas, podrían mejorar la seguridad del sistema financiero que en la actualidad es bastante frágil

  • Me recomiendas borrar las fotografías en las redes sociales o ya es demasiado tarde
    La huella digital es segura
    La utilización de pagos PSE HUBER RAPPI son riesgosas

    1. Hola Paulo, la idea no es borrar todo el contenido que tengas en redes sociales, de hecho lo que te recomendamos es ser más consciente de qué y como compartes tu información, no solo en fuentes abiertas como las redes sociales, si no en todos tus movimientos digitales, transacciones y vinculaciones a diferentes plataformas. Realizando buenas prácticas como no conectarte desde redes desconocidas o públicas, verificar los certificados de seguridad de los sitios y apps a los que ingresas y por los cuales compartes tu información. Todos las validaciones biométricas tienen niveles de seguridad, sin embargo lo recomendable es tener diferentes fuentes de reconocimiento para aumentar estos niveles. ¡Esperamos haber resuelto tus dudas!

Comments are closed.