Investigadores demuestran que es posible vulnerar lectores de huella digital mediante huellas maestras

Demuestran que es posible vulnerar lectores de huella digital mediante huellas maestras

Investigadores publicaron recientemente un trabajo en el que demuestran que es posible vulnerar un sistema de reconocimiento de huella digital mediante ataques de diccionario basados en el uso de huellas maestras.

Investigadores publicaron recientemente un trabajo en el que demuestran que es posible vulnerar un sistema de reconocimiento de huella digital mediante ataques de diccionario basados en el uso de huellas maestras.

Las huellas maestras son huellas dactilares reales o sintéticas que de manera fortuita coinciden con una gran cantidad de huellas dactilares de personas reales. En este trabajo, el equipo compuesto por investigadores de la Universidad de Nueva York (NYU) y de la Universidad Estatal de Michigan (MSU) creó imágenes de huellas maestras mediante un método que se conoce como Latent variable model y el uso de la tecnología machine learning. Estas huellas maestras, denominadas “DeepMasterPrints” presentan una efectividad del 20% y permiten recrear huellas utilizadas en sistemas de reconocimiento que pueden ser explotadas a través de un ataque similar a los “ataques de diccionario”.

En un paper presentado en una conferencia de seguridad biométrica (BTAS 2018), los especialistas explican que para crear DeepMasterPrint los especialistas tuvieron en cuenta dos cosas. Por un lado, que por razones ergonómicas muchas veces los sensores de huella digital son muy pequeños (como en los smartphones), lo que hace que funcionen utilizando una porción de la imagen de la huella dactilar de un usuario. Por lo tanto, dado que la identificación de una identidad mediante pequeñas porciones de huella digital no es una tarea sencilla como podría ser ante la lectura de una huella digital completa, la posibilidad de que una porción de una huella dactilar de un dedo no coincida con otra porción de huella de un dedo distinto, es alta. El investigador Aditi Roy tuvo en cuenta esto y presentó el concepto de huellas maestras, que son un conjunto de huellas digitales reales o sintéticas que de manera fortuita pueden coincidir con un amplio número de otras huellas.

Lo segundo que tuvieron en cuenta es que algunas huellas dactilares presentan características comunes entre sí. Lo que significa que una falsa huella que contenga muchas características comunes tiene más probabilidades reales de coincidir con otras huellas dactilares.

A partir de aquí, los investigadores utilizaron un tipo de algoritmos de inteligencia artificial llamados “red generativa antagónica” para crear de manera artificial nuevas huellas digitales que puedan coincidir con cuantas huellas digitales parciales sea posible. De esta manera, lograron desarrollar una librería de huellas digitales artificiales que funcionan como llaves maestras para un sistema de identificación biométrico en particular. Además, no es necesario contar con una muestra de huella digital perteneciente a un individuo específico, sino que puede ser ejecutado contra sujetos anónimos y aun así tener cierto margen de éxito.

Si bien es muy difícil que un atacante utilice algo similar a DeepMasterPrint debido a que se requiere mucho trabajo para optimizar la inteligencia artificial para un sistema específico, ya que cada sistema es diferente, es un ejemplo de lo que podría pasar con el paso del tiempo y algo a lo que se deberá estar atento. Algo similar se vio este año en la conferencia de seguridad Black Hat, cuando investigadores de IBM demostraron a través de una prueba de concepto que era posible desarrollar un malware que utilice inteligencia artificial para realizar ataques basados en el reconocimiento facial.

Discusión