Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

Crean huellas dactilares “maestras” para burlar seguridad de los teléfonos

Usando la misma idea que se realiza para crear llaves maestras, pero aplicadas a la identificación biométrica. El porcentaje de éxito es interesante.

Hoy en día las Inteligencia Artificial (IA) puede crear huellas dactilares falsas que trabajan en los teléfonos como si fuesen llaves maestras que burlan a los sensores biométricos. De acuerdo a los investigadores que han desarrollado esta técnica, el ataque puede ser lanzado contra individuos con “alguna probabilidad de éxito”.

¿Apple en crisis? Ordenan reducir producción de todos los nuevos iPhone

La identificación biométrica podría pensarse como un sistema de identificación perfecto o casi perfecto. Los tipos de identificación están basados en los valores individuales que presentan las personas, como el iris, las huellas digitales o las venas en una mano. En años recientes, sin embargo, los investigadores han demostrado que es posible burlar a la mayoría de los esquemas de identificación biométrica.

Para burlar un sistema biométrico se requiere de hacer un rostro falso o un patrón de venas de un dedo que coincida que un individuo en particular. En un artículo que apareció en arXiv, investigadores de la Universidad de Nueva York junto con sus colegas de la Universidad de Michigan, detallaron cómo entrenaron un algoritmo de aprendizaje de máquinas para generar huellas digitales falsas que pueden servir para un “gran número” de huellas dactilares reales guardadas en las bases de datos.

Bautizado como “DeepMasterPrints“, estas huellas dactilares generadas artificialmente son similares a las que se usan en las cerraduras para crear llaves maestras. Para crearlas, los investigadores alimentaron una red neuronal artificial con huellas de unos 6 mil individuos, y aunque los investigadores no son los primeros en considerar la creación de huellas digitales maestras, sí fueron los primeros en usar algoritmos de aprendizaje de máquinas para crear huellas digitales maestras.

Un “generador” de la red neuronal entonces analiza las imágenes de las huellas dactilares para así producir las suyas. Estas huellas sintéticas se alimentan a un “discriminador” de la red neuronal para determinar si son genuinas o falsas. Si determinan que son falsas, el generador hace una modificación y prueba de nuevo. Este proceso se repite miles de veces hasta que el generador es capaz de burlar al discriminador, cosa que se conoce como una red generativa adversarial (GAN por sus siglas en inglés).

Las huellas generadas por los investigadores se diseñaron específicamente para atacar los tipos de sensores de huellas digitales encontrados en los teléfonos modernos. Estos escáneres capacitivos de huellas digitales usualmente toman una parte de la huella digital cuando las personas ponen el dedo en el sensor. Esto se hace porque es muy poco práctico el tener que poner el dedo en un sensor siempre en la misma forma cada vez que se trata de leer la huella digital. La conveniencia de leer solamente una parte de la huella tiene como costo una menor seguridad, que es lo que se convierte en la ventaja al usar la IA.

Los investigadores usaron dos tipos de huellas digitales para entrenar las redes neuronales. Un conjunto fue el de huellas digitales impresas tradicionales, adquiridas vía un rodillo de tinta en papel. El otro conjunto se generó usando sensores capacitivos que se usan para capturar digitalmente las huellas digitales. En promedio el sistema fue mejor burlando las huellas digitales capacitivas que las que se adquirieron a través de tinta y papel.

Hay tres niveles de seguridad definidos a través de lo que se llama un resultado falso, o la probabilidad de que el sensor identifique de forma incorrecta una huella digital como la que espera la identificación biométrica. El nivel más alto de seguridad identifica incorrectamente una huella en un 0.01% de las veces, mientras que la seguridad intermedia falla en 0.1% y la más débil falla en un 1%.

En el nivel más bajo, los investigadores fueron capaces de burlar al sensor 76% de las veces para las huellas en formato digital. Y aunque los números son impresionantes, es poco probable que los sistemas de los sensores operen en tan bajo nivel de seguridad. En la seguridad intermedia los investigadores consideraron que era una “opción realista de seguridad”. En este caso solamente pudieron burlar al sistema 22% de las veces. En el nivel de seguridad más alto, hallaron que sus huellas digitales maestras “no fueron muy buenas”, pues el sensor fue burlado apenas el 1.2% de las veces.

Así pues, aunque los resultados no son definitivos, es claro que las redes neuronales ahora están atacando problemas cuya complejidad parecía ser imposible de manejar hasta ahora.

Comentarios