La seguridad biométrica se usa ampliamente en dispositivos móviles por razones de conveniencia. Este método de validación de identidad generalmente se considera “lo suficientemente seguro” para la mayoría de las aplicaciones, a pesar de que los investigadores demuestran una y otra vez que estas medidas pueden ser evitadas.
La mayoría de los métodos para frustrar la seguridad biométrica implica replicar la identidad de un usuario específico, como reproducir huellas digitales de fotografías o usar imágenes para engañar a los sistemas de reconocimiento facial.
Sin embargo, recientemente, investigadores de la Universidad de Nueva York y la Universidad del Estado de Michigan demostraron una táctica mucho más sorprendente que utiliza redes neuronales para generar huellas dactilares sintéticas.
Los investigadores entrenaron la red neuronal utilizando miles de imágenes de huellas dactilares reales y utilizaron un “generador” para crear impresiones sintéticas. Estas impresiones fueron luego enviadas a otra red neuronal, un “discriminador”, que está diseñado para clasificar la impresión falsa como real o generada, mejorando así su autenticidad a través de prueba y error.
Las DeepMasterPrints resultantes (nombradas después de las llaves maestras que pueden abrir muchos bloqueos diferentes) se pueden usar en ataques de estilo de diccionario contra sistemas de verificación de huellas dactilares con diversos grados de éxito, dependiendo de la seguridad del sistema objetivo.
En el nivel más bajo de seguridad en las pruebas capacitivas, los investigadores pudieron usar una DeepMasterPrint para engañar al sistema el 76.67 por ciento de las veces.