1 2 3 4 5 6

Hackean reconocimiento de voz con herramientas de distorsión

Siliconrepublic 29-Sep-2015

La seguridad por activación de voz ya no es un medio seguro, un equipo de investigadores ha logrado engañar al software de seguridad con una herramienta para distorsión de voz de bajo presupuesto.

Los intentos de hackeo contra grandes organizaciones son una amenaza constante, muchas de ellas han respondido con el uso de medidas a prueba de fallos humanos, más específicamente la seguridad de reconocimiento de voz, que sólo permitirá el acceso a un lugar o a archivos con una contraseña dicha por la voz de un ser humano.

Pero ahora, de acuerdo con la Universidad de Alabama, un equipo de investigadores ha revelado que la tecnología puede ser violada con una herramienta relativamente accesible y un poco de ingenio por parte del hacker.

Con una herramienta de síntesis de voz automatizada, un hacker potencial sólo tiene que reunir un pequeño número de muestras de voz de la persona, después, con técnicas de distorsión de voz, puede convertir la voz del atacante en la de su víctima.

El equipo de investigación probó su teoría en un sistema biométrico de voz que analiza los patrones únicos vocales del orador para identificarlos, con muestras de la voz del titular de la cuenta, fue posible obtener acceso sin restricciones.

El segundo experimento que se probó con la herramienta de voz morphing fue imitar la voz de dos celebridades, Oprah Winfrey y Morgan Freeman; se encontró que el atacante podría cambiar fácilmente su voz a la de cualquier celebridad.

"Por ejemplo, el atacante podría enviar las muestras de voz a Internet y dejar mensajes de voz falsos para los contactos de la víctima, lo que podría crear falsas pruebas de audio en la corte e incluso hacerse pasar por la víctima en las conversaciones telefónicas en tiempo real con alguien que la víctima conoce", dijo Nitesh Saxena, director de la Security and Privacy In Emerging computing and networking Systems (SPIES). "Las posibilidades son infinitas."

Durante su experimento se encontró que la tasa promedio para rechazar voces falsas por el software de seguridad de voz era menos de 10 a 20% para la mayoría de las víctimas, mientras que para las pruebas en humanos se encontró un rechazo sobre 50% de las veces.

Fuente: Siliconrepublic JH

Universidad Nacional Autonoma de México Aviso legal |  Créditos |  Staff |  Administración
Copyright © Todos los derechos reservados
UNAM - CERT