CIBERSEGURIDAD

Nueva técnica supera los ataques de falsificación de voz

Los investigadores de Data61 de CSIRO han desarrollado una nueva técnica para proteger a los consumidores de los ataques de suplantación de voz.

Los estafadores pueden grabar la voz de una persona para asistentes de voz como Amazon Alexa o Google Assistant y reproducirla para hacerse pasar por esa persona. También pueden unir muestras para imitar la voz de una persona con el fin de falsificar o engañar a terceros.

La nueva solución, llamada Void (detección de voz en vivo), se puede integrar en un teléfono inteligente o software de asistente de voz y funciona identificando las diferencias en el poder espectral entre una voz humana en vivo y una voz reproducida a través de un altavoz, para detectar cuándo los piratas informáticos están intentando falsificar un sistema.

Fuente: Help Net Security

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Mira también
Cerrar
Botón volver arriba
Cerrar
Cerrar