Nueva técnica supera los ataques de falsificación de voz
Los investigadores de Data61 de CSIRO han desarrollado una nueva técnica para proteger a los consumidores de los ataques de suplantación de voz.
Los estafadores pueden grabar la voz de una persona para asistentes de voz como Amazon Alexa o Google Assistant y reproducirla para hacerse pasar por esa persona. También pueden unir muestras para imitar la voz de una persona con el fin de falsificar o engañar a terceros.
La nueva solución, llamada Void (detección de voz en vivo), se puede integrar en un teléfono inteligente o software de asistente de voz y funciona identificando las diferencias en el poder espectral entre una voz humana en vivo y una voz reproducida a través de un altavoz, para detectar cuándo los piratas informáticos están intentando falsificar un sistema.
Fuente: Help Net Security