CIBERSEGURIDAD

Falso profundo: Problema profundo

Según un nuevo informe del University College London (UCL), el contenido de audio o video falso se ha clasificado como el uso más preocupante de la inteligencia artificial en términos de sus posibles aplicaciones para el crimen o el terrorismo. Las falsificaciones profundas probablemente se materializarán en las redes sociales como memes, sin embargo, su futuro puede ser mucho más siniestro. Las posibles consecuencias de los videos falsos profundos pueden variar desde influir en los resultados políticos hasta infiltrarse en los sistemas de seguridad biométrica.

Además del contenido falso, se consideró que otros cinco delitos habilitados por IA eran de gran preocupación. Estos usaban vehículos sin conductor como armas, ayudando a crear mensajes de phishing más personalizados (spear phishing), interrumpiendo los sistemas controlados por IA, recolectando información en línea con fines de chantaje a gran escala y noticias falsas creadas por IA.

¿Qué opinan los expertos?

El autor principal, el profesor Lewis Griffin (Ciencias de la Computación de la UCL) dijo: “A medida que se expanden las capacidades de las tecnologías basadas en IA, también lo hace su potencial para la explotación criminal. Para prepararnos adecuadamente para posibles amenazas de IA, necesitamos identificar cuáles podrían ser estas amenazas y cómo pueden afectar nuestras vidas «.

Joe Bloemendaal, director de estrategia en Mitek, una empresa que proporciona ciberseguridad a miles de bancos tenía varias preocupaciones. “La tecnología Deepfake es una de las mayores amenazas para nuestras vidas en línea en este momento, y el informe de UCL muestra que las deepfakes ya no se limitan a los rincones oscuros de Internet. La tecnología ya se ha utilizado para hacerse pasar por políticos, líderes empresariales y A-listers, llegando a la escena política del Reino Unido en las elecciones generales del año pasado. Ahora, podemos esperar que los deepfakes jueguen un papel importante en los delitos financieros, ya que los estafadores intentan utilizar identidades deepfaked para abrir nuevas cuentas o acceder a las existentes «.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar