IA y Deepfakes: Un dúo peligroso en las manos equivocadas

El emergente crecimiento de la Inteligencia Artificial ha permitido transformar sectores clave como la medicina, la economía, el sector energético o el transporte. En el panorama actual, la IA tiene un potencial inmenso para construir una sociedad mejor. Sin embargo, esta herramienta de doble filo también puede ser explotada para desarrollar soluciones con fines negativos o maliciosos.

En el ámbito de la ciberseguridad, la IA ha permitido la evolución y mejora de técnicas de ingeniería social, facilitando la ejecución de campañas de ciberataques más eficaces y difíciles de detectar. En este contexto, han surgido nuevos fraudes impulsados por la IA, especialmente en lo que respecta a la creación de deepfakes.

¿Qué es el Deepfake?

El término deepfake resulta de la combinación de «Deep Learning» y «fake». Se refiere a la técnica por la cual, empleando algoritmos de IA complejos como el Deep Learning, se manipulan contenidos audiovisuales para dotarlos de un efecto altamente realista. Esto hace que, bajo la percepción convencional de un humano, sea muy complicado determinar si el contenido es verdadero o falso.

La tecnología deepfake para la suplantación de identidad se ha expandido a todas las plataformas digitales, la comunicación personal, la industria cinematográfica, y los sectores corporativo y gubernamental. Aunque abre oportunidades para la creatividad y la innovación en la producción de contenido digital, también presenta riesgos considerables para la privacidad y la seguridad.

Deepfaces y Deepvoices

  • Deepfaces: Consisten en crear imágenes con un alto nivel de realismo desde cero, pero siendo completamente ficticias.
  • Deepvoices: Esta tecnología permite generar voces humanas sintéticas a partir de texto escrito, que suenan muy naturales. Es posible falsificar la voz de una persona real entrenando a la IA con muestras de la voz real.

Casos Reales de Deepfake y Ataques de IA

  1. Deepfake de Vladimir Putin y Donald Trump: En 2019, un video deepfake que representaba a Vladimir Putin y Donald Trump fue compartido en redes, mostrando a ambos líderes políticos discutiendo temas serios. Este tipo de contenido subraya cómo los deepfakes podrían ser utilizados para desinformar y manipular opiniones públicas.
  2. Deepfake de actores en películas pornográficas: Uno de los usos más controvertidos ha sido la creación de videos pornográficos falsos que muestran a celebridades como Emma Watson, Rosalía o Taylor Swift en escenas comprometedoras.
  3. Deepfake de Barack Obama: En 2018, un video deepfake del expresidente Barack Obama fue creado para concienciar sobre los peligros de esta tecnología y sus posibles usos maliciosos.
  4. Suplantación de voz del CEO de una empresa británica: En marzo de 2019, los estafadores utilizaron IA para imitar la voz del CEO, logrando que realizara una transferencia de 220.000€ a una cuenta bancaria externa.

Un Paso Más en el Deepfake

Los avances en la sofisticación de los deepfakes son tan sustanciales que ahora es posible realizar ejercicios de deepfakes en tiempo real durante una videollamada. Esta capacidad plantea un desafío mayor en la detección de estafas, aumentando la dificultad en identificar estas falsificaciones.

Accesibilidad del Deepfake

Uno de los aspectos más preocupantes del deepfake es su accesibilidad. Existen muchas opciones de software y aplicaciones gratuitas o de bajo coste que permiten a los usuarios crear deepfakes fácilmente. Herramientas como myEdit o PowerDirector, junto con clonadoras de voces como Vidnoz y servicios de Speech to Text como Eleven Labs, proporcionan los medios para crear falsificaciones realistas.

Conclusión

El uso indebido de la tecnología deepfake representa un gran desafío para la seguridad y la privacidad. Aunque las técnicas de detección de deepfakes están en desarrollo, la facilidad con la que se pueden crear y distribuir estos contenidos falsos sigue siendo una amenaza significativa. La concienciación y la educación sobre estas tecnologías son cruciales para mitigar los riesgos asociados y proteger a las personas y organizaciones de posibles fraudes y engaños.

Scroll al inicio