Deepfake, tecnología para suplantar la identidad

Barak Obama, Nancy Pelosi, Donald Trump o Jim Carrey se cuentan entre las victimas de los “deepfake”, la nueva vuelta de tuerca de la alteración digital de imágenes, de las “fake-news” y las amenazas a la identidad.

Pero no son los únicos; actrices, cantantes y también personas anónimas pueden ser objeto de estos videos manipulados. Los grandes gigantes de internet, como Facebook, Twitter, Google o Microsoft ya les han declarado la guerra.

¿POR QUÉ LOS TEMEN?

El término que aúna las palabras profundo y falso, ya habla de su naturaleza. Según diversas fuentes, el nombre viene de una evolución del concepto “deeplearning”, aprendizaje profundo, utilizado en la tecnología de la inteligencia artificial. Y es esta tecnología la que se usa para crear estos videos.

La inteligencia artificial utiliza algoritmos de aprendizaje no supervisados y videos que ya existen para adaptar una imagen a otra.

De esta manera puede parecer que una persona dice o hace algo que, en realidad, no ha dicho ni hecho. Por ejemplo, en el caso del expresidente estadounidense Barack Obama, parecía dar un discurso que nunca pronunció. En el del actor Jim Carrey, el artista se “convierte” en Jack Nicholson en una escena del filme “The Shining” (1980).

Si bien en un primer momento puede resultar una herramienta con la que hacer videos curiosos o graciosos, la creciente accesibilidad a esta tecnología y su mejora han hecho saltar las alarmas.

Cada vez son más realistas. Y esto en muchos ámbitos puede resultar muy peligroso. ¿Cómo podrán los usuarios identificar un video real de uno que no lo es? ¿Cómo afectará a la privacidad y la identidad de las personas?

“La detección de “deepfakes” es uno de los desafíos más importantes que tenemos por delante”, escribió en Twitter, el indio Sundarajan Pichai, director  ejecutivo de Google. El gigante de internet anunció la intensificación de los esfuerzos de la empresa para combatirlos.

Google no está sola en esta cruzada. En diferentes momentos, grandes empresas de Internet han mostrado su preocupación ante este fenómeno y se han comprometido a acabar con él. O al menos a intentarlo.

Facebook, Microsoft y Amazon trabajan para detectar y eliminar estos contenidos junto a algunas universidades bajo el Deepfake Detection Challenge (DFDC).

La DFDC crea “deepfakes” para entrenar sus sistemas de IA para que estos, después, los reconozcan más fácilmente y los eliminen.

UNA AMENAZA MAYOR PARA LAS MUJERES

La principal preocupación en estos momentos en torno a los “deepfake” es su impacto en la política.

Si las noticias falsas y los “bots” (robots) fueron protagonistas de movimientos de desinformación durante las últimas campañas electorales, los “deepfakes” están llamados a expandir más la influencia de los mensajes fraudulentos.

Las noticias, las fotografías y los videos corren como la pólvora en las vísperas de los comicios. Si alguien es capaz de creerse una información, no veraz, escrita por cualquier usuario de Facebook o Whatsapp, ¿cómo no va a creerse un vídeo de gran realismo en el que un candidato dice esto o lo otro?

En Estados Unidos, el Estado de California acaba de sancionar dos leyes relacionadas con este fenómeno. Una de ellas se aplica al ámbito político. La primera prohíbe difundir videos manipulados para desacreditar a candidatos en los dos meses previos a los comicios.

Pero hay un marco en el que los “deepfakes” son más numerosos y suponen un problema incluso mayor en el que se centra la segunda norma: la pornografía. Estos vídeos son un arma especialmente peligrosa contra las mujeres.

Deeptrace, una compañía con sede en Ámsterdam (Países Bajos), publicó recientemente un estudio sobre los “deepfakes” en el que informaron de que el 96% de los casi 15 mil videos de este tipo que encontraron “online” eran de temática pornográfica, en los que aparecían mujeres sin su consentimiento.

Entre las mujeres cuya identidad se utilizó para estos montajes, como actrices o cantantes famosas, los investigadores se sorprendieron por el alto número de videos con imágenes de estrellas del K-Pop, la música popular coreana. Eran casi un cuarto del material analizado.

Las mujeres famosas son los blancos favoritos de los que roban identidades para alterar imágenes de este tipo, pero las mujeres anónimas también están en peligro.

Según un hilo que siguió la publicación Quartz, los usuarios de un foro solicitaban los servicios de alguien capaz de alterar un video con las imágenes de mujeres que ellos solicitaban.

“Hola, me gustaría un video de alta calidad de una amiga mía. ¡Puedo pagar!”, escribió un usuario, según recoge la revista.

Otro demandaba lo mismo con una compañera del instituto y otro subió selfis de una chica pidiendo que le ayudasen a desnudarla.

Texto y fotos: EFE

Leave a Reply

Tu dirección de correo electrónico no será publicada.