Deepfakes: ¿la nueva herramienta de manipulación?

Hacen bien quienes desconfían hasta de su sombra. En tiempos en los que la desinformación corre a raudales, la verdad se ha convertido en una moneda de cambio muy valiosa y difícil de conseguir. Y es que las fake news no son sólo cada vez más virales: también son más sofisticadas. Esa parece ser la nueva regla en el negocio de la información. 

Quizás ya lo haya escuchado antes, si no, le presento el término: deepfakes. Traducido al español quiere decir algo así como “verdades profundas”. Y eso es lo que son. ¿Recuerda aquel video en el que Barack Obama aseguraba que Donald Trump era un idiota? Bien, pues era falso. Sí, era la cara de Obama con sus facciones, sus gesticulaciones, sus movimientos, su voz. Pero no era él. Era una réplica hecha con inteligencia artificial. 

Ese video fue un experimento de Buzzfeed, empresa de medios líder en la generación de contenidos virales desde 2006. Sin embargo, esa farsa también fue el aviso de una nueva tendencia en la industria de los medios de comunicación, el marketing digital y la propaganda política. Nunca antes se habían utilizado tecnologías tan avanzados para falsear información. Mucho menos para suplantar identidades de jefes de Estado. 

No es exagerado creer que las deepfakes son uno de los avances tecnológicos más preocupantes de la humanidad. ¿Qué pasaría si esa inteligencia artificial se utilizara, por ejemplo, para comenzar una guerra o para realizar un fraude financiero? ¿Qué pasaría si los discursos que vemos en nuestras pantallas no son lo que parecen ser?

Mientras el mundo debate sobre la pertinencia de esta tecnología, las marcas y las redes sociales ya han aprendido a sacarle jugo. Esta semana, el canal de YouTube Ctrl Shift Face —que se dedica a realizar deepfakes graciosas o simpáticas— lanzó una parodia de la película No Country for Old Men, de los talentosísimos hermanos Coen. En ella, el actor español Javier Bardem es reemplazado por el polémico Arnold Schwarzenegger. La escena es tan elaborada que, si no se ve con detenimiento, puede hacerse pasar por verdadera. De la misma forma hay parodias de Freddie Mercury, Donald Trump o Al Pacino. E incluso una supuesta imitación de Jim Carrey a Jack Nickholson en El Resplandor

El peligro de aplicar la inteligencia artificial a la fabricación de noticias falsas es el inicio de una catástrofe informativa sin precedentes, según han advertido organismos internacionales como la ONU. 

Las principales responsables de combatirlas, sin embargo, parecen ser las redes sociales. Este lunes, Twitter anunció su intención de diseñar una política que permita combatir las deep fakes, principalmente en el ámbito político, donde podrían desatar crisis diplomáticas y económicas que será mejor no imaginar. Para ello, la red creada por Jack Dorsey ha decidido recabar las opiniones de sus usuarios acerca de esta problemática a través del hashtag #TwitterPolicyFeedback.

Los más recientes avances de la inteligencia artificial proceden de algoritmos muy específicos, es decir, de redes neuronales artificiales profundas conocidas como deep learning. Estos algoritmos son capaces de manipular imágenes, video, audio y texto con base en conocimientos aprendidos. Es así como un algoritmo puede almacenar rápidamente la “personalidad” de Donald Trump y replicarla después.  Por eso a los realizadores de deep fakes les conviene tanto el Big Data, pues de esa gigantesca nube pueden obtener el tipo de información que ellos quieran. 

En octubre pasado se lanzó un programa que es capaz de generar noticias falsas a partir de un algoritmo alimentado con una simple frase. Esto fue desarrollado por OpenAI, una compañía estadounidense de investigación de inteligencia artificial sin fines de lucro. 

Y es que si las fake news ya se fabrican a escala industrial, más vale estar prevenidos, porque el 70 por ciento de las noticias falsas se propagan mucho más fácil que las verdaderas, de acuerdo con un estudio del MIT elaborado a principios de 2008. 

Quizás uno de los efectos más negativos es que las deepfakes arruinan vidas personales. Es el caso de la periodista independiente Rana Ayyub, cuyo rostro fue replicado en un video pornográfico. “Cada mañana me despierto y veo estos tuits con la captura de pantalla de un video porno con mi cara en él. Ha sido un infierno”, confesó a la BBC en abril de 2018. 

loading...