• A finales del año pasado, Adobe reportó ingresos por nueve mil 30 millones de dólares

  • De acuerdo con Nasdaq, el número de investigaciones en IA se ha disparado significativamente desde los 2000

  • Según Statista, la inversión en startups especializadas en esta tecnología alcanzó los 15 mil 242 millones de dólares en 2017

El problema de las noticias falsas no es nuevo. Organizaciones señalan que el fenómeno, en ocasiones respaldado por gobiernos, se extiende años atrás. Pero, también es innegable que la democratización de herramientas habilitada por el internet y la digitalización ha acelerado el proceso. Conforme la tecnología avanza, ya no son solo simples textos. Material complejo, como videos e imágenes, puede ser falsificado fácilmente gracias a la Inteligencia Artificial (IA).

Algunas compañías tratan hacen su mejor esfuerzo para limitar la tendencia. Adobe anunció un nuevo proyecto de desarrollo, una investigación conjunta con la Universidad de California Berkley. Las dos organizaciones han creado una IA capaz de detectar imágenes y fotografías que hayan sido manipuladas por programas como Photoshop. El programa es capaz de detectar, con 99 por ciento de exactitud, modificaciones realizadas con la herramienta Liquify.

Liquify es comúnmente utilizada para hacer alteraciones menores a retratos, e incluso cambiar la expresión facial de las personas. Según Adobe, la herramienta de IA también es capaz de sugerir correcciones para revertir la imagen a su forma original. Pero esta capacidad todavía no está bien desarrollada. La marca reconoce tanto el valor creativo que representan sus productos como los problemas éticos que pueden causar en el tema de las fake news.

IA: el reto entre alteración y corrección

Varias compañías están retándose en el desarrollo de IA, tanto para la creación como la detección de contenido falso. Una unidad de investigación de Samsung presentó hace algunas semanas un programa capaz de “dar vida” a fotografías o retratos en pintura. Por su parte, Facebook trabaja ardua (y creativa)mente en sistemas capaces de monitorear el contenido tóxico en su plataforma. Incluso la industria del cine está haciendo uso de estos programas.

Pero la iniciativa de Adobe resalta un problema fundamental de la IA. La producción de contenidos falsos se ha refinado tanto, que incluso están teniendo repercusiones de seguridad nacional. Al mismo tiempo, es particularmente difícil desarrollar software capaz de detectar estas falsificaciones. Y es que muchos sistemas de este tipo entrenan autónomamente. Es decir, se enseñan a sí mismos a hacer la tarea que están tratando de realizar.

En términos prácticos, eso significa que muchas máquinas están aprendiendo a hacer contenido convincente que sea imposible de distinguir por una IA similar. Por eso es tan relativamente fácil alterar, pero tan complejo corregir. Los programas están aprendiendo de tal forma que se engañen entre sí, y de esa forma tratar de engañar a usuarios humanos. Por desgracia, es la forma más efectiva de crear este tipo de desarrollos tecnológicos.

Y, peor aún, no hay realmente una solución a esta paradoja de la IA. Ninguna fuera de mayor responsabilidad de parte de compañías, usuarios y organizaciones.