Cuando Google y las redes sociales promueven la pederastia

Entre los muchos aspectos negativos de las herramientas de la era digital se encuentra la distribución de contenidos que pueden ser perjudiciales para terceros, desde videos y mensajes que incitan al cyberbullying, hasta el envío de pornografía infantil.

Encontrar y compartir este tipo de contenido nocivo es relativamente sencillo a través de canales privados como WhatsApp y correos electrónicos, sin contar las facilidades que la deep web otorga para este tipo de prácticas. Sin embargo, existen otras plataformas que están al alcance de millones y que, paradójicamente, no han tomado las medidas necesarias para bloquear contenido sexual infantil, a pesar de que este tipo de abuso es una de las tareas pendientes de la sociedad a nivel global.

Ejemplo de esto es el escándalo de pederastia que se suscitó alrededor de YouTube, una de las redes sociales con más usuarios en el mundo (mil 500 millones activos al mes), incluidos adultos que practican la pederastia.

En febrero de este año, el usuario Matt Watson colgó en YouTube un video que demuestra lo sencillo que es acceder a la pornografía infantil en la misma red social. Las hasta entonces fallidas medidas de seguridad de esa plataforma permitían a los pedófilos conectarse entre sí, intercambiar información y poner enlaces a otros contenidos ilegales en la sección de comentarios de los videos.

El usuario en cuestión explicaba que hicieron falta dos clics para acceder a este contenido, además de que el mismo algoritmo de YouTube recomendaba videos similares sin ningún tipo de filtros, con lo cual se fomenta la proliferación de redes de pornografía infantil.

La noticia fue suficiente para que gigantes como Disney y Nestlé manifestaran su preocupación al respecto, y retiraron toda la publicidad de lo que se considera uno de los principales escaparates publicitarios del mundo.

En 2017 la Organización de las Naciones Unidas ubicó a México en el primer lugar mundial en difusión de pornografía infantil. Es una situación alimentada, entre muchos otros factores, por la impunidad y el fracaso de las autoridades por atacar este y diversos delitos más.

Facebook es otro de los gigantes que, paradójicamente y pese a contar con recursos como la inteligencia artificial, no ha logrado blindar sus medidas de seguridad para evitar la promoción de la pederastia. También en febrero pasado, la red social de Mark Zuckerberg se encontró en el ojo del huracán por sus relajados controles en cuanto a contenido infantil inapropiado.

Hasta ese mes, cuando alguien buscaba cualquier término en el buscador de esa red social, éste se autocompletaba con sugerencias. De esta manera, el escándalo surgió cuando se descubrió que cuando se ingresaba la palabra “niña”, en el buscador también aparecían términos como “niñas de 15 años desnudas”, “niñas de 15 años buenas”, “niñas en calzoncitos”, “niñas malas bien buenas” y “niñas de 12 años modelando”.

Dichas sugerencias no surgen de la nada, sino que son producto de las búsquedas que los propios usuarios realizan y que el algoritmo de Facebook va registrando para hacer más ágiles las búsquedas. El ejemplo anterior demuestra una cara aberrante de la sociedad que no sólo es aficionada a la pornografía infantil, sino que la busca en todos los canales posibles.

Los dos ejemplos anteriores son muestra de que las grandes y voraces plataformas de contenidos, que hoy consumen cientos de millones de ciudadanos del mundo, se ocupan más por generar las condiciones para que sus usuarios se enganchen y se conviertan en potenciales compradores de productos o servicios, que por garantizar condiciones de seguridad que no permitan la proliferación de contenidos nocivos que promueven la pornografía, el abuso y la explotación infantiles.