• Entre la gente que sufrió discriminación, se contaban personas gordas o con autismo

  • También llegaron a verse afectados individuos de la población LGBT+ 

  • La gente que fue catalogada por esta política no podía compartir contenido fuera de su país

Incluso hoy, la discriminación es un reto que prevalece en el mundo. Según Do Something, en países como Estados Unidos (EEUU), la gente no-caucásica  aún recibe un trato muy diferente comparado al resto de la población. Inside Housing señala que tres cuartas partes de las mujeres se han visto perjudicadas en el trabajo por tener hijos. Además, Pew Research apunta que seis en 10 personas creen que aún varios puntos que resolver para cambiar la situación.

Así pues, también las marcas se han visto envueltas en problemas por discriminación. Algunas empresas, como Facebook, son acusadas de habilitar prácticas que excluyen a ciertas partes de la población que no son vistos como tan atractivos para los negocios. A otras compañías, al estilo de Apple y Goldman Sachs, se les investiga por no prestar iguales servicios a todo el mundo. Otras instituciones, en cambio, luchan por acabar con este fenómeno a como dé lugar.

De cualquier forma, se tiene que aceptar que la discriminación es todavía un gran problema para prácticamente todo el mundo. Mientras que muchas empresas luchan activamente por reducir su impacto, otras tantas prefieren mantenerse alejadas de este tema. Algunas más, en cambio, están ayudando a que se vuelva un reto todavía más serio. Por supuesto, no todas las compañías en este grupo lo hacen conscientemente. Pero aún así sus acciones son dudosas.

TikTok, ¿en escándalo por discriminación?

Entre las compañías en este último grupo ya se puede contar a una de las redes sociales más populares entre jóvenes millennials y Z. De acuerdo con The Verge, TikTok habría “bloqueado” los contenidos de personas con capacidades distintas. El algoritmo de compañía cometió una especie de discriminación contra este grupo al limitar mucho el alcance de sus contenidos. Es decir, un usuario en este segmento tendría muy pocas o nulas probabilidades de hacerse viral.

Notas relacionadas

Fuentes apuntaron que esta discriminación es una decisión consciente de parte de TikTok. El algoritmo fue diseñado para detectar casos con alta predisposición al bullying. Para evitar que estos usuarios fueran acosados en línea, la plataforma habría empezado a limitar radicalmente en qué feeds públicos se llegaban a mostrar. Bytedance, compañía madre de la red, afirmó a Netzopolitik.org que es un “intento temprano y fallido de prevenir el conflicto en la plataforma.

Consecuencias accidentales de políticas bien intencionadas

Más allá de este caso de posible discriminación, el bullying ha sido una preocupación continua en la industria de las redes sociales. Instagram lanzó hace poco una serie de herramientas que se enfocan en prevenir el acoso entre usuarios de su plataforma. Organizaciones como Unicef han señalado en más de una ocasión a estas plataformas por su impacto negativo en jóvenes. Algunos sitios incluso se ponen en contacto con los padres de familia para enfrentar el reto.

Incluso si las intenciones fueron legítimas, la implementación de TikTok fue desastrosa. Por supuesto, querer proteger a la gente del acoso en línea siempre es un objetivo loable que no debería dejar de perseguirse. Pero debería combatirse con penalizaciones contra los agresores y no poniendo castigos a las víctimas. En especial si las consecuencias de estas medidas se pueden ver como una discriminación hacia ciertos grupos vulnerables entre la audiencia.

Al final, la idea de TikTok no es mala. En efecto se debería tratar de identificar a los usuarios que podrían ser más vulnerables al bullying. Pero en lugar de establecer políticas que permitan la discriminación de estas personas, se tendrían que llevar a cabo sistemas de vigilancia. Así, se puede no solo verificar que la gente no esté siendo agresiva con otros usuarios en redes. Además, se podría empezar a penalizar con mayor eficacia a os victimarios y no a las víctimas.

loading...