¿Cómo evolucionarán los algoritmos a las marcas?

computer algorithm computer science problem solving process with programming language code concept light bulb and gear vector

Si bien los algoritmos facilitaron el consumo y la vida de las marcas, como Netflix y Google, quienes volvieron más sencillo las opciones de búsqueda de contenidos lo cierto es que aún presentan sesgos humanos, quienes aún no explotan el potencial total de éstos.

Un análisis del New York Times destaca ya ha existen casos donde los algoritmos han fallado, como el accidente de Uber en San Francisco, o cuando la aplicación de foto de Google etiquetó imágenes de gente afroamericana como gorilas, incluso cuando el algoritmo de reconocimiento facial del registro de motores de Maasachusetts registró equivocadamente a alguien como un criminal y revocó su licencia de conducir.

Asimismo, cuando el bot Tay de Microsoft decidió convertirse en un supremacista blanco, y más recientemente los escándalos publicitarios de Google y Youtube. Los errores anteriores mostraron los prejuicios humanos que persisten con los años, salvo el error de Youtube, y muestra clara fueron los algoritmos que no reconoces a las personas con piel oscura como humanos, sino como criminales.

La variedad de problemas surgió como resultado de datos erróneos o malos, o datos buenos pero sesgados porque la información es insuficiente, o bien, un modelo inflexible que no puede explicar diferentes escenarios.

Investigadores y académicos exploran cómo aumentar la rendición de cuentas algorítmica, ya que las soluciones solo pueden ser implementadas, aunado a que las compañías se deben comprometer a no mantener y perpetuar prejuicios, discriminación y toda información que sea falsa, es decir, en el desarrollo de las nuevas tecnologías es necesaria la diversidad en el equipo detrás de los algoritmos.

El análisis ejemplifica las búsquedas en Google Imágenes, donde no aparecen personas de color en búsquedas generales, sino en las específicas, y casi siempre es para citar malos ejemplos, es decir, perpetua la normalización de las personas blancas, y es que cuando buscas nombres que se relacionan a personas de raza negra, los resultados son de búsquedas de arrestos y fotos.

Además, la Sección 230 de la Ley de Decencia de las Comunicaciones de Estados Unidos establece que ninguna plataforma tecnológica será tratada o juzgada por sus contenidos, lo cual proporciona protección a los algoritmos de las firmas, lo cual dificulta que legislaciones afecten el contenido prejuicioso de Facebook o Google.

Crédito de la imagen: Bigstock