Suscríbete a Merca2.0. Haz clic aquí

¿Cómo evolucionarán los algoritmos a las marcas?

Si bien los algoritmos facilitaron el consumo y la vida de las marcas, como Netflix y Google, quienes volvieron más sencillo las opciones de búsqueda de contenidos lo cierto es que aún presentan sesgos humanos, quienes aún no explotan el potencial total de éstos.

Si bien los algoritmos facilitaron el consumo y la vida de las marcas, como Netflix y Google, quienes volvieron más sencillo las opciones de búsqueda de contenidos lo cierto es que aún presentan sesgos humanos, quienes aún no explotan el potencial total de éstos.

Un análisis del New York Times destaca ya ha existen casos donde los algoritmos han fallado, como el accidente de Uber en San Francisco, o cuando la aplicación de foto de Google etiquetó imágenes de gente afroamericana como gorilas, incluso cuando el algoritmo de reconocimiento facial del registro de motores de Maasachusetts registró equivocadamente a alguien como un criminal y revocó su licencia de conducir.

Asimismo, cuando el bot Tay de Microsoft decidió convertirse en un supremacista blanco, y más recientemente los escándalos publicitarios de Google y Youtube. Los errores anteriores mostraron los prejuicios humanos que persisten con los años, salvo el error de Youtube, y muestra clara fueron los algoritmos que no reconoces a las personas con piel oscura como humanos, sino como criminales.

La variedad de problemas surgió como resultado de datos erróneos o malos, o datos buenos pero sesgados porque la información es insuficiente, o bien, un modelo inflexible que no puede explicar diferentes escenarios.

Investigadores y académicos exploran cómo aumentar la rendición de cuentas algorítmica, ya que las soluciones solo pueden ser implementadas, aunado a que las compañías se deben comprometer a no mantener y perpetuar prejuicios, discriminación y toda información que sea falsa, es decir, en el desarrollo de las nuevas tecnologías es necesaria la diversidad en el equipo detrás de los algoritmos.

El análisis ejemplifica las búsquedas en Google Imágenes, donde no aparecen personas de color en búsquedas generales, sino en las específicas, y casi siempre es para citar malos ejemplos, es decir, perpetua la normalización de las personas blancas, y es que cuando buscas nombres que se relacionan a personas de raza negra, los resultados son de búsquedas de arrestos y fotos.

Además, la Sección 230 de la Ley de Decencia de las Comunicaciones de Estados Unidos establece que ninguna plataforma tecnológica será tratada o juzgada por sus contenidos, lo cual proporciona protección a los algoritmos de las firmas, lo cual dificulta que legislaciones afecten el contenido prejuicioso de Facebook o Google.

Crédito de la imagen: Bigstock

 

 

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.