Suscríbete a Merca2.0. Haz clic aquí

Inteligencia artificial se mete en problemas por discriminar piel oscura

Hace poco se llevó a cabo el primer concurso de belleza donde el juez era nada más y nada menos que una inteligencia artificial, por lo que al menos en teoría, se trataba de un concurso completamente objetivo, en el que el algoritmo evaluaría aspectos físicos comunes tomados de una base de datos de fotografías, sin embargo, el concurso ha generado polémica por la casi ausencia de tonos de piel oscuros en los resultados finales.

Hace poco se llevó a cabo el primer concurso de belleza donde el juez era nada más y nada menos que una inteligencia artificial, por lo que al menos en teoría, se trataba de un concurso completamente objetivo, en el que el algoritmo evaluaría aspectos físicos comunes tomados de una base de datos de fotografías, sin embargo, el concurso ha generado polémica por la casi ausencia de tonos de piel oscuros en los resultados finales.

Beauty.AI es el nombre de la inteligencia artificial creada por Youth Laboratories, la cual juzga datos como la cantidad de arrugas y la simetría del rostro. De acuerdo con sus creadores, no existe en el algoritmo programación alguna que pueda favorecer a un tono específico de piel.

A pesar de ello. al participar Beauty.AI como juez del primer concurso de belleza calificado por un juicio no humano, los resultados finales han favorecido a los tonos de piel clara, según información publicada por The Guardian, quien además asegura que Alex Zhavoronkov, director del proyecto, admitió que los ejemplos de fotografías con los que Beauty.AI contó para realizar su análisis tenía poco material referente a personas de tonos de piel oscuros.

El uso de inteligencias artificiales supone múltiples riesgos hoy en día, debido a que aún no es una tecnología lo suficientemente madura, y generalmente se vuelve más sofisticada en la medida en la que interacciona con los usuarios, por lo que hasta cierto punto, las polémicas seguirán aconteciendo.

Uno de los ejemplos de polémicas relacionadas al uso de esta tecnología ocurrió con Microsoft, cuando Tay, la inteligencia artificial en Twitter que la empresa de Bill Gates puso a interactuar con las personas y a aprender de ellas, lo cual desembocó en una serie de mensajes racistas que provocaron la temporal suspensión de la cuenta.

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.