Suscríbete a Merca2.0. Haz clic aquí

Expertos hablan del racismo en la Inteligencia Artificial

Desde hace muchos años los expertos se han preocupado por las muestras de racismo y xenofóbia de la Inteligencia Artificial.
  • El uso de la IA en el campo militar supone un negocio de 13 mil millones de dólares; Fortune Business Insights.

  • Se estima que los robots formen parte de un mercado global valorado 86 mil millones de dlrs; Statzon.

  • Se estima que para 2030 el valor de la IA en la industria doméstica puede llegar a valer 86.600 millones de dólares; Statista.

En 2016 la empresa Microsoft lanzó una Inteligencia Artificial (IA) llamada Tay, cuya programación estaba centrada en mantener una conversación “casual y fluida” con jóvenes de 18 y 24 años, siendo un gran éxito, al principio. Porque cuando Microsoft le brindó un espacio en Twitter todo cambio, haciendo que los expertos comenzaran a preocuparse por el racismo en la Inteligencia Artificial, que se hizo cada vez más preocupante.

Esto pasó en menos de 24 horas, porque Tay dejó de decir que los humanos eran “súper geniales” y comenzó a  interactuar con personas de un modo cada vez más xenófobo, malhablado y sexista. De hecho, según informó el periódico El Mundo, se hizo simpatizante de Hitler, deseó que muchos que estuvieran en un campo de concentración y en uno de sus tweets mencionó que esperaba que las feministas “ardieran en el infierno”, pese a haberlas defendido al principio. Por supuesto, el personal de Microsoft se ha vio obligado a borrar todos los mensajes ofensivos, pedir disculpas, y desactivar a la IA.

Por supuesto, este problema ha sido una las mayores preocupaciones del mercado, porque ¿qué pasa si resulta que las IA se comienzan a demostrar ser racistas en un industria que  según datos de Statzon, se estima que tiene un valor de mercado global que superar los 32 millones de dólares? ¿Qué pasaría si resulta que las IA comienzan a mostrar recelo,  prejuicios y fobias en un mercado que para 2030 puede llegar a valer 86.600 millones de dólares?

Sobre todo, ¿qué pasaría si resulta que las empresas venden robots domésticos que apoyan el odio y la aniquilación de seres humanos, en un sector según Markets and Markets, podría tener ventas de 19 mil 300 millones de dólares en 2027? Aunque este mercado suene sorprendente, las IA siguen teniendo miles de complicaciones para la industria.

No obstante, según informa McKinsey & Company, el 56 por ciento de las empresas ha adoptado IA en al menos una función. Asimismo, uso de IA se incrementó más en las compañías radicadas en países de economías emergentes pues la percepción acerca de la contribución de la IA es que se podrían mejorar los ingresos a través de la reducción de costos humanos.

Quizá el dato más que más ha llamado la atención, es el del uso de la IA en la atención al cliente que está en constante crecimiento, y se proyecta que tenga un aumento de 35 por ciento en 2025. Esto se ha visto reflejado en el 70 por ciento de las empresas de atención al cliente que utilizan la IA para automatizar tareas, que consideran que el 60 por ciento es ideal para mejorar la eficiencia.

¿La IA es racista?

En un artículo publicado recientemente por The Guardian, se dice que cada vez que una inteligencia artificial se están volviendo más inteligente, también se vuelve más racista encubiertamente. Esto fue descubierto por un equipo de investigadores de tecnología y lingüística, que reveló que los modelos lingüísticos como ChatGPT de OpenAI y Gemini de Google mantienen estereotipos racistas sobre los hablantes de inglés vernáculo afroamericano, un dialecto inglés creado y hablado por afroamericanos.

“Sabemos que estas tecnologías son utilizadas comúnmente por las empresas para realizar tareas como seleccionar a los solicitantes de empleo”, dijo Valentin Hoffman, investigador del Instituto Allen de Inteligencia Artificial y coautor del artículo reciente, publicado esta semana en arXiv, una Archivo de investigación de acceso abierto de la Universidad de Cornell.

Hoffman explicó que anteriormente los investigadores “sólo analizaban qué prejuicios raciales manifiestos podrían contener estas tecnologías” y nunca “examinaron cómo estos sistemas de IA reaccionan a marcadores raciales menos evidentes, como las diferencias dialectales”.

Asimismo, porque los modelos de IA también eran significativamente más propensos a recomendar la pena de muerte para hipotéticos acusados ​​penales que utilizaron lenguajes vernáculos en sus declaraciones judiciales. Lo alarmante, es que se trata de modelos de IA ya se utilizan en el sistema legal de EU para ayudar en tareas administrativas como crear transcripciones judiciales y realizar investigaciones legales.

Lo que se ha demostrado, en suma, es que los procesos de aprendizaje que tienen las IA no están exentas de aprender estereotipos racistas, sexistas y dañinos para la sociedad.

Ghosh es parte del creciente contingente de expertos en inteligencia artificial que, como Gebru, se preocupan por el daño que los modelos de aprendizaje de idiomas podrían causar si los avances tecnológicos continúan superando la regulación federal. La solución, por ahora, según Valentin Hoffman: “No es necesario detener la innovación ni frenar la investigación en IA, pero restringir el uso de estas tecnologías en ciertas áreas sensibles es un excelente primer paso (…) Existe gente racista en todos lados no necesitamos encarcelarlos, pero tratamos de no permitir que estén a cargo de la contratación y el reclutamiento. La tecnología debería regularse de manera similar”.

Otro ejemplo de esta “comportamiento” de la IA se dio en febrero de 2024, cuando la IA Gemini decidió ignorar la existencia de hombres blancos a la hora de crear sus imágenes, por lo que se acusó a Google de fomentar el racismo contra las personas blancas. Por esta razón se puso en pausa a la IA.

Prabhakar Raghavan, vicepresidente senior en Google, publicó una explicación de los hechos, dejando claro que fue un “error” que  Gemini se negara a crear imágenes de un grupo de personas en particular, y que no fue su “intención” crear imágenes históricas inexactas. Asimismo, el ejecutivo se vio obligado a pedir perdón y, por supuesto, Gemini continúa apagada.

 

Lee más:  El auge de los métodos de pago innovadores

¿Vendrán cambios? Ejecutivo de Costco habla del precio del hot dog de 30 pesos

A esto van los hombres a Walmart; “confirmen soldados” dice usuario

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.