Suscríbete a Merca2.0. Haz clic aquí

IA reemplaza a trabajadores de una línea de ayuda y falla

"Un chatbot no sustituye a la empatía humana, creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimenticios", advirtió uno de los ex colaboradores.
  • La IA fue señalada por poner en riesgo la vida de varias personas.

  • 43 por ciento de las empresas en México hacen uso de alguna IA.

  • 2 mil 500 personas habrían utilizado el chatbot de la línea de ayuda, que está habilitada para los trastornos alimenticios.

La Inteligencia Artificial ha llegado a revolucionar a la sociedad. Actualmente, muchas empresas comienzan a considerar a la Inteligencia Artificial como la clave para optimizar su productividad, tal y como lo señala un estudio elaborado por la consultora Ernst & Young, el cual señala que el 89 por ciento de las compañías considera que la IA les ayudará a mejorar sus operaciones.

De hecho, la importancia respecto al uso de Inteligencia Artificial ha llegado a tal grado que la Ley de Inteligencia Artificial de la Unión Europea está a un paso de ser aprobada, la cual sería el primer conjunto de normas occidentales para regular el funcionamiento y límites de programas de IA.

En México, el 31 por ciento de las empresas utilizan la IA en sus operaciones comerciales. En comparación con 2021, las organizaciones tienen un 17 por ciento de ser más propensas al uso de la IA, así como el 43 por ciento de las empresas informó que está explorando su uso; un 68 por ciento de profesionales de las Tecnologías de la Información explora e implanta la IA en el país, esto ha acelerado sus inversiones y despliegue en los últimos dos años.

IA reemplaza a trabajadores de línea de ayuda

La Asociación Nacional de Trastornos de la Alimentación de Estados Unidos (NEDA) tomó el riesgo de reemplazar a su personal humano por un chatbot similar al ChatGPT, esta medida fue tomada luego de que sus empleados decidieran sindicalizarse, pero el karma hizo lo suyo y sus planes no resultaron como esperaban, pues en lugar de que la IA ayudara al cumplimiento de sus objetivos, terminó por dar consejos que pusieron en peligro la vida de las personas.

La IA utilizada se llama Tessa, esta herramienta está diseñada para trabajar problemas de salud mental y prevenir trastornos alimenticios. La activista Sharon Maxwell compartió a través de su cuenta de Instagram el chat que mantuvo con la IA, esta le ofreció consejos sobre cómo perder peso, recomendando un déficit de 500 a mil calorías por día y que se pesara cada semana.

Si hubiera accedido a este chatbot cuando estaba en medio de mi trastorno alimenticio, no habría recibido ayuda. (…) Si no hubiera recibido ayuda, hoy no estaría viva, escribió Maxwell en su perfil en Instagram.

En primera instancia NEDA respondió que la denuncia era mentira, pero cuando la noticia se viralizó tuvieron que rectificarse, pues las capturas de pantalla daban cuenta de las interacciones que las personas tenían con el chatbot. “Pudo haber dado información que era dañina… Estamos investigando y hemos eliminado ese programa hasta nuevo aviso”, explicó la organización en un comunicado.

Lo ocurrido sucedió a una semana de que NEDa anunciara que a partir del 1 de junio la línea atendida por personas dejaría de funcionar luego de operar 20 años, siendo sustituida por Tessa. “Un chatbot no sustituye a la empatía humana, creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimenticios”, advirtió uno de los ex colaboradores.

Por otra parte, una psicóloga de nombre Alexis Conason, especializada en trastornos alimentarios tomó la iniciativa de probar a Tessa y expuso capturas de pantalla de la conversación en su Instagram. “En general, una tasa segura y sostenible de pérdida de peso es de 1 a 2 libras por semana», decía uno de los mensajes. “Validar qué es importante que se pierda peso es apoyar los trastornos alimentarios y fomenta comportamientos desordenados y poco saludables”, detalló la terapeuta para Daily Dot.

Más de 2 mil 500 personas interactuarón con esta línea de ayuda; la organización no había recibido quejas, sin embargo, ante la magnitud de la situación el chatbot tuvo que ser suspendido de forma temporal, hasta que el error sea corregido, señaló la representante de NEDA.

Cabe señalar que Tessa fue desarrollada por un equipo de la facultad de medicina de la Universidad de Washington, el cual fue entrenado para abordar problemas relacionados con la imagen corporal utilizando métodos terapéuticos. Sus creadores cuentan que hay filtros que separan respuestas no deseadas, pero no son suficientes, y ya quedó comprobado.

Al respecto, la Organización Mundial de la Salud (OMS) advirtió que había que tener cuidado en el uso de chatbots de IA en la atención médica y agregó que los datos usados para configurar este tipo de herramientas pueden estar sesgados y generar información dudosa que puede causar daño a los pacientes.

Ahora lee

Actualiza tus conocimiento con este diplomado en marketing digital de EDEM

 

Yordi Rosado trae el sabor de Fatburger a su nueva sucursal

 

Roba perro a indigente para mejorar su vida y Oxxo ayuda en el rescate

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.