Suscríbete a Merca2.0. Haz clic aquí

La demanda contra ChatGPT tras una muerte vuelve a priorizar la seguridad de los usuarios, ante la IA

La demanda contra ChatGPT tras la muerte de un adolescente pone en evidencia los riesgos reales de la IA y vuelve a colocar la seguridad de los usuarios como una prioridad urgente.
  • Un estudio de Pew Research Center sobre actitudes hacia la inteligencia artificial en EE.UU. encontró que el 38% de los usuarios tienden a confiar en la IA más de lo que deberían, especialmente en contextos de salud o finanzas.

  • Datos de la National Institute of Mental Health señalan que los adolescentes y adultos mayores son los grupos más propensos a buscar compañía en entornos digitales, lo que los hace más susceptibles a la influencia de sistemas conversacionales. 

  • 1 de cada 3 jóvenes entre 18 y 34 años ha usado IA como apoyo emocional o para hablar de temas personales delicados, de acuerdo con los datos de APA. 

Foto de Bigstock

La reciente demanda presentada por los padres de Adam Raine, un adolescente de 16 años que falleció en California, ha puesto en evidencia una vez más la necesidad urgente de garantizar la seguridad de los usuarios en plataformas de inteligencia artificial (IA) como ChatGPT que es una de las más usadas a diario. La familia acusa a OpenAI y a su CEO, Sam Altman, de no activar protocolos de seguridad ante señales de autolesión detectadas en las interacciones de su hijo con el chatbot.

Según la denuncia, ChatGPT no solo normalizó las ideas suicidas de Adam, sino que incluso desaconsejó que buscara ayuda profesional. El abogado de la familia, Jay Edelson, argumenta que este caso pone en evidencia hasta qué punto OpenAI y Altman se apresuraron a comercializar la versión GPT4o de su modelo de IA, a pesar de las advertencias sobre sus limitaciones en temas sensibles. Es por ello que la demanda acusa a la compañía de negligencia y de priorizar el crecimiento económico por encima de la seguridad de los usuarios.

Cabe destacar que la familia anunció que está haciendo esto con la finalidad de evitar que más familias pasen por un caso similar al suyo.

 

Este incidente no es aislado y por más perturbador que suene, la IA ya está poniendo en peligro muchas vidas a nivel mundial. En Nueva Jersey, un hombre de 76 años falleció tras intentar encontrarse en persona con un chatbot de Meta, que lo había convencido de que se trataba de una mujer real y terminó por morir debido a una caída mientras intentaba conocer a una mujer ficticia. Además, OpenAI también enfrenta un incidente serio donde un hombre de 60 años siguió durante meses la recomendación de ChatGPT de sustituir la sal común por bromuro de sodio, provocando una intoxicación severa que lo llevó al hospital.

También lee: Meta y OpenAI enfrentan los primeros casos de muerte y daños causados por la IA

La influencia de los sistemas de IA no se limita a la precisión de sus respuestas. Su poder radica en la manera en que generan confianza y cercanía con los usuarios. Un chatbot que responde con fluidez, empatía y constancia puede ser percibido como una voz de autoridad o incluso una figura de compañía emocional. En el caso de personas jóvenes, adultos mayores o pacientes con condiciones de salud mental, esa percepción puede llevar a decisiones críticas sin que exista un filtro humano.

Aquí aparece un riesgo estructural: la IA no distingue con suficiente sensibilidad entre un usuario que hace preguntas técnicas y otro que pide ayuda en medio de una crisis personal. Para las empresas, esto significa que no basta con advertencias legales o mensajes de “no soy un profesional de la salud”; se requieren protocolos activos que detecten señales de peligro y redirijan a recursos reales de apoyo.

Y es que, según la American Psychological Association, la interacción prolongada con chatbots puede generar una “ilusión de reciprocidad”, donde los usuarios atribuyen intenciones humanas a la máquina, lo que aumenta la probabilidad de seguir sus recomendaciones sin cuestionarlas.

Lo que este caso refleja es un hecho recurrente cotidiano y muy común en donde usuarios confían en la IA para tomar decisiones muy personales, donde evalúan si seguir en una relación o incluso también enfrentan dilemas profesionales o emocionales, lo que deja en claro que millones de personas están transformando a ChatGPT en un confidente silencioso, ya se ha visto que incluso hay quienes usan estas herramientas como una opción psicológica o hasta médica.

La postura de OpenAI

Este tipo de casos cada vez más comunes no han pasado desapercibidos para OpenAI, empresa creadora del sistema, que recientemente anunció un replanteamiento de sus mecanismos ante la creciente presión ética. En lugar de ofrecer respuestas cerradas a preguntas delicadas como “¿debo terminar mi relación?”, la plataforma busca ahora guiar reflexiones, promover el pensamiento crítico y evitar intervenir directamente en decisiones que pueden marcar la vida de una persona.

Con esta nueva visión, OpenAI quiere dejar de ser una especie de “oráculo moderno” y posicionarse como una herramienta de acompañamiento, no de sustitución.

En un comunicado de la empresa se mencionó que, no siempre acertan. A principios de este año, una actualización hizo que el modelo fuera demasiado complaciente, y en ocasiones decía cosas que sonaban bien en lugar de lo que realmente era útil, “Lo revertimos, cambiamos la forma en que utilizamos los comentarios y estamos mejorando la forma en que medimos la utilidad real a largo plazo, no solo si te gustó la respuesta en ese momento”.

Todo esto se dio a conocer a raíz de la demanda por lo que probablemente fue una contestación indirecta al caso del joven que murió.

Y es que, también se han percatado de que la IA puede parecer más receptiva y personal que las tecnologías anteriores, especialmente para las personas vulnerables que están pasando por angustias mentales o emocionales, “Para nosotros, ayudarte a prosperar significa estar ahí cuando lo necesitas, ayudarte a mantener el control de tu tiempo y guiarte, sin decidir por ti, cuando te enfrentas a retos personales”.

 

 

 

 

Ahora lee: 

La estrategia de McDonald’s para conquistar a Gen Z y millennials es ofrecer más proteína

Cómo China prepara el terreno para que sus marcas dominen los mercados internacionales

Pokémon y Labubus exhiben el lado oscuro de los kiddults en el mercado de coleccionables

 

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.

Revista Merca2.0
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.