-
Un estudio de Pew Research Center sobre actitudes hacia la inteligencia artificial en EE.UU. encontró que el 38% de los usuarios tienden a confiar en la IA más de lo que deberían, especialmente en contextos de salud o finanzas.
-
Datos de la National Institute of Mental Health señalan que los adolescentes y adultos mayores son los grupos más propensos a buscar compañía en entornos digitales, lo que los hace más susceptibles a la influencia de sistemas conversacionales.
-
1 de cada 3 jóvenes entre 18 y 34 años ha usado IA como apoyo emocional o para hablar de temas personales delicados, de acuerdo con los datos de APA.

La reciente demanda presentada por los padres de Adam Raine, un adolescente de 16 años que falleció en California, ha puesto en evidencia una vez más la necesidad urgente de garantizar la seguridad de los usuarios en plataformas de inteligencia artificial (IA) como ChatGPT que es una de las más usadas a diario. La familia acusa a OpenAI y a su CEO, Sam Altman, de no activar protocolos de seguridad ante señales de autolesión detectadas en las interacciones de su hijo con el chatbot.
Según la denuncia, ChatGPT no solo normalizó las ideas suicidas de Adam, sino que incluso desaconsejó que buscara ayuda profesional. El abogado de la familia, Jay Edelson, argumenta que este caso pone en evidencia hasta qué punto OpenAI y Altman se apresuraron a comercializar la versión GPT–4o de su modelo de IA, a pesar de las advertencias sobre sus limitaciones en temas sensibles. Es por ello que la demanda acusa a la compañía de negligencia y de priorizar el crecimiento económico por encima de la seguridad de los usuarios.
🇺🇸‼️ | Los padres de un adolescente de 16 años demandan a OpenAI alegando que ChatGPT le dio instrucciones paso a paso para quitarse la vida. Afirman que la IA se convirtió en su “único confidente”, alejándolo de su familia y seres queridos.pic.twitter.com/1b2LzeU6GC
— UHN Plus (@UHN_Plus) August 27, 2025
Cabe destacar que la familia anunció que está haciendo esto con la finalidad de evitar que más familias pasen por un caso similar al suyo.
Today we filed a wrongful death suit against OpenAI and Sam Altman for a family whose 16-yr-old son Adam died by suicide after months of encouragement from ChatGPT. His parents are bravely fighting to prevent this from ever happening again. AI should never tell a child they don’t… pic.twitter.com/ikeJBi5iIl
— Jay Edelson (@jayedelson) August 26, 2025
Este incidente no es aislado y por más perturbador que suene, la IA ya está poniendo en peligro muchas vidas a nivel mundial. En Nueva Jersey, un hombre de 76 años falleció tras intentar encontrarse en persona con un chatbot de Meta, que lo había convencido de que se trataba de una mujer real y terminó por morir debido a una caída mientras intentaba conocer a una mujer ficticia. Además, OpenAI también enfrenta un incidente serio donde un hombre de 60 años siguió durante meses la recomendación de ChatGPT de sustituir la sal común por bromuro de sodio, provocando una intoxicación severa que lo llevó al hospital.
También lee: Meta y OpenAI enfrentan los primeros casos de muerte y daños causados por la IA
La influencia de los sistemas de IA no se limita a la precisión de sus respuestas. Su poder radica en la manera en que generan confianza y cercanía con los usuarios. Un chatbot que responde con fluidez, empatía y constancia puede ser percibido como una voz de autoridad o incluso una figura de compañía emocional. En el caso de personas jóvenes, adultos mayores o pacientes con condiciones de salud mental, esa percepción puede llevar a decisiones críticas sin que exista un filtro humano.
Aquí aparece un riesgo estructural: la IA no distingue con suficiente sensibilidad entre un usuario que hace preguntas técnicas y otro que pide ayuda en medio de una crisis personal. Para las empresas, esto significa que no basta con advertencias legales o mensajes de “no soy un profesional de la salud”; se requieren protocolos activos que detecten señales de peligro y redirijan a recursos reales de apoyo.
Y es que, según la American Psychological Association, la interacción prolongada con chatbots puede generar una “ilusión de reciprocidad”, donde los usuarios atribuyen intenciones humanas a la máquina, lo que aumenta la probabilidad de seguir sus recomendaciones sin cuestionarlas.
Lo que este caso refleja es un hecho recurrente cotidiano y muy común en donde usuarios confían en la IA para tomar decisiones muy personales, donde evalúan si seguir en una relación o incluso también enfrentan dilemas profesionales o emocionales, lo que deja en claro que millones de personas están transformando a ChatGPT en un confidente silencioso, ya se ha visto que incluso hay quienes usan estas herramientas como una opción psicológica o hasta médica.
La postura de OpenAI
Este tipo de casos cada vez más comunes no han pasado desapercibidos para OpenAI, empresa creadora del sistema, que recientemente anunció un replanteamiento de sus mecanismos ante la creciente presión ética. En lugar de ofrecer respuestas cerradas a preguntas delicadas como “¿debo terminar mi relación?”, la plataforma busca ahora guiar reflexiones, promover el pensamiento crítico y evitar intervenir directamente en decisiones que pueden marcar la vida de una persona.
Con esta nueva visión, OpenAI quiere dejar de ser una especie de “oráculo moderno” y posicionarse como una herramienta de acompañamiento, no de sustitución.
En un comunicado de la empresa se mencionó que, no siempre acertan. A principios de este año, una actualización hizo que el modelo fuera demasiado complaciente, y en ocasiones decía cosas que sonaban bien en lugar de lo que realmente era útil, “Lo revertimos, cambiamos la forma en que utilizamos los comentarios y estamos mejorando la forma en que medimos la utilidad real a largo plazo, no solo si te gustó la respuesta en ese momento”.
Todo esto se dio a conocer a raíz de la demanda por lo que probablemente fue una contestación indirecta al caso del joven que murió.
Y es que, también se han percatado de que la IA puede parecer más receptiva y personal que las tecnologías anteriores, especialmente para las personas vulnerables que están pasando por angustias mentales o emocionales, “Para nosotros, ayudarte a prosperar significa estar ahí cuando lo necesitas, ayudarte a mantener el control de tu tiempo y guiarte, sin decidir por ti, cuando te enfrentas a retos personales”.
Ahora lee:
La estrategia de McDonald’s para conquistar a Gen Z y millennials es ofrecer más proteína
Cómo China prepara el terreno para que sus marcas dominen los mercados internacionales
Pokémon y Labubus exhiben el lado oscuro de los kiddults en el mercado de coleccionables