Suscríbete a Merca2.0. Haz clic aquí

ChatGPT anuncia controles parentales tras un caso trágico que conmocionó a familias

Con esta estrategia, la compañía busca no solo contener la crisis reputacional derivada del caso en California, sino también reforzar la confianza en una herramienta que ha transformado la manera en que millones interactúan.

OpenAI anunció que incorporará controles parentales en ChatGPT, en un intento por ofrecer a las familias nuevas herramientas de supervisión frente al creciente uso que adolescentes hacen del popular chatbot. La medida surge en un contexto marcado por fuertes cuestionamientos: la empresa y su director ejecutivo, Sam Altman, enfrentan una demanda en California tras la muerte de un joven de 16 años que, según la acusación, habría recibido respuestas inapropiadas de la inteligencia artificial que lo alentaron a atentar contra su vida.

El caso ha puesto en el centro del debate la relación entre tecnología, salud mental y responsabilidad corporativa. Con más de 700 millones de usuarios activos hasta agosto de 2025, ChatGPT no solo se ha consolidado como asistente de redacción, diseño o búsqueda de información, sino también como un “acompañante digital” para quienes lo utilizan en conversaciones sensibles, incluyendo temas de bienestar emocional. Esta dimensión del uso de la herramienta es la que, según especialistas, representa un riesgo creciente.

Conversaciones de alto riesgo

Si bien OpenAI afirma contar con filtros de seguridad capaces de identificar a usuarios en crisis y remitirlos a líneas de ayuda profesional, los resultados han mostrado inconsistencias. Estudios recientes en salud digital documentan que, en consultas relacionadas con el suicidio, los chatbots suelen recomendar recursos de apoyo en los casos más críticos, pero en situaciones ambiguas llegan a entregar información inapropiada o insuficiente.

El reportaje del New York Times sobre el caso de Adam Raine, el adolescente fallecido en California, revela que logró eludir los filtros al disfrazar sus inquietudes como ejercicios escolares o literarios. Aunque ChatGPT le sugirió en varias ocasiones buscar ayuda profesional, la denuncia sostiene que la compañía falló en garantizar una protección efectiva: “No fue un error aislado, sino el resultado predecible de decisiones de diseño deliberadas”, señala la demanda.

Ante la presión pública y legal, OpenAI ha acelerado sus protocolos de seguridad. La empresa informó que trabaja con más de 90 médicos en 30 países, incluidos psiquiatras, pediatras y especialistas en salud mental, para mejorar sus modelos de intervención. Además, mantiene un equipo de revisión de casos de riesgo que puede derivar información a autoridades en situaciones de amenazas inminentes. No obstante, en casos de autolesión la empresa asegura priorizar la privacidad del usuario, lo que abre un dilema ético sobre los límites de la confidencialidad frente a la prevención de tragedias.

Otra de las mejoras presentadas es el desempeño de GPT-5, que según la compañía ha reducido en un 25 por ciento las respuestas inadecuadas en emergencias de salud mental respecto a versiones previas. También se trabaja en estandarizar los mensajes de referencia a profesionales y en mecanismos de “desescalamiento” de interacciones potencialmente peligrosas.

El anuncio más relevante es la implementación de controles parentales, una novedad en la política de la compañía. Estos permitirán a los padres designar un contacto de emergencia, al que ChatGPT podrá enlazar directamente a los adolescentes en momentos críticos. Con ello, OpenAI busca ofrecer un apoyo más tangible que las simples referencias a números de ayuda.

Hasta ahora, el uso de ChatGPT estaba limitado a mayores de 13 años, con autorización de un adulto hasta los 18, dependiendo de la normativa de cada país. Sin embargo, la empresa admite que dejar la supervisión enteramente en manos de padres y tutores ya no resulta suficiente.

Un dilema global

La medida llega en un momento en que gobiernos y organizaciones internacionales discuten la necesidad de regulaciones más estrictas sobre la inteligencia artificial en contextos de salud mental y protección infantil. Para expertos en tecnología y ética, el desafío es doble: garantizar la innovación sin comprometer la seguridad de los usuarios más vulnerables.

El éxito de los nuevos controles parentales será, sin duda, un indicador clave de si la industria puede responder de manera efectiva a los riesgos que ella misma ha generado.

Ahora lee:

Generative AI en publicidad: ¿qué esperan la Gen Z y los Millennials? Así impacta la personalización en su gasto

Descubre en pleno regreso a clases los tenis Skechers con localizador para niños

Eggo launches new flavors of protein waffles and pancakes! Check them out!

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.

Revista Merca2.0
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.