OpenAI, la empresa detrás de ChatGPT, anunció que lanzará un nuevo conjunto de controles parentales “dentro del próximo mes”, en medio de la creciente presión pública y legal tras una serie de casos trágicos que han puesto en tela de juicio la seguridad de los chatbots de inteligencia artificial.
El anuncio llega después de que la semana pasada salieran a la luz dos historias que conmocionaron a la opinión pública. En Noruega, Stein-Erik Soelberg, un veterano de la industria tecnológica de 56 años, asesinó a su madre de 83 años antes de suicidarse, convencido —según su familia— de delirios paranoicos que ChatGPT habría reforzado. En un intercambio, el chatbot supuestamente le dijo que estaría “con él hasta el último aliento y más allá”.
En Estados Unidos, la familia de Adam Raine, un joven de 16 años en California, demandó a OpenAI tras alegar que ChatGPT le ofreció un “manual paso a paso” para quitarse la vida, incluso elogiando su plan como “hermoso”. Adam murió el pasado 11 de abril.
La respuesta de OpenAI
Ante eso Sam Altman, CEO de OpenAI, aseguró que la compañía trabaja en nuevas funciones de soporte, entre ellas: Controles que permitan a los padres vincular sus cuentas con las de sus hijos adolescentes, restricciones de conversación según la edad y alertas automáticas cuando el sistema detecte que un menor atraviesa una crisis emocional grave.
“Estos pasos son solo el comienzo”, afirmó la compañía en un comunicado. “Seguiremos reforzando nuestro enfoque guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible”.
No obstante, el anuncio ha sido recibido con críticas. Jay Edelson, abogado de la familia Raine, señaló que la empresa debería retirar inmediatamente ChatGPT del mercado. “En lugar de tomar medidas de emergencia para retirar un producto peligroso, OpenAI hizo vagas promesas de hacerlo mejor”, dijo en un comunicado.
Una industria bajo la lupa
La polémica no es exclusiva de OpenAI. El año pasado, un adolescente de 14 años en Florida se quitó la vida tras involucrarse emocionalmente con un chatbot de Character.AI, inspirado en personajes de Game of Thrones.
Meta, por su parte, enfrenta una investigación en el Senado de Estados Unidos luego de que se filtrara un documento interno en el que se revelaba que sus chatbots podían sostener conversaciones de carácter “romántico o sensual” con menores de edad. Entre los casos registrados, un bot llegó a decirle a un niño de ocho años sin camiseta que “cada centímetro de tu cuerpo es una obra maestra”. La compañía afirma que ya modificó esas directrices.
Asimismo, OpenAI asegura que ha convocado a un “consejo de expertos en bienestar e IA” para diseñar una estrategia integral que atienda las preocupaciones de seguridad en un plazo de 120 días. Sin embargo, críticos como Edelson advierten que se trata de una táctica de contención mediática y no de una solución real al problema de fondo.
La situación refleja un desafío creciente para toda la industria: cómo equilibrar la innovación con la responsabilidad ética, especialmente cuando los chatbots ya forman parte de la vida cotidiana de millones de adolescentes y adultos en todo el mundo.
Ahora lee:
¿Por qué se dividió Kraft Heinz? Lo que esto significa para la industria
Disney pagará 10 millones de dólares para resolver demanda en EEUU
Compras escolares digitales suben 50% en agosto por la demanda de último minuto