-
Un 67% de usuarios usan IA como ChatGPT para resolver dudas personales, educativas o emocionales, tratándola como un “confidente digital”, refiere Pew Research Center.
-
1 de cada 3 jóvenes entre 18 y 34 años ha usado IA como apoyo emocional o para hablar de temas personales delicados, de acuerdo con los datos de APA.
-
Según los datos del estudio “Artificial Intelligence Index Report 2023”, publicado por la Universidad de Stanford, Estados Unidos es el principal mercado del mundo que ha invertido en la IA.
Cuando el primer ministro de Suecia, Ulf Kristersson, reconoció públicamente que recurre a ChatGPT y otras plataformas de inteligencia artificial para obtener una “segunda opinión” en su labor política, desató una polémica a nivel mundial y también puso sobre la mesa una pregunta importante sobre el liderazgo moderno. ¿Qué significa gobernar en una era donde las decisiones humanas están cada vez más influenciadas por sistemas no humanos? Esto debido a que confesó que no sólo él es quien lo hace, sino también los integrantes de su equipo de trabajo.
El primer ministro Sueco, Ulf Kristersson, admite que cuando necesita una “segunda opinión” se la pide a ChatGPT.
Kristersson ha provocado un enfado general en la sociedad sueca donde muchos dicen que no votaron al programa de inteligencia artificial para que gobernase el país. pic.twitter.com/LDwUUfzeBm— 🅿️🅰️🅿️🆄®️®️1️⃣🅿️🅾️🅿️ (@p4purrip0p) August 7, 2025
El caso no gira únicamente en torno al uso de herramientas como ChatGPT o la francesa LeChat, sino en lo que representa, ya que es una creciente dependencia de sistemas que procesan información, pero lo que alarma es que no tienen responsabilidad moral. Aunque Ulf Kristersson aclaró que no se trata de una herramienta para sustituir decisiones clave, sino para enriquecer el proceso, expertos en seguridad digital, como Simone Fischer-Hübner de la Universidad de Karlstad, explicaron sobre dos riesgos fundamentales, donde el principal es la inexactitud de las respuestas y la posibilidad de que datos sensibles se utilicen para entrenar a los modelos y reaparezcan en futuras interacciones, ante hackers lo que podría representar un riesgo grave para el país.
También lee: OpenAI, Google y Anthropic entran a la lista federal como proveedores ¿cómo influye en la confianza de las marcas?
Pero más allá del sector político, lo que este caso refleja es un hecho recurrente cotidiano y muy común en donde usuarios confían en la IA para tomar decisiones muy personales, donde evalúan si seguir en una relación o incluso también enfrentan dilemas profesionales o emocionales, lo que deja en claro que millones de personas están transformando a ChatGPT en un confidente silencioso, ya se ha visto que incluso hay quienes usan estas herramientas como una opción psicológica o hasta médica.
La postura de OpenAI
Este tipo de casos cada vez más comunes no han pasado desapercibidos para OpenAI, empresa creadora del sistema, que recientemente anunció un replanteamiento de sus mecanismos ante la creciente presión ética. En lugar de ofrecer respuestas cerradas a preguntas delicadas como “¿debo terminar mi relación?”, la plataforma busca ahora guiar reflexiones, promover el pensamiento crítico y evitar intervenir directamente en decisiones que pueden marcar la vida de una persona.
Con esta nueva visión, OpenAI quiere dejar de ser una especie de “oráculo moderno” y posicionarse como una herramienta de acompañamiento, no de sustitución.
En un comunicado de la empresa se mencionó que, no siempre acertan. A principios de este año, una actualización hizo que el modelo fuera demasiado complaciente, y en ocasiones decía cosas que sonaban bien en lugar de lo que realmente era útil, “Lo revertimos, cambiamos la forma en que utilizamos los comentarios y estamos mejorando la forma en que medimos la utilidad real a largo plazo, no solo si te gustó la respuesta en ese momento”.
También se han percatado de que la IA puede parecer más receptiva y personal que las tecnologías anteriores, especialmente para las personas vulnerables que están pasando por angustias mentales o emocionales, “Para nosotros, ayudarte a prosperar significa estar ahí cuando lo necesitas, ayudarte a mantener el control de tu tiempo y guiarte, sin decidir por ti, cuando te enfrentas a retos personales”.
“Nuestro objetivo no es acaparar tu atención, sino ayudarte a aprovecharla bien. En lugar de medir el éxito por el tiempo que pasas en la aplicación o por los clics que haces, nos importa más que obtengas lo que buscas del producto.
También prestamos atención al hecho de si regresas a diario, semanalmente o mensualmente, ya que eso demuestra que ChatGPT es lo suficientemente útil como para volver a utilizarlo.
Nuestros objetivos coinciden con los tuyos. Si ChatGPT te ayuda de verdad, querrás que haga más por ti y decidirás suscribirte a largo plazo”, se lee en el comunicado de la empresa.
Lo ocurrido en Suecia no se trata solo de un político que consulta a una IA, sino de una sociedad entera que necesita redefinir los límites entre lo que debe decidirse con lógica de máquina y lo que aún pertenece, irrenunciablemente, al juicio humano.
De acuerdo con proyecciones de Gartner, se proyecta que para 2026, más del 30% de las decisiones personales y empresariales estarán influenciadas directamente por asistentes impulsados por IA.
Ahora lee:
Bumble registra caída y demuestra cómo la Gen Z se aleja de las apps de citas
McDonald’s regresa su publicidad con Ronald McDonald para reconectar con sus consumidores
Cómo Apple lleva a cabo el “Programa de manufactura estadounidense”