Suscríbete a Merca2.0. Haz clic aquí

Elon Musk lleva Grok al gobierno de EE.UU: alertas por privacidad y seguridad

Cómo el equipo DOGE de Elon Musk utiliza Grok AI en el gobierno de EE.UU. para analizar datos, generando alarmas por privacidad, seguridad y conflictos de interés. 

elon musk grok xAI OpenAI

  • Equipo DOGE de Elon Musk expande uso de Grok AI para analizar datos en gobierno federal de EE.UU..
  • Preocupaciones sobre privacidad y seguridad por manejo de datos sensibles de millones de estadounidenses con Grok.
  • Expertos señalan potenciales conflictos de interés para Elon Musk y xAI por el uso de Grok en contratos federales.

 

El equipo de DOGE (Department of Government Efficiency), el organismo estatal liderado por el multimillonario Elon Musk, usa el chatbot de inteligencia artificial Grok dentro del gobierno de Estados Unidos para analizar datos.

La situación, denunciada este viernes 23 de mayo por Reuters, preocupa por las potenciales violaciones a leyes vinculadas con la protección de la información privada de millones de estadounidenses.

El uso de Grok por parte de DOGE está generando más dudas sobre cómo se protegen los datos sensibles de los habitantes, en un momento en que el presidente Donald Trump está realizando ajustes en las agencias del gobierno.

Según Reuters, el equipo de Musk está empleando una versión adaptada del chatbot Grok para examinar datos bajo la excusa de hacerlo con mayor eficiencia.

Grok es una herramienta desarrollada por xAI, una operación tecnológica que Musk lanzó en 2023 en su plataforma de redes sociales, X.

¿Grok se entrena con datos confidenciales?

Cinco especialistas en tecnología y ética gubernamental le dijeron a Reuters que si los datos analizados fueran información gubernamental sensible o confidencial, el uso de Grok podría contravenir leyes de seguridad y privacidad.

Los expertos también dicen que esto podría otorgar al CEO de Tesla y SpaceX acceso a datos valiosos no públicos sobre contratos federales en agencias con las que tiene negocios privados.

Asimismo, se teme que la información pueda ser utilizada para ayudar a entrenar Grok, un proceso donde los modelos de IA analizan grandes volúmenes de datos.

Además, Musk podría obtener una ventaja competitiva injusta sobre otros proveedores de servicios de IA debido al uso de Grok en el gobierno federal.

Conflicto de interés

Además de utilizar Grok para su propio análisis de datos gubernamentales, personal de DOGE instruyó a funcionarios del Departamento de Seguridad Nacional (DHS) durante los últimos dos meses a usar Grok, a pesar de que no había sido aprobado para su uso en esa agencia.

El DHS se ocupa, entre otras cosas, de la seguridad fronteriza, la aplicación de leyes de inmigración, la ciberseguridad y otras funciones delicadas de seguridad nacional en Estados Unidos.

Las fuentes indicaron que si los empleados federales reciben acceso oficial a Grok para ese uso, el gobierno federal tendría que pagar a la organización de Musk por el acceso.

Una de las fuentes le dijo a Reuters que el objetivo es que se use Grok en todo el gobierno.

Reuters no pudo establecer si el gobierno está pagando o cobrando por el uso de Grok, ni si los trabajadores del DHS siguieron la directiva del personal de DOGE o la ignoraron.

Cabe destacar que el DHS, bajo la administración de Biden, ya había implementado políticas que permitían a su personal usar plataformas de IA, entre ellas, ChatGPT de OpenAI, el chatbot Claude desarrollado por Anthropic y una herramienta de IA llamada Grammarly.

También crearon un chatbot interno del DHS. La finalidad era que el DHS fuera una de las primeras agencias federales en adoptar esta tecnología y emplear IA generativa para tareas complejas.

Cambios

De acuerdo con las políticas de ese momento, el personal podía usar los bots comerciales para datos no sensibles o no confidenciales, mientras que el bot interno del DHS podía procesar datos más sensibles.

Luego, las autoridades del DHS suspendieron el acceso de los empleados a todas las herramientas comerciales de IA -incluido ChatGPT- después de que se sospechara que los trabajadores las usaban de manera indebida con datos sensibles.

Ahora lee:

Lay’s y TBWA exploran el miedo cultural a cocinar en su última campaña

Esta marca quiere al teléfono lejos de la mesa familiar: así es la campaña “saca el móvil de la cena”

Disney se anticipó al estreno de Lilo & Stitch (2025): qué puede aprender Bandana de una estrategia de lanzamiento

 

SUSCRÍBETE A NUESTROS CONTENIDOS EN GOOGLE NEWS

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.

Revista Merca2.0
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.