- Equipo DOGE de Elon Musk expande uso de Grok AI para analizar datos en gobierno federal de EE.UU..
- Preocupaciones sobre privacidad y seguridad por manejo de datos sensibles de millones de estadounidenses con Grok.
- Expertos señalan potenciales conflictos de interés para Elon Musk y xAI por el uso de Grok en contratos federales.
El equipo de DOGE (Department of Government Efficiency), el organismo estatal liderado por el multimillonario Elon Musk, usa el chatbot de inteligencia artificial Grok dentro del gobierno de Estados Unidos para analizar datos.
La situación, denunciada este viernes 23 de mayo por Reuters, preocupa por las potenciales violaciones a leyes vinculadas con la protección de la información privada de millones de estadounidenses.
El uso de Grok por parte de DOGE está generando más dudas sobre cómo se protegen los datos sensibles de los habitantes, en un momento en que el presidente Donald Trump está realizando ajustes en las agencias del gobierno.
Según Reuters, el equipo de Musk está empleando una versión adaptada del chatbot Grok para examinar datos bajo la excusa de hacerlo con mayor eficiencia.
Grok es una herramienta desarrollada por xAI, una operación tecnológica que Musk lanzó en 2023 en su plataforma de redes sociales, X.
¿Grok se entrena con datos confidenciales?
Cinco especialistas en tecnología y ética gubernamental le dijeron a Reuters que si los datos analizados fueran información gubernamental sensible o confidencial, el uso de Grok podría contravenir leyes de seguridad y privacidad.
Los expertos también dicen que esto podría otorgar al CEO de Tesla y SpaceX acceso a datos valiosos no públicos sobre contratos federales en agencias con las que tiene negocios privados.
Asimismo, se teme que la información pueda ser utilizada para ayudar a entrenar Grok, un proceso donde los modelos de IA analizan grandes volúmenes de datos.
Además, Musk podría obtener una ventaja competitiva injusta sobre otros proveedores de servicios de IA debido al uso de Grok en el gobierno federal.
Conflicto de interés
Además de utilizar Grok para su propio análisis de datos gubernamentales, personal de DOGE instruyó a funcionarios del Departamento de Seguridad Nacional (DHS) durante los últimos dos meses a usar Grok, a pesar de que no había sido aprobado para su uso en esa agencia.
El DHS se ocupa, entre otras cosas, de la seguridad fronteriza, la aplicación de leyes de inmigración, la ciberseguridad y otras funciones delicadas de seguridad nacional en Estados Unidos.
Las fuentes indicaron que si los empleados federales reciben acceso oficial a Grok para ese uso, el gobierno federal tendría que pagar a la organización de Musk por el acceso.
Una de las fuentes le dijo a Reuters que el objetivo es que se use Grok en todo el gobierno.
Reuters no pudo establecer si el gobierno está pagando o cobrando por el uso de Grok, ni si los trabajadores del DHS siguieron la directiva del personal de DOGE o la ignoraron.
Cabe destacar que el DHS, bajo la administración de Biden, ya había implementado políticas que permitían a su personal usar plataformas de IA, entre ellas, ChatGPT de OpenAI, el chatbot Claude desarrollado por Anthropic y una herramienta de IA llamada Grammarly.
También crearon un chatbot interno del DHS. La finalidad era que el DHS fuera una de las primeras agencias federales en adoptar esta tecnología y emplear IA generativa para tareas complejas.
Cambios
De acuerdo con las políticas de ese momento, el personal podía usar los bots comerciales para datos no sensibles o no confidenciales, mientras que el bot interno del DHS podía procesar datos más sensibles.
Luego, las autoridades del DHS suspendieron el acceso de los empleados a todas las herramientas comerciales de IA -incluido ChatGPT- después de que se sospechara que los trabajadores las usaban de manera indebida con datos sensibles.
Ahora lee:
Lay’s y TBWA exploran el miedo cultural a cocinar en su última campaña