-
DeepSeek es una plataforma de inteligencia artificial emergente de origen chino que ha ganado popularidad por su análisis de datos avanzado y su modelo competitivo.
-
Es de código abierto, lo que permite que los usuarios modifiquen y personalicen el software.
-
El jailbreaking es un desafío de seguridad para los modelos de IA, especialmente los LLM.
DeepSeek, la emergente plataforma de inteligencia artificial de origen chino, ha ganado popularidad por su enfoque innovador y código abierto, que permite a desarrolladores e investigadores personalizar el software según sus necesidades. A pesar de su avance en el análisis de datos y su creciente presencia en el mercado, un reciente estudio de Unit 42 de Palo Alto Networks ha señalado serias preocupaciones de seguridad, revelando que DeepSeek es vulnerable al jailbreak, lo que podría dar acceso a actores maliciosos para generar contenido peligroso sin experiencia técnica avanzada.
Y es que, el jailbreak es un proceso que permite a los usuarios de dispositivos con sistemas operativos restringidos acceder a áreas del sistema que normalmente están bloqueadas, lo que les da la libertad de instalar aplicaciones y ajustes no oficiales. Aunque este proceso ofrece personalización y control adicional, también puede exponer los dispositivos a riesgos de seguridad, como la instalación de software malicioso. Además, realizar un jailbreak puede invalidar la garantía del dispositivo y dificultar la instalación de futuras actualizaciones del sistema operativo.
A pesar de las mejoras de seguridad en las versiones recientes del sistema operativo, el jailbreak sigue siendo una práctica popular entre los usuarios avanzados. Sin embargo, su uso ha disminuido con el tiempo, ya que las actualizaciones del sistema han incorporado más funciones de personalización. Según datos de 2009, solo el 9,5% de los dispositivos en uso tenían el jailbreak aplicado, lo que refleja su popularidad en ese momento, según lo referido por Applesfera.
DeepSeek es vulnerable al jailbreak, según estudio
Según los hallazgos de la investigación, dos técnicas de jailbreak, “Deceived Delight” y “Bad Likert Judge”, han mostrado tasas de éxito alarmantes al eludir las restricciones de seguridad de los modelos de DeepSeek. Estos métodos, junto con una técnica adicional llamada “Crescendo”, permitieron a los investigadores generar contenido malicioso, incluidos programas de exfiltración de datos y herramientas para la creación de dispositivos incendiarios. Este tipo de vulnerabilidades podría abrir la puerta a ciberataques y delitos cibernéticos más sofisticados.
“Los resultados de nuestra investigación muestran que estos métodos de jailbreak pueden generar instrucciones explícitas para actividades maliciosas, como herramientas de exfiltración de datos, creación de keyloggers e incluso instrucciones para dispositivos incendiarios, lo que demuestra los riesgos de seguridad tangibles que plantea esta clase emergente de ataque.
Si bien puede resultar complicado garantizar una protección completa contra todas las técnicas de jailbreaking para un LLM específico, las organizaciones pueden implementar medidas de seguridad que ayuden a monitorear cuándo y cómo los empleados usan los LLM. Esto se vuelve crucial cuando los empleados usan LLM de terceros no autorizados”, se lee en la investigación.
La popularidad de DeepSeek se basa en su accesibilidad, ya que cualquier usuario puede acceder a su código desde GitHub, lo que permite modificar y adaptar la plataforma para fines comerciales o académicos. Sin embargo, esta misma flexibilidad se ha convertido en una debilidad, ya que la transparencia en su código fuente facilita la explotación por parte de quienes buscan evadir sus restricciones de seguridad.
La investigación destaca que la creciente disponibilidad de modelos de lenguaje grande (LLM) con restricciones insuficientes podría reducir las barreras para los actores maliciosos, acelerando la ejecución de actividades ilícitas. Aunque la creación de contenido peligroso no es nueva, la capacidad de DeepSeek para generar instrucciones detalladas sobre técnicas de ataque aumenta significativamente los riesgos de seguridad.
Este estudio también subraya la importancia de implementar medidas de seguridad robustas para mitigar los peligros de los jailbreaks en plataformas de IA. A pesar de que la protección completa contra todas las técnicas de elusión puede ser desafiante, las organizaciones pueden adoptar estrategias de monitoreo para vigilar el uso de estos modelos por parte de empleados, particularmente cuando se usan plataformas de terceros no autorizadas.
Ahora lee:
Robótica, IA y sustentabilidad dominarán el mantenimiento industrial, refiere estudio
IA aumentará el 40% de productividad empresarial, según estudio
Publicidad auditiva escalaría a su cúspide; según estudio