Suscríbete a Merca2.0. Haz clic aquí

ARTÍCULO EXCLUSIVO PARA SUSCRIPTORES

Estafas de ChatGPT y riesgos a evitar

Con el crecimiento de la tecnología de inteligencia artificial, como ChatGPT, también surgen preocupaciones sobre posibles estafas y riesgos asociados.

Con el crecimiento de la tecnología de inteligencia artificial, como ChatGPT, también surgen preocupaciones sobre posibles estafas y riesgos asociados. Aunque esta herramienta ofrece una amplia gama de beneficios, es importante estar consciente de ciertos riesgos y aprender a evitarlos para protegerse a sí mismo y a su información personal.

De acuerdo a datos del Centro Nacional de Análisis Criminal (Cenacrim), la Inteligencia Artificial ha estado presente en diversos fraudes a través de llamadas telefónicas.

La investigación destaca que el término vishing, alude a un tipo de estafa que se realiza a través de llamadas telefónicas. Se estima que las pérdidas globales por vishing ascendieron a 12 mil 500 millones de dólares, y, se prevé que esta cifra aumente en los próximos años, ya que la IA continúa desarrollándose y se vuelve más accesible.

Estafas de ChatGPT

Una de las estafas más comunes involucra la suplantación de identidad. Los estafadores pueden hacerse pasar por ChatGPT para engañar a los usuarios y solicitar información confidencial, como contraseñas o detalles financieros. Para evitar caer en este tipo de estafas, es importante recordar que ChatGPT nunca solicitará información personal o confidencial. Si recibes solicitudes inusuales o sospechosas, desconfía y no compartas información sensible.

Otra estafa potencial es el phishing, donde los estafadores utilizan enlaces maliciosos para robar información personal o infectar dispositivos con malware. Es importante tener cuidado al hacer clic en enlaces proporcionados por ChatGPT y verificar la autenticidad de los sitios web antes de ingresar información personal. Siempre verifica la URL del sitio web y evita proporcionar información confidencial a través de enlaces no verificados.

Además, es importante estar atento a posibles intentos de manipulación emocional por parte de los estafadores. Pueden intentar ganarse la confianza de los usuarios utilizando tácticas de persuasión o manipulación para obtener información personal o financiera. Mantente alerta y no compartas información sensible con desconocidos, incluso si parecen ser amigables o confiables.

Los riesgos

De acuerdo a una investigación de Norton, las cosas clave que se necesita saber sobre la seguridad de ChatGPT, explora sobre los riesgos de seguridad que pueden existir y ofrece algunos consejos para usar ChatGPT de manera segura.

Con la proliferación de la inteligencia artificial (IA), surgen nuevos desafíos en el ámbito de la ciberseguridad. Si bien la IA ofrece numerosos beneficios, también puede ser aprovechada por los ciberdelincuentes para perpetrar diversas formas de ataques. Aquí examinaremos algunos riesgos emergentes en ciberseguridad asociados a la inteligencia artificial y cómo pueden impactar la seguridad en línea.

  • Filtraciones de datos

Una violación de datos ocurre cuando información confidencial se expone sin autorización, poniendo en riesgo la privacidad y seguridad de los individuos. Con la creciente popularidad de las interacciones con sistemas de IA como ChatGPT, existe el riesgo de que datos sensibles compartidos durante conversaciones puedan ser comprometidos, lo que podría resultar en robo de identidad u otros tipos de fraude.

  • Phishing potenciado por IA

El phishing es una táctica comúnmente utilizada por ciberdelincuentes para engañar a las personas y obtener información confidencial. Tradicionalmente, los signos reveladores como la mala ortografía o gramática ayudaban a identificar correos electrónicos de phishing. Sin embargo, la IA ahora puede ser empleada para generar correos electrónicos de phishing altamente realistas, lo que dificulta su detección y aumenta el riesgo de caer en la trampa.

  • Desarrollo de malware

El malware es una amenaza persistente en el mundo digital, utilizado por ciberdelincuentes para comprometer sistemas informáticos y redes. Los piratas informáticos pueden aprovechar la IA, como ChatGPT, para escribir o mejorar el código de malware, lo que dificulta su detección y defensa por parte de los sistemas de seguridad.

  • Catfishing y suplantación de identidad

El catfishing implica la creación de identidades falsas en línea para engañar a otros con fines maliciosos. Con habilidades avanzadas de suplantación de identidad, los piratas informáticos pueden utilizar la IA para crear conversaciones más realistas y persuadir a las víctimas para que compartan información sensible o participen en actividades fraudulentas.

  • Desinformación y alucinación

La capacidad de la IA para generar contenido humanoide también presenta riesgos, ya que puede ser utilizada para difundir desinformación y crear contenido falso convincente. Esto puede contribuir a la propagación de noticias falsas y aumentar la confusión entre los usuarios en línea.

  • Whaling y ataques a personas de alto perfil

El whaling es un tipo de ataque dirigido a individuos de alto perfil, como ejecutivos o funcionarios de alto rango en organizaciones. La IA puede utilizarse para crear correos electrónicos realistas que eludan los filtros de seguridad y persuadan a las víctimas a realizar acciones perjudiciales, como revelar información confidencial o transferir fondos.

En resumen, si bien la inteligencia artificial ofrece numerosos beneficios, también presenta riesgos potenciales de estafa. Al mantenerse informado y vigilante, puedes protegerte contra estas estafas y disfrutar de una experiencia segura en la era de la tecnología de IA.

LEER MÁS:

Marketing verde, la alternativa más comprometida socialmente

Crecimiento de la publicidad nativa y contenido patrocinado en el mundo digital

La seguridad energética como factor clave para el voto

Otros artículos exclusivos para suscriptores

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.