Suscríbete a Merca2.0. Haz clic aquí

Así usan la Inteligencia Artificial para robar por medio de videollamadas

Tras la implementación de la Inteligencia Artificial han surgido también diversos robos o delitos de ciberdelincuentes que usan esta herramienta tecnológica.
  • En el 2020, se registraron en Estados Unidos, 791 mil 790 quejas de presuntos delitos en Internet.

  • Las pérdidas reportadas por ciberataques en Estados Unidos superan los 4,2 mil millones de dólares en el 2020.

  • El 56 por ciento de los ciberataques de los últimos años se han registrado en países de América Latina.

Los delitos cibernéticos son cada vez más comunes en el mundo conectado digitalmente en el que vivimos. Ante eso, se registra que la inteligencia artificial está siendo usada por los ciberdelincuentes como una herramienta para estafar a las personas, suplantando la identidad de sus familiares o amigos mediante videollamadas.

Los ciberataques son definidos por el portal digital de IBM, como intentos no deseados de robar, exponer, alterar, deshabilitar o destruir información mediante el acceso no autorizado a los sistemas informáticos.

En el 2020, este tipo de delitos registró 791 mil 790 quejas de presuntos delitos en Internet recibidas en Estados Unidos, según el Crime Complaint Center del FBI en el “Informe sobre delitos en Internet 2020”. Asimismo, se registró un aumento de más de 300 mil quejas desde 2019 y pérdidas reportadas que superan los 4,2 mil millones de dólares.

Por otra parte, el informe de Kaspersky Lab y Mundo en Línea reveló que casi el 56 por ciento de los ciberataques se han registrado en más países de América Latina como Brasil, México y Colombia.

Así usan la Inteligencia Artificial para robar

Tras la implementación de la Inteligencia Artificial han surgido también diversos robos o delitos de ciberdelincuentes que usan esta herramienta tecnológica.

Especialistas destacan que hasta ahora la clonación de voz es la táctica más fuerte, pero ahora evolucionó a las videollamadas.

Como el caso de la historia de un hombre en China que recibió una videollamada de su esposa por WeChat, ella le estaba pidiendo cerca de 3 mil 600 dólares porque había tenido un accidente de auto y debía solucionar la situación con el otro conductor.

De acuerdo a la historia difundida por medios locales, la llamada se realizó desde una cuenta diferente a la original de la mujer, ante el parecido físico, el hombre de 73 años cayó en la trampa y entregó el dinero, porque la persona que estaba del otro lado tenía un gran parecido con el de su esposa en su forma de hablar y tono de voz, pero en realidad era una imitación generada por IA.

Según las investigaciones del caso, los ciberdelincuentes estuvieron siguiendo a la pareja durante un tiempo, aprovechando que ella tenía un canal de creación de contenido sobre cocina, que es popular en China, y de ahí obtuvieron los datos para generar la imagen con IA en una modalidad que se conoce como deepfake.

Datos sobre este tipo de robos

Esta historia no es la única que ha evidenciado la problemática de la IA en este tipo de robos, ya que según reportes de The Washington Post, durante 2022 se presentaron 36 mil denuncias en Estados Unidos de personas que fueron engañadas a través de la clonación de voz.

De acuerdo a esa investigación, las llamadas han sido el principal método de estafa, porque los audios son un proceso de fácil creación en el que el atacante solo necesita tomar un par de frases de una persona para que el sistema aprenda sus patrones al hablar y su tono de voz.

Por su parte, en otros lugares del mundo, como en China este tipo de casos han generado preocupación, por lo que las autoridades han recomendado que “sean cautelosos al dar información biométrica y que se abstengan de compartir videos y otras imágenes de sí mismos en Internet”.

En ese sentido, las autoridades también han alertado que las estafas no sólo se hacen para llamar a un familiar y pedir dinero, sino que también se toman los rostros de personas famosos, al haber un alto contenido en video de ellos en internet, para generar deepfakes y promocionar productos.

Y es así, como cada vez las nuevas tecnologías también pueden ser usadas por personas malintencionadas para causar daños a terceros.

Ahora lee:

Logística, seasonal sales y Hot Sale: breves lecciones al respecto

Duolingo abre restaurante mexicano en EU

Primer día de trabajo: 3 kits de bienvenida

Obtén un més gratis a Merca2.0 premium

Cancela en cualquier momento
Acceso exclusivo a rankings y radiografías.
Análisis profundos y casos de estudio de éxito.
Historial de la revista impresa en formato digital.

¡Disfruta de lo mejor del marketing sin costo alguno por un mes!

Más de 150,000 mercadólogos inscritos en nuestros boletín de noticias diarias.

Premium

Populares

Únete a más de 150,000 lectores

Regístrate a nuestro newsletter en la siguiente forma y recibe a primera hora las noticias más importantes de mercadotecnia, publicidad y medios en tu correo.

Más de Merca2.0

Artículos relacionados

You don't have credit card details available. You will be redirected to update payment method page. Click OK to continue.