Con la inteligencia artificial (IA), los avances tecnológicos no solo están revolucionando industrias, también están reconfigurando el panorama de los fraudes y engaños. Ahora Airbnb se disculpó con una mujer después de que su anfitrión utilizara inteligencia artificial (IA) para afirmar que había causado daños por valor de miles de dólares.
Desde estafas financieras hasta videos falsos con celebridades, la IA está siendo empleada para crear contenidos ultrarrealistas que confunden, manipulan y generan pérdidas millonarias.
Según un informe de McAfee publicado en 2025, el 78 por ciento de los consumidores globales dicen no poder distinguir entre un contenido real y uno manipulado por IA. En América Latina, el 63 por ciento de los usuarios han recibido, al menos una vez, un mensaje o video con contenido falso generado por inteligencia artificial. México, Brasil y Argentina lideran la región en intentos de fraude relacionados con deepfakes y voces clonadas.
Así fue el caso de Airbnb con IA
Una grave acusación contra un anfitrión en Airbnb ha encendido las alarmas sobre el uso indebido de herramientas de inteligencia artificial (IA) en plataformas de economía colaborativa. Una mujer londinense que alquiló un departamento en Manhattan por medio de Airbnb denunció que su anfitrión manipuló imágenes con IA para acusarla de causar daños por más de 16 mil dólares. El caso, que salió a la luz tras una investigación del diario The Guardian, culminó con una disculpa pública por parte de Airbnb, el reembolso total del alquiler y una advertencia formal al anfitrión.
La situación ocurrió a principios de 2025, cuando la usuaria reservó por dos meses y medio un apartamento de una habitación en Nueva York. Sin embargo, tras solo siete semanas de estancia, decidió abandonar la propiedad antes de tiempo al sentirse insegura en la zona. Poco después de su partida, el anfitrión, catalogado como superhost, presentó una reclamación por daños valorados en 16 mil dólares, incluyendo una mesa rota, un colchón presuntamente manchado con orina, y electrodomésticos supuestamente dañados.
La mujer negó rotundamente haber causado tales estragos y, tras recibir fotografías de los daños, identificó inconsistencias en las imágenes que sugerían manipulación digital. “Estas inconsistencias son simplemente imposibles en fotografías auténticas y sin editar del mismo objeto”, declaró la afectada al medio británico. Sospechó que el anfitrión había generado o alterado las imágenes con IA como represalia por haber terminado el alquiler antes de tiempo.
A pesar de sus objeciones, Airbnb inicialmente determinó que debía pagar más de 7 mil dólares al anfitrión. Sin embargo, la huésped apeló la decisión, ofreciendo el testimonio de un testigo presencial del check-out, quien aseguró que la propiedad fue entregada limpia y sin daños. También presentó evidencia detallada sobre las discrepancias visuales en las fotografías.
No fue sino hasta que Guardian Money contactó a Airbnb para investigar el caso que la empresa revirtió su postura. En un primer intento por cerrar el conflicto, Airbnb ofreció un crédito de 670 dólares, que luego aumentó a mil 140 tras una negativa de la afectada. Finalmente, y después de semanas de presión, Airbnb reembolsó la totalidad de la reserva —aproximadamente 5 mil 700 dólares— y eliminó una reseña negativa dejada por el anfitrión en el perfil de la huésped.
Airbnb se disculpó públicamente por el manejo del caso y anunció una revisión interna del proceso, además de advertir al anfitrión por violaciones a sus políticas. “Nos tomamos muy en serio las reclamaciones por daños”, aseguró la compañía en un comunicado, añadiendo que sus decisiones se basan en una revisión cuidadosa de la evidencia y que existe un proceso de apelación para proteger a ambas partes.
El caso evidencia un creciente problema: el uso de herramientas de inteligencia artificial para alterar pruebas o presentar reclamaciones fraudulentas en plataformas de alquiler, ventas o servicios. La IA generativa puede crear imágenes de objetos dañados con un realismo impactante, lo que representa un riesgo para usuarios honestos y una amenaza para la integridad de los sistemas de resolución de disputas.
Con casos como este en aumento, se plantea la necesidad de regulación tanto para anfitriones como para plataformas. La falta de mecanismos robustos de verificación puede socavar la confianza en modelos de economía compartida que dependen de la buena fe y la transparencia.
Airbnb, al igual que otras plataformas, enfrenta el desafío de adaptar sus protocolos a un entorno digital en el que las imágenes, los videos y los testimonios pueden ser fácilmente manipulados con IA. Mientras tanto, este caso sirve como una advertencia: no todo lo que se muestra es real, y las víctimas de estos engaños necesitan herramientas y respaldo para defenderse.
Ahora lee:
Así Selena Gómez está haciendo que las personas se detengan y huelan las vallas de Rare Beauty
¿A qué hora es el torneo de Los Power Rangers de Fortnite?
Kroger is closing more stores in the United States! Check out where!