Usó imágenes hechas con IA para simular que había destrozado el piso de Airbnb y pedirle 9.000 euros. Lo peor es que casi lo consigue

Wait 5 sec.

Uno de los muchos temores que se puede tener sobre el uso generalizado de la IA es que cualquiera puede alterar una imagen, a veces de forma convincente, sin ningún tipo de habilidad técnica. Y estas imágenes puede que no se centren en eliminar algo de fondo, si no se pueden manipular imágenes para simular una situación que no es para nada real.Esto es lo que ocurrió a un huésped que contrató el servicio de Airbnb y que afirmó tras su estancia que el anfitrión manipuló fotografías del piso para reclamarle diferentes daños que eran completamente falsos, pero que le habrían costado 12.000 libras (unos 9.000 euros).Esta historia se remonta a principios de este año, cuando una mujer de Londres reservó un apartamento en Manhattan (Nueva York) durante dos meses y medio mientras estudiaba, tal y como relata The Guardian. Pero debido a que no se sentía muy segura en el barrio, decidió dejar el apartamento antes de lo inicialmente acordado a través de Airbnb.Unas imágenes generadas con IA para simular daños falsosTras marcharse, no se esperaba que el anfitrión del apartamento informara a Airbnb que la mujer había causado daños valorados en miles de dólares en el apartamento. Entre estos daños incluía una mesa de café rota, un colchón manchado de orina y diferentes dispositivos como un televisor o microondas dañados. La mujer negó la reclamación apuntando a que ella no había cometido esos daños y que durante las siete semanas que había estado en el apartamento solo habían pasado dos invitados. Incluso llegó a apuntar que esta reclamación de daños por parte del anfitrión, que era un 'superhost', en Airbnb era una venganza por haber terminado el contrato antes de tiempo.Para poder argumentar estos daños, el anfitrión tuvo que subir una serie de imágenes. Pero tras analizarlas, la mujer vio que en las fotografías donde se mostraban los daños en la mesa de café la grieta en cada imagen era diferente. Esto la llevó a afirmar ante Airbnb que las imágenes estaban manipuladas.En un primer momento, Airbnb decidió que la mujer debía pagar al anfitrión unos 7.000 dólares, pero lógicamente apeló porque ella no había cometido ningún daño. Cinco días después de que The Guardian preguntara a Airbnb sobre este caso, la compañía aceptó la apelación e ingresó en la cuenta de la afectada 663 dólares.Pero debido a la mala experiencia que había tenido, la afectada apuntó a que no volvería a usar nunca más Airbnb (como haríamos cualquiera). Ante este caso, la compañía le ofreció a reembolsar una quinta parte del coste de la reserva, pero tras su negativa le reembolsaron el coste total de la estancia y también eliminaron la crítica negativa que dejó el anfitrión en su perfil. En Genbeta Booking es la web favorita de los españoles para sus reservas... pero los hoteles están hartos de sus tratos. Se unen en una demanda De esta forma, el caso quedó cerrado de la mejor manera posible, lógicamente la afectada piensa en las futuras víctimas que puede estar host, sobre todo por lo fácil que puede ser manipular la realidad con IA y como Airbnb no pone filtros a este tipo de creaciones. Lo explica de la siguiente manera:Mi preocupación es por los futuros clientes que puedan ser víctimas de reclamaciones fraudulentas similares y no tengan los medios para oponerse tanto o cedan a pagar por miedo a una escalada. Dada la facilidad con la que ahora se pueden generar imágenes de este tipo con IA y, al parecer, ser aceptadas por Airbnb a pesar de las investigaciones, no debería ser tan fácil para un anfitrión salirse con la suya falsificando pruebas de esta maneraDesde Airbnb han informado que detallaron al anfitrión que no podía verificar las imágenes que se presentaron junto a la queja y que violaban los términos y condiciones del servicio. Esto hizo que le dieran un aviso, y que al siguiente informe similar se verían obligados a cerrar su cuenta. Además, también están llevando a cabo una investigación sobre como se manejó la situación con esta clienta y por qué al principio no la revisión no se percató del uso de IA en las imágenes.Imágenes | Oberon CopelandEn Genbeta | Airbnb y Booking me han quitado lo que más me gustaba de viajar en los 2000. La Gen Z tiene nostalgia de aquellos años... y yo también (function() { window._JS_MODULES = window._JS_MODULES || {}; var headElement = document.getElementsByTagName('head')[0]; if (_JS_MODULES.instagram) { var instagramScript = document.createElement('script'); instagramScript.src = 'https://platform.instagram.com/en_US/embeds.js'; instagramScript.async = true; instagramScript.defer = true; headElement.appendChild(instagramScript); } })(); - La noticia Usó imágenes hechas con IA para simular que había destrozado el piso de Airbnb y pedirle 9.000 euros. Lo peor es que casi lo consigue fue publicada originalmente en Genbeta por José Alberto Lizana .