Tecnología

Idealista está lleno de imágenes de viviendas en venta creadas con IA. Y cada vez es más difícil identificarlos. – Desde dentro

Los contenidos generados por IA lo han inundado todo y cada vez es más difícil distinguirlos. La llamada decadencia

Idealista está lleno de imágenes de viviendas en venta creadas con IA. Y cada vez es más difícil identificarlos.

 – Desde dentro

Los contenidos generados por IA lo han inundado todo y cada vez es más difícil distinguirlos. La llamada decadencia de la IA está en todas partes; en redes sociales, en Spotify, en Wikipedia… incluso en nichos tan específicos como los patrones de crochet. Esta avalancha nos ha llevado a desconfiar de casi todas las imágenes que vemos online, incluso cuando se trata de buscar casa, porque: Idealista también está lleno de IA.

bagre doméstico. Generalmente usamos el término cuando una persona se hace pasar por otra persona en línea y miente sobre su apariencia. Esto sucede en algunas plataformas de venta y alquiler de propiedades. Wired ya ha mostrado algunos casos de imágenes alteradas con IApero no es una tendencia exclusiva de USA, muchos anuncios con imágenes modificadas con herramientas de IA también aparecen en plataformas como Idealista y Fotocasa.

«Para que puedas ver cómo se vería». Es la excusa que utilizan muchos propietarios y agencias inmobiliarias. Mejoran las fotografías utilizando herramientas de inteligencia artificial para que la propiedad parezca más nueva de lo que realmente es o que parezca renovada. en el anuncio lo que este usuario reporta en XUtilizaron IA en la imagen de la piscina para mostrar cómo se vería si el agua estuviera limpia y todo estuviera en perfectas condiciones. Las respuestas a la misma publicación muestran a un usuario diferente este otro anuncio donde utilizaron IA para plantar césped en el jardín de la casa, con un resultado bastante malo por cierto.

Lo que pides y lo que obtienes. Haga clic en la imagen para abrir la publicación en X.

Anuncios más llamativos. En la descripción de los anuncios reportados por los usuarios advierten que se utilizó IA para retocar algunas imágenes, pero lo que suelen hacer es colocar las imágenes con IA en primer lugar para llamar la atención de quienes están interesados. Una vez que estés en el anuncio, encontrarás la realidad: la casa se esta cayendo a pedazos. Si lo dice en la descripción y luego publica las fotos reales, técnicamente no es una estafa, sino más bien una estrategia bastante turbia que dificulta aún más la ya difícil tarea de encontrar una casa para comprar o alquilar.

Indetectable. Los primeros generadores de imágenes no eran adecuados para realizar cambios porque las imágenes estaban esencialmente inventadas. Sin embargo, la introducción de Nano Banana cambió las reglas del juego, ya que permite realizar cambios para que coincidan con la foto original. en septiembre Aparecieron imágenes en Idealista con la marca de agua Gemini. No podemos saber qué quitaron o agregaron, pero podría usarse para eliminar humedad o algunos defectos sin que sea obvio que usaron IA. En este caso particular dejaron la marca de agua, pero habrá mucha gente que no sabrá lo que significa, además que quitarla es muy fácil. Es posible que haya muchas más imágenes modificadas por IA que sean indetectables.

Idealista lo promociona. La plataforma fue lanzada en 2023. Un artículo que explica cómo aprovechar las herramientas de IA para reparar imágenes de anuncios. Mostraron ejemplos como la organización de espacios, el llenado de piscinas o la habilitación de salas vacías. ellos también comenzaron “Texto inteligente” para generar descripciones de propiedades, característica similar a la de otras plataformas como Wallapop. Recientemente publicó otro artículo donde advirtieron sobre estafas en su plataforma que utilizaban IA para generar imágenes falsas; una confirmación de que se trata de una práctica bastante extendida y no siempre transparente.

Imagen | Pexelseditado con Nano Banana Pro

En | Alibaba tiene una nueva IA de código abierto para generar vídeos. El problema es que genera deepfakes pornográficos

Redacción Desde Dentro
About Author

Redacción Desde Dentro