
Visualizar los posibles impactos de un huracán en los hogares de las personas antiguamente de que llegue puede ayudar a los residentes a prepararse y arriesgarse si deben desalojar.
Los científicos del MIT han desarrollado un método que genera imágenes satelitales del futuro para representar cómo se vería una región a posteriori de una posible inundación. El método combina un maniquí de inteligencia industrial generativa con un maniquí de inundación basado en la física para crear imágenes realistas a olfato de pájaro de una región, que muestran dónde es probable que se produzcan inundaciones dada la fuerza de una tormenta que se aproxima.
Como caso de prueba, el equipo aplicó el método a Houston y generó imágenes satelitales que muestran cómo se verían ciertos lugares en torno a de la ciudad a posteriori de una tormenta comparable al huracán Harvey, que azotó la región en 2017. El equipo comparó estas imágenes generadas con imágenes satelitales reales. Imágenes tomadas de las mismas regiones a posteriori del gracia de Harvey. Asimismo compararon imágenes generadas por IA que no incluían un maniquí de inundación basado en la física.
El método reforzado por la física del equipo generó imágenes satelitales de futuras inundaciones que eran más realistas y precisas. Por el contrario, el método exclusivo de IA generó imágenes de inundaciones en lugares donde las inundaciones no son físicamente posibles.
El método del equipo es una prueba de concepto, destinada a demostrar un caso en el que los modelos generativos de IA pueden crear contenido realista y confiable cuando se combinan con un maniquí basado en la física. Para aplicar el método a otras regiones para representar las inundaciones de futuras tormentas, será necesario entrenarlo con muchas más imágenes de mandado para estudiar cómo se verían las inundaciones en otras regiones.
«La idea es: algún día podríamos utilizar esto antiguamente de un huracán, donde proporcionará una capa de visualización adicional para el manifiesto», dice Björn Lütjens, postdoctorado en el Sección de Ciencias Terrestres, Atmosféricas y Planetarias del MIT, quien dirigió la investigación mientras era estudiante de doctorado en el Sección de Aeronáutica y Astronáutica del MIT (AeroAstro). “Uno de los mayores desafíos es alentar a las personas a desalojar cuando corren peligro. Quizás esta podría ser otra visualización que ayude a aumentar esa preparación”.
Para ilustrar el potencial del nuevo método, al que han denominado «Motor de Inteligencia de la Tierra», el equipo lo ha creado. acondicionado como un procedimiento en ringlera para que otros lo prueben.
los investigadores reportan sus resultados hoy en la revista Transacciones IEEE sobre geociencia y teledetección. Los coautores del estudio del MIT incluyen a Brandon Leshchinskiy; Aruna Sankaranarayanan; y Dava Newman, profesora de AeroAstro y directora del MIT Media Lab; anejo con colaboradores de múltiples instituciones.
Imágenes generativas adversarias
El nuevo estudio es una extensión de los esfuerzos del equipo para aplicar herramientas de inteligencia industrial generativa para visualizar escenarios climáticos futuros.
«Proporcionar una perspectiva hiperlocal del clima parece ser la forma más eficaz de comunicar nuestros resultados científicos», dice Newman, autor principal del estudio. “La familia se relaciona con su propio código postal, su entorno circunscrito donde viven sus familiares y amigos. Proporcionar simulaciones climáticas locales se vuelve intuitivo, personal y relacionable”.
Para este estudio, los autores utilizan una red adversaria generativa condicional, o GAN, un tipo de método de enseñanza inevitable que puede crear imágenes realistas utilizando dos redes neuronales competidoras o «adversarias». La primera red “generadora” se base en pares de datos reales, como imágenes de mandado antiguamente y a posteriori de un huracán. Luego se entrena a la segunda red «discriminadora» para distinguir entre las imágenes de mandado reales y las sintetizadas por la primera red.
Cada red progreso automáticamente su rendimiento en función de los comentarios de la otra red. La idea, entonces, es que ese tira y afloja adversario debería, en última instancia, producir imágenes sintéticas que sean indistinguibles de la ingenuidad. Sin retención, las GAN aún pueden producir «alucinaciones» o características objetivamente incorrectas en una imagen realista que no debería estar allí.
“Las alucinaciones pueden engañar a los espectadores”, dice Lütjens, quien comenzó a preguntarse si se podrían evitar tales alucinaciones, de modo que se pueda esperar en que las herramientas de inteligencia industrial generativa ayuden a informar a las personas, particularmente en escenarios sensibles al peligro. «Estábamos pensando: ¿Cómo podemos utilizar estos modelos generativos de IA en un entorno de impacto climático, donde tener fuentes de datos confiables es tan importante?»
Alucinaciones de inundación
En su nuevo trabajo, los investigadores consideraron un ambiente sensible al peligro en el que la IA generativa tiene la tarea de crear imágenes satelitales de futuras inundaciones que podrían ser lo suficientemente confiables como para informar las decisiones sobre cómo preparar y potencialmente desalojar a las personas fuera de peligro.
Por lo universal, los formuladores de políticas pueden tener una idea de dónde podrían ocurrir inundaciones basándose en visualizaciones en forma de mapas codificados por colores. Estos mapas son el producto final de una serie de modelos físicos que generalmente comienzan con un maniquí de trayectoria de huracán, que luego alimenta un maniquí de derrota que simula el patrón y la fuerza de los vientos sobre una región circunscrito. Esto se combina con un maniquí de inundaciones o marejadas ciclónicas que pronostica cómo el derrota podría empujar cualquier masa de agua cercana en dirección a la tierra. Luego, un maniquí hidráulico traza dónde se producirán las inundaciones en función de la infraestructura de inundaciones circunscrito y genera un planisferio visual codificado por colores de las elevaciones de inundaciones en una región en particular.
«La pregunta es: ¿pueden las visualizaciones de imágenes satelitales sumar otro nivel a esto, que sea un poco más tangible y emocionalmente atractivo que un planisferio codificado por colores de rojos, amarillos y azules, y al mismo tiempo ser confiable?» dice Lütjens.
El equipo probó primero cómo la IA generativa por sí sola produciría imágenes satelitales de futuras inundaciones. Entrenaron un GAN con imágenes satelitales reales tomadas por satélites cuando pasaban sobre Houston antiguamente y a posteriori del huracán Harvey. Cuando encargaron al padre que produjera nuevas imágenes de inundaciones de las mismas regiones, descubrieron que las imágenes se parecían a las típicas imágenes de mandado, pero una inspección más cercana reveló alucinaciones en algunas imágenes, en forma de inundaciones donde no debería ser posible (por ejemplo, en lugares de decano elevación).
Para estrechar las alucinaciones y aumentar la confiabilidad de las imágenes generadas por IA, el equipo emparejó la GAN con un maniquí de inundación basado en la física que incorpora parámetros y fenómenos físicos reales, como la trayectoria de un huracán que se acerca, marejadas ciclónicas y patrones de inundaciones. Con este método reforzado con la física, el equipo generó imágenes satelitales en torno a de Houston que representan la misma extensión de inundación, píxel por píxel, según lo pronosticado por el maniquí de inundación.
«Mostramos una forma tangible de combinar el enseñanza inevitable con la física para un caso de uso que es sensible al peligro, lo que requiere que analicemos la complejidad de los sistemas de la Tierra y proyectemos acciones futuras y posibles escenarios para proseguir a las personas fuera de peligro», dice Newman. «Estamos ansiosos por poner nuestras herramientas de IA generativa en manos de los tomadores de decisiones a nivel de la comunidad circunscrito, lo que podría marcar una diferencia significativa y tal vez defender vidas».
La investigación contó con el apoyo, en parte, del Software MIT Portugal, el Acelerador de Inteligencia Fabricado DAF-MIT, la NASA y Google Cloud.