La inteligencia artificial se conecta a la predicción de terremotos

Habiendo predicho con éxito los terremotos en el laboratorio, un equipo de geofísicos aplicó el algoritmo de aprendizaje automático a los terremotos en la costa noroeste del Pacífico.



Los restos de un bosque de coníferas de 2.000 años de antigüedad en Nescovin Beach, Oregón, uno de los muchos "bosques fantasmas" ubicados a lo largo de las costas de Oregón y Washington. Se cree que un terremoto a gran escala sacudió una vez la zona de subducción de Cascadia , y los tocones fueron enterrados bajo los escombros traídos por el tsunami.

En mayo del año pasado, después de una siesta de 13 meses, la tierra debajo de Puget Bay, Washington, se puso en movimiento. El terremoto comenzó a una profundidad de más de 30 km debajo de las montañas olímpicas, y en unas pocas semanas se trasladó al noroeste, llegando a la isla canadiense de Vancouver. Luego cambió su curso brevemente, se arrastró de regreso a lo largo de la frontera de los Estados Unidos y luego se quedó en silencio. Un terremoto mensual liberó suficiente energía para que su magnitud pudiera estimarse en 6. Al final del terremoto, el extremo sur de la isla de Vancouver avanzó un centímetro adicional hacia el Océano Pacífico.

Dado que el terremoto fue tan borroso en el espacio y el tiempo, lo más probable es que nadie lo sintiera. Tales terremotos fantasmales que ocurren más profundo bajo tierra que los terremotos rápidos comunes se conocen como "deslizamientos lentos". Aproximadamente una vez al año, ocurren en el noroeste del Pacífico, a lo largo de una falla a lo largo de la cual la placa de Juan de Fuca se arrastra lentamente debajo de la parte norte del borde occidental de la placa de América del Norte . Desde 2003, se registraron más de una docena de deslizamientos lentos en una amplia red de estaciones sismológicas en la región. Y durante el último año y medio, estos eventos han sido el foco del proyecto de predicción de terremotos, dirigido por el geofísico Paul Johnson .

El equipo de Johnson es uno de varios grupos de científicos que utilizan el aprendizaje automático para tratar de descubrir los secretos de la física del terremoto y aislar los signos de un terremoto emergente. Hace dos años, Johnson y sus colegas predijeron con éxito los terremotos en un modelo de laboratorio utilizando un algoritmo de búsqueda de patrones similar a los utilizados durante los últimos avances en reconocimiento de imagen y habla y otras aplicaciones de inteligencia artificial. Desde entonces, este logro ha sido repetido por científicos de Europa.

Y ahora, en un artículo publicado en septiembre en el sitio de preimpresión arxiv.org, Johnson y su equipo informan que probaron su algoritmo para detectar terremotos lentos en el noroeste del Pacífico. El trabajo aún no ha sido probado por expertos independientes, pero ya informan que los resultados han sido prometedores. Johnson argumenta que el algoritmo puede predecir la aparición de un terremoto lento "en unos pocos días, y posiblemente antes".

"Este es un desarrollo muy interesante", dijo Maarten de Hoop , un sismólogo de la Universidad de Rice que no está involucrado en este trabajo. "Por primera vez, ha llegado el momento en que hemos progresado" en la predicción de terremotos.

Mostafa Mousavi, geofísico de la Universidad de Stanford, calificó los nuevos resultados de "interesantes y motivadores". Él, de Hoop y otros expertos en este campo enfatizan que el aprendizaje automático tiene un largo camino por recorrer antes de comenzar a predecir terremotos catastróficos, y que algunos obstáculos a este camino pueden ser muy difíciles y posiblemente insuperables. Sin embargo, el aprendizaje automático puede ser la mejor oportunidad para los científicos en el campo en el que se han estancado durante décadas y apenas han visto destellos de esperanza.

Mermeladas y Slips


El fallecido sismólogo Charles Richter , quien nombró la escala de calificación de la fuerza del terremoto, señaló en 1977 que la predicción del terremoto podría ser "un excelente terreno para los amantes, locos y estafadores que buscan publicidad". Hoy, muchos sismólogos le confirmarán que se han reunido con muchos representantes de los tres tipos.

Sin embargo, sucedió que los científicos respetados dieron ideas que, en retrospectiva, parecen estar lejos de la verdad y, a veces, una locura. Un geofísico de la Universidad de Atenas, Panagiotis Varotsos, declaró que podía reconocer los terremotos inminentes al medir "señales eléctricas sísmicas". Brian Brady, físico del Departamento de Minas de EE. UU. A principios de la década de 1980, levantó una falsa alarma varias veces sobre los inminentes terremotos en Perú, basando sus hallazgos en hallazgos no confirmados de que el agrietamiento de piedras en las minas era un signo de terremotos inminentes.

Paul Johnson es consciente de esta controvertida historia. Él sabe que en muchos lugares es incluso indecente hablar de "predicciones de terremotos". Sabe que seis científicos italianos fueron condenados por el asesinato involuntario de 29 personas en 2012, minimizando las posibilidades de un terremoto en la ciudad italiana de L'Aquila unos días antes de que la región fuera casi destruida por un terremoto de magnitud 6,3 (luego el tribunal de apelación canceló este veredicto). Él sabe de prominentes sismólogos que han declarado convincentemente que "los terremotos no pueden predecirse".

Sin embargo, Johnson también sabe que los terremotos son procesos físicos que no son esencialmente diferentes del colapso de una estrella moribunda o un cambio en la dirección del viento. Y aunque enfatiza que el objetivo principal de su investigación es comprender mejor la física de las fallas, no rechaza la tarea de predicciones.


Paul Johnson, un sismólogo del Laboratorio Nacional de Los Alamos con una muestra de plástico acrílico en sus manos, uno de los materiales utilizados por el equipo para simular terremotos en el laboratorio.

Hace más de una década, Johnson comenzó a estudiar "terremotos de laboratorio", que se simulan utilizando bloques que se deslizan a lo largo de capas delgadas de material granular. Estos bloques, como las placas tectónicas, no se deslizan suavemente, sino con fragmentos y topes. A veces, durante unos segundos, se congelan, retenidos por fricción, y luego la fuerza creciente es suficiente para que de repente comiencen a deslizarse más. Este deslizamiento, la versión de laboratorio del terremoto, libera el estrés, después de lo cual el ciclo de movimientos irregulares comienza de nuevo.

Cuando Johnson y sus colegas registraron la señal acústica que ocurre durante este movimiento intermitente, notaron picos agudos que aparecen antes de cada deslizamiento. Estos eventos previos al movimiento se convirtieron en el equivalente de laboratorio de las ondas sísmicas, que producen choques que preceden a los terremotos. Sin embargo, así como los sismólogos intentaron sin éxito convertir los choques preliminares en una predicción del momento del inicio del terremoto principal, Johnson y sus colegas no pudieron encontrar la manera de convertir estos eventos previos en predicciones confiables de terremotos de laboratorio. "Estamos en un callejón sin salida", recuerda Johnson. "No he visto una manera de continuar".

En una reunión en Los Alamos hace varios años, Johnson explicó este dilema a un grupo de teóricos. Propusieron volver a analizar los datos utilizando algoritmos de aprendizaje automático; este enfoque en ese momento ya era conocido por su capacidad para reconocer bien los patrones en los datos de audio.

Los científicos han desarrollado conjuntamente un plan. Decidieron tomar cinco minutos de audio grabado durante los experimentos, que incluyeron unos 20 ciclos de deslizamiento y atascamiento, y cortarlos en muchos segmentos pequeños. Para cada segmento, los investigadores calcularon más de 80 características estadísticas, incluida la señal promedio, las desviaciones del promedio e información sobre si el sonido que precede al cambio está contenido en este segmento. Mientras los investigadores analizaban los datos retroactivamente, sabían cuánto tiempo pasaba entre cada segmento con sonido y el posterior impulso en el laboratorio.

Armados con estos datos de aprendizaje, utilizaron un algoritmo de aprendizaje automático llamado " bosque aleatorio " para buscar sistemáticamente combinaciones de atributos que están claramente relacionadas con la cantidad de tiempo restante antes del turno. Después de estudiar varios minutos de datos experimentales, el algoritmo podría comenzar a predecir el tiempo de corte en función de las características acústicas.

Johnson y sus colegas eligieron el algoritmo de bosque aleatorio para predecir el tiempo restante hasta un nuevo cambio, en particular porque (en comparación con las redes neuronales y otros algoritmos populares de aprendizaje automático) el bosque aleatorio es relativamente fácil de interpretar. El algoritmo funciona, en esencia, como un árbol de decisión, en el que cada rama comparte un conjunto de datos basado en alguna característica estadística. Por lo tanto, el árbol almacena los registros de los signos que utilizó el algoritmo para las predicciones, y la importancia relativa de cada uno de los signos que ayudaron al algoritmo a llegar a cierta predicción.


Las lentes polarizadas muestran acumulación de estrés antes de que el modelo de placa tectónica se mueva lateralmente a lo largo de la línea de falla.

Cuando los investigadores de Los Alamos estudiaron los detalles de su algoritmo, se sorprendieron. En su mayor parte, el algoritmo se basó en una característica estadística que no estaba asociada con eventos que ocurrieron inmediatamente antes del terremoto de laboratorio. Es más dispersión , una medida de la desviación de la señal del promedio, además, se extiende a lo largo de todo el ciclo de frenado y deslizamiento, y no se concentra en los momentos inmediatamente anteriores al cambio. La dispersión comenzó con valores pequeños, y luego se acumuló gradualmente durante el acercamiento al cambio, probablemente porque los granos entre los bloques colisionaron cada vez más entre sí a medida que el voltaje se acumulaba. Conociendo esta variación, el algoritmo pudo predecir bien el tiempo de inicio del turno; e información sobre eventos inmediatamente anteriores ayudó a aclarar estas conjeturas.

Este descubrimiento puede tener serias consecuencias. Durante décadas, las personas han estado tratando de predecir terremotos basados ​​en choques preliminares y otros eventos sísmicos aislados. El resultado de Los Alamos sugiere que todos estaban buscando en el lugar equivocado, y que la clave de las predicciones era una información menos clara que se pudiera recopilar durante períodos relativamente tranquilos entre los principales eventos sísmicos.

Por supuesto, los bloques deslizantes de plástico no describen de cerca la complejidad química, térmica y morfológica de las fallas geológicas reales. Para demostrar el poder del aprendizaje automático en la predicción de terremotos reales, Johnson necesitaba probarlo en fallas reales. ¿Hay un lugar mejor, pensó, que la costa noroeste del Pacífico?

Salida del laboratorio.


La mayoría de los lugares en la Tierra donde pueden ocurrir terremotos de magnitud 9 son zonas de subducción donde una placa tectónica se arrastra debajo de otra. La zona de subducción al este de Japón es responsable del terremoto de Tohoku y el posterior tsunami que destruyó la costa del país en 2011. Una vez, la zona de subducción de Cascadia, en la que la placa de Juan de Fuca se arrastra debajo de la parte norte del borde occidental de la placa de América del Norte, también destruirá la bahía. Puget, la isla de Vancouver y el noroeste del Pacífico circundante.



La zona de subducción de Cascadia se extiende por 1000 km a lo largo de la costa del Pacífico desde el cabo Mendochino en California hasta la isla de Vancouver. La última vez que hubo un terremoto en enero de 1700, causó temblores con una magnitud de 9 puntos y un tsunami que llegó a la costa de Japón. Los estudios geológicos indican que durante el Holoceno esta falla generó mega terremotos similares aproximadamente una vez cada medio millón de años, más o menos varios cientos de años. Estadísticamente, lo siguiente puede suceder en cualquier siglo.

Esta es una de las razones por las que los sismólogos están prestando mucha atención a los terremotos lentos en esta región. Se cree que los terremotos lentos en la parte inferior de la zona de subducción llevan una pequeña cantidad de tensión a la corteza frágil ubicada arriba, donde ocurren choques rápidos y destructivos. Con cada terremoto lento, las posibilidades de un mega terremoto en la región de Puget Bay - Islas de Vancouver son ligeramente mayores. De hecho, en Japón, se observó un terremoto lento varios meses antes del terremoto de Tohoku.

Pero Johnson tiene otra razón para hacer un seguimiento de los terremotos lentos: producen una gran cantidad de datos. A modo de comparación, en los últimos 12 años, no ha habido un solo terremoto grande y rápido en la falla de Puget Bay - Isla de Vancouver. Pero durante el mismo período, esta falla provocó más de diez terremotos lentos, y cada uno de ellos fue cuidadosamente registrado en el catálogo sísmico.

Este catálogo sísmico es una copia real de los registros acústicos obtenidos en los experimentos de laboratorio de Johnson con terremotos. Johnson y sus colegas, de la misma manera que en el caso de sus grabaciones acústicas de laboratorio, dividieron los datos sísmicos en pequeños segmentos y describieron cada uno de ellos con un conjunto de características estadísticas. Luego alimentaron estos datos e información sobre cuándo ocurrieron los terremotos lentos anteriores en su algoritmo de aprendizaje automático.

Después de haberse entrenado en datos de 2007 a 2013, el algoritmo pudo predecir con éxito los terremotos lentos que ocurrieron de 2013 a 2018 en función de los datos registrados varios meses antes de cada evento. El factor clave fue la energía sísmica, un valor estrechamente relacionado con la dispersión de la señal acústica en experimentos de laboratorio. Al igual que la dispersión, la energía sísmica creció característicamente en previsión de cada terremoto lento.

Las predicciones para la zona de subducción de Cascadia no fueron tan precisas como para los terremotos de laboratorio. Los coeficientes de correlación que caracterizan la calidad de la coincidencia de las predicciones con las observaciones fueron significativamente menores en los nuevos resultados que en el laboratorio. Sin embargo, el algoritmo pudo predecir todos los terremotos menos uno de 2013 a 2018, lo que indica las fechas de inicio, según Johnson, en unos pocos días (el terremoto lento de agosto de 2019 no se incluyó en el estudio).

Para de Hoop, la conclusión principal es que "las tecnologías de aprendizaje automático nos han dado un punto de entrada, un método de análisis de datos para encontrar cosas que no hemos visto o buscado antes". Sin embargo, advierte que aún queda mucho trabajo por hacer. “Hemos dado un paso importante, extremadamente importante. Sin embargo, este es un pequeño paso en la dirección correcta ".

Verdadera verdad


El propósito de la predicción de terremotos nunca ha sido la predicción de terremotos lentos. Todos deben predecir temblores repentinos y catastróficos que amenazan la vida y la salud. Para el aprendizaje automático, esto parecía representar una paradoja: los terremotos más grandes que a los sismólogos les gustaría predecir son los menos probables. ¿Cómo puede un algoritmo de aprendizaje automático obtener suficientes datos de entrenamiento para predecirlo con confianza?

El grupo de Los Alamos cree que, en principio, su algoritmo no necesitará ser entrenado en datos obtenidos de registros de terremotos catastróficos para poder predecirlos con éxito. Estudios recientes sugieren que los patrones sísmicos que preceden a los pequeños terremotos son estadísticamente similares a los que preceden a los grandes, y docenas de pequeños terremotos pueden ocurrir en una sola falla cualquier día. Habiendo aprendido de miles de estos pequeños choques, la computadora puede predecir los grandes. Además, los algoritmos de aprendizaje automático pueden aprender de las simulaciones por computadora de terremotos rápidos, que un día pueden convertirse en un sustituto de datos reales.

Pero de todos modos, los científicos se enfrentan a una verdad aleccionadora: aunque los procesos físicos que conducen a una falla al borde de un terremoto pueden ser predecibles, la misma ocurrencia de un terremoto, el crecimiento de pequeñas perturbaciones sísmicas, que conducen a una ruptura de falla a gran escala, en la opinión de la mayoría de los científicos, contiene un elemento de posibilidad. Si es así, independientemente de la calidad del aprendizaje automático, es posible que nunca puedan predecir los terremotos de la manera en que los científicos pudieron predecir otros desastres naturales.

"Todavía no sabemos cuán precisas serán las fechas para hacer predicciones", dijo Johnson. - ¿Será como una predicción de huracanes? No, no lo creo ".

En el mejor de los casos, las predicciones de grandes terremotos darán marcos de tiempo de semanas, meses o años. Tales predicciones no pueden usarse, por ejemplo, para organizar la evacuación masiva de ciudades en vísperas de temblores. Pero pueden mejorar la preparación para este evento, ayudar a los funcionarios a concentrarse en fortalecer los edificios inseguros y, de lo contrario, reducir el riesgo de un terremoto catastrófico.

Johnson cree que tal meta vale la pena alcanzar. Pero, siendo realista, se da cuenta de que tomará mucho tiempo. "No estoy diciendo que aprenderemos a predecir terremotos en mi vida", dijo, "pero haremos un progreso tremendo en esta dirección".

Source: https://habr.com/ru/post/471452/


All Articles