L'intelligence artificielle se connecte à la prévision des séismes

Ayant prédit avec succès les tremblements de terre en laboratoire, une équipe de géophysiciens a appliqué l'algorithme d'apprentissage automatique aux tremblements de terre de la côte nord-ouest du Pacifique



Les restes d'une forêt de conifères vieille de 2 000 ans sur la plage de Nescovin, dans l'Oregon - l'une des dizaines de «forêts fantômes» situées le long des côtes de l'Oregon et de Washington. On pense qu'un tremblement de terre à grande échelle a secoué la zone de subduction de Cascadia et que des souches ont été enfouies sous les débris apportés par le tsunami.

En mai de l'année dernière, après une sieste de 13 mois, le terrain sous Puget Bay, Washington, a basculé. Le tremblement de terre a commencé à une profondeur de plus de 30 km sous les montagnes olympiques et, en quelques semaines, s'est déplacé vers le nord-ouest, pour atteindre l'île canadienne de Vancouver. Puis il a brièvement tourné le dos, a rampé le long de la frontière américaine, puis s'est tu. Un tremblement de terre mensuel a libéré suffisamment d'énergie pour que son ampleur puisse être estimée à 6. À la fin du tremblement de terre, l'extrémité sud de l'île de Vancouver a avancé d'un centimètre supplémentaire dans l'océan Pacifique.

Puisque le tremblement de terre était si flou dans l'espace et le temps, très probablement, personne ne l'a ressenti. De tels tremblements de terre fantomatiques qui se produisent plus profondément sous terre que les tremblements de terre rapides ordinaires sont connus comme des «glissements lents». Environ une fois par an, ils se produisent dans le nord-ouest du Pacifique, le long d'une faille le long de laquelle la plaque Juan de Fuca se glisse lentement sous la partie nord de la bordure ouest de la plaque nord-américaine . Depuis 2003, plus d'une dizaine de glissements lents ont été enregistrés dans un large réseau de stations sismologiques de la région. Et au cours de la dernière année et demie, ces événements ont été au centre du projet de prévision des tremblements de terre, dirigé par le géophysicien Paul Johnson .

L'équipe de Johnson est l'un des nombreux groupes de scientifiques qui utilisent l'apprentissage automatique pour tenter de découvrir les secrets de la physique des tremblements de terre et d'isoler les signes d'un tremblement de terre émergeant. Il y a deux ans, Johnson et ses collègues ont prédit avec succès des tremblements de terre dans un modèle de laboratoire en utilisant un algorithme de recherche de modèle similaire à ceux utilisés lors des récentes percées dans la reconnaissance d'images et de la parole et d'autres applications de l'intelligence artificielle. Depuis lors, cette réalisation a été répétée par des scientifiques européens.

Et maintenant, dans un article publié en septembre sur le site de préimpression arxiv.org, Johnson et son équipe rapportent tester leur algorithme pour les tremblements de terre lents dans le nord-ouest du Pacifique. Le travail n'a pas encore été testé par des experts indépendants, mais ils rapportent déjà que les résultats sont prometteurs. Johnson soutient que l'algorithme peut prédire le début d'un tremblement de terre lent "dans quelques jours - et peut-être plus tôt".

«Il s'agit d'un développement très intéressant», a déclaré Maarten de Hoop , sismologue à l'Université Rice qui n'est pas impliqué dans ce travail. «Pour la première fois, le moment est venu où nous avons fait des progrès» dans la prévision des tremblements de terre.

Mostafa Mousavi, géophysicien à l'Université de Stanford, a qualifié les nouveaux résultats d '«intéressants et motivants». Lui, de Hoop et d'autres experts dans ce domaine soulignent que l'apprentissage automatique a un long chemin à parcourir avant de commencer à prédire des tremblements de terre catastrophiques - et que certains obstacles à ce chemin peuvent être très difficiles, voire insurmontables. Néanmoins, l'apprentissage automatique peut s'avérer être la meilleure chance pour les scientifiques dans le domaine dans lequel ils stagnent depuis des décennies et ne voient pratiquement aucune lueur d'espoir.

Confitures et glissades


Le défunt sismologue Charles Richter , qui a nommé l'échelle d'évaluation de la force du tremblement de terre, a noté en 1977 que la prévision du tremblement de terre pouvait être «un excellent sol pour les amateurs, les huards et les escrocs publics». Aujourd'hui, de nombreux sismologues vous confirmeront qu'ils ont rencontré pas mal de représentants des trois types.

Cependant, il est arrivé que des scientifiques respectés aient donné des idées qui, rétrospectivement, semblent loin de la vérité, et parfois juste folles. Un géophysicien de l'Université d'Athènes, Panagiotis Varotsos, a déclaré qu'il était capable de reconnaître les tremblements de terre imminents en mesurant "les signaux électriques sismiques". Brian Brady, physicien du département américain des Mines au début des années 1980, a déclenché plusieurs fois une fausse alerte concernant les tremblements de terre imminents au Pérou, fondant ses conclusions sur des conclusions non confirmées selon lesquelles la fissuration des pierres dans les mines était un signe de tremblements de terre imminents.

Paul Johnson est au courant de cette histoire controversée. Il sait que dans de nombreux endroits, il est même indécent de parler de «prédictions de tremblements de terre». Il sait que six scientifiques italiens ont été reconnus coupables d'avoir tué involontairement 29 personnes en 2012, minimisant les chances d'un tremblement de terre dans la ville italienne de L'Aquila quelques jours avant que la région ne soit presque détruite par un tremblement de terre de magnitude 6,3 (alors la cour d'appel a annulé ce verdict). Il connaît des éminents sismologues qui ont déclaré de manière convaincante que "les tremblements de terre ne peuvent être prédits".

Cependant, Johnson sait également que les tremblements de terre sont des processus physiques qui ne sont pas essentiellement différents de l'effondrement d'une étoile mourante ou d'un changement de direction du vent. Et bien qu'il souligne que l'objectif principal de ses recherches est de mieux comprendre la physique des défauts, il ne refuse pas la tâche des prédictions.


Paul Johnson, un sismologue du Los Alamos National Laboratory avec un échantillon de plastique acrylique dans ses mains - l'un des matériaux utilisés par l'équipe pour simuler les tremblements de terre en laboratoire

Il y a plus d'une décennie, Johnson a commencé à étudier les «tremblements de terre de laboratoire», qui sont simulés à l'aide de blocs qui glissent le long de fines couches de matériau granulaire. Ces blocs, comme les plaques tectoniques, ne glissent pas en douceur, mais avec des arrachements et des arrêts. Parfois, pendant quelques secondes, ils gèlent, maintenus par friction, puis la force croissante est suffisante pour qu'ils commencent soudainement à glisser davantage. Ce glissement - la version de laboratoire du tremblement de terre - libère du stress, après quoi le cycle des mouvements irréguliers recommence.

Lorsque Johnson et ses collègues ont enregistré le signal acoustique qui se produit pendant ce mouvement intermittent, ils ont remarqué des pics nets qui apparaissent avant chaque glissement. Ces événements avant le mouvement sont devenus l'équivalent en laboratoire des ondes sismiques, qui produisent des chocs qui précèdent les tremblements de terre. Cependant, tout comme les sismologues ont tenté sans succès de transformer les chocs préliminaires en une prévision du moment du début du tremblement de terre principal, Johnson et ses collègues n'ont pas pu trouver comment transformer ces pré-événements en prévisions fiables des tremblements de terre de laboratoire. «Nous sommes dans une impasse», se souvient Johnson. "Je n'ai pas vu de moyen de continuer."

Lors d'une réunion à Los Alamos il y a plusieurs années, Johnson a expliqué ce dilemme à un groupe de théoriciens. Ils ont proposé de réanalyser les données en utilisant des algorithmes d'apprentissage automatique - cette approche à cette époque était déjà connue pour sa capacité à bien reconnaître les modèles dans les données audio.

Les scientifiques ont élaboré conjointement un plan. Ils ont décidé de prendre cinq minutes d'audio enregistrées pendant les expériences - qui comprenaient environ 20 cycles de glissement et de blocage - et de les couper en de nombreux petits segments. Pour chaque segment, les chercheurs ont calculé plus de 80 caractéristiques statistiques, y compris le signal moyen, les écarts par rapport à la moyenne et des informations pour savoir si le son précédant le décalage est contenu dans ce segment. Alors que les chercheurs analysaient les données rétroactivement, ils savaient combien de temps s'était écoulé entre chaque segment avec le son et la poussée subséquente en laboratoire.

Armés de ces données pour la formation, ils ont utilisé un algorithme d'apprentissage automatique appelé « forêt aléatoire » pour rechercher systématiquement des combinaisons de fonctionnalités clairement liées au temps restant avant le quart de travail. Après avoir étudié plusieurs minutes de données expérimentales, l'algorithme pourrait commencer à prédire le temps de cisaillement en fonction des caractéristiques acoustiques.

Johnson et ses collègues ont choisi l'algorithme de forêt aléatoire pour prédire le temps restant jusqu'à un nouveau changement, en particulier parce que (par rapport aux réseaux de neurones et à d'autres algorithmes d'apprentissage automatique populaires) la forêt aléatoire est relativement facile à interpréter. L'algorithme fonctionne, essentiellement, comme un arbre de décision, dans lequel chaque branche partage un ensemble de données basé sur une caractéristique statistique. Par conséquent, l'arborescence stocke les enregistrements des signes que l'algorithme utilisé pour les prédictions - et l'importance relative de chacun des signes qui ont aidé l'algorithme à arriver à une certaine prédiction.


Les lentilles polarisées montrent une accumulation de stress avant que le modèle de plaque tectonique ne se déplace latéralement le long de la ligne de faille.

Lorsque les chercheurs de Los Alamos ont étudié les détails de leur algorithme, ils ont été surpris. Pour la plupart, l'algorithme s'est appuyé sur une caractéristique statistique qui n'était pas associée à des événements survenus immédiatement avant le tremblement de terre de laboratoire. C'est plus une dispersion - une mesure de la déviation du signal par rapport à la moyenne - de plus, répartie sur tout le cycle de freinage et de glissement, et non concentrée dans les moments précédant immédiatement le passage. La dispersion a commencé avec de petites valeurs, puis s'est progressivement accumulée pendant l'approche du décalage, probablement parce que les grains entre les blocs sont de plus en plus en collision les uns avec les autres à mesure que la tension s'accumulait. Connaissant cette variance, l'algorithme a pu bien prédire l'heure de début du quart de travail; et des informations sur les événements immédiatement précédents ont aidé à clarifier ces conjectures.

Cette découverte peut avoir de graves conséquences. Depuis des décennies, les gens tentent de prédire les tremblements de terre sur la base de chocs préliminaires et d'autres événements sismiques isolés. Le résultat de Los Alamos suggère qu'ils regardaient tous au mauvais endroit - et que la clé des prédictions était des informations moins explicites qui pouvaient être collectées pendant des périodes relativement calmes entre les grands événements sismiques.

Bien entendu, les blocs coulissants en plastique ne décrivent pas de près la complexité chimique, thermique et morphologique des failles géologiques réelles. Pour démontrer la puissance de l'apprentissage automatique dans la prévision de tremblements de terre réels, Johnson a dû le tester sur de vrais défauts. Y a-t-il un meilleur endroit, pensa-t-il, que la côte nord-ouest du Pacifique?

Sortir du laboratoire


La plupart des endroits sur Terre où des tremblements de terre de magnitude 9 peuvent se produire sont des zones de subduction où une plaque tectonique se glisse sous une autre. La zone de subduction à l'est du Japon est responsable du tremblement de terre de Tohoku et du tsunami qui a détruit la côte du pays en 2011. Une fois, la zone de subduction de Cascadia, dans laquelle la plaque de Juan de Fuca se glisse sous la partie nord de l'extrémité ouest de la plaque nord-américaine, détruira également la baie Puget, l'île de Vancouver et le Pacifique Nord-Ouest environnant.



La zone de subduction de Cascadia s'étend sur 1 000 km le long de la côte du Pacifique, du cap Mendochino en Californie à l'île de Vancouver. La dernière fois qu'il y a eu un tremblement de terre en janvier 1700, il a provoqué des tremblements d'une magnitude de 9 points et un tsunami qui a atteint la côte du Japon. Les études géologiques indiquent que pendant l' Holocène, cette faille a généré des méga-tremblements de terre similaires environ une fois tous les demi-millions d'années, plus ou moins plusieurs centaines d'années. Statistiquement, les événements suivants peuvent se produire dans n'importe quel siècle.

C'est l'une des raisons pour lesquelles les sismologues accordent une attention particulière aux tremblements de terre lents dans cette région. On pense que les tremblements de terre lents dans la partie inférieure de la zone de subduction transportent une petite quantité de stress dans la croûte fragile située au-dessus, où des chocs rapides et destructeurs se produisent. Avec chaque tremblement de terre lent, les chances d'un méga-tremblement de terre dans la région de Puget Bay - îles de Vancouver sont légèrement plus élevées. En effet, au Japon, un lent tremblement de terre a été observé plusieurs mois avant le tremblement de terre de Tohoku.

Mais Johnson a une autre raison de suivre les tremblements de terre lents: ils produisent une énorme quantité de données. À titre de comparaison, au cours des 12 dernières années, il n'y a pas eu un seul grand tremblement de terre rapide dans la faille de Puget Bay - île de Vancouver. Mais au cours de la même période, cette faille a provoqué plus de dix tremblements de terre lents, et chacun d'eux a été soigneusement enregistré dans le catalogue sismique.

Ce catalogue sismique est une véritable copie des enregistrements acoustiques obtenus dans les expériences de laboratoire de Johnson avec les tremblements de terre. Johnson et ses collègues, de la même manière que dans le cas de leurs enregistrements acoustiques de laboratoire, ont divisé les données sismiques en petits segments et décrit chacun d'eux avec un ensemble de caractéristiques statistiques. Ils ont ensuite fourni ces données et informations sur le moment où les tremblements de terre lents précédents se sont produits dans leur algorithme d'apprentissage automatique.

S'étant entraîné sur les données de 2007 à 2013, l'algorithme a pu prédire avec succès les tremblements de terre lents qui se sont produits de 2013 à 2018 sur la base de données enregistrées plusieurs mois avant chaque événement. Le facteur clé était l'énergie sismique - une valeur étroitement liée à la dispersion du signal acoustique dans les expériences de laboratoire. Comme la dispersion, l'énergie sismique a augmenté de façon caractéristique en prévision de chaque lent tremblement de terre.

Les prévisions pour la zone de subduction de Cascadia n'étaient pas aussi précises que pour les tremblements de terre de laboratoire. Les coefficients de corrélation caractérisant la qualité de la coïncidence des prédictions avec les observations étaient significativement moins importants dans les nouveaux résultats qu'au laboratoire. Néanmoins, l'algorithme a pu prédire tous les tremblements de terre sauf un de 2013 à 2018, indiquant les dates de début, selon Johnson, à quelques jours (le tremblement de terre lent d'août 2019 n'était pas inclus dans l'étude).

Pour de Hoop, la principale conclusion est que "les technologies d'apprentissage automatique nous ont donné un point d'entrée, une méthode d'analyse de données pour trouver des choses que nous n'avons jamais vues ou recherchées auparavant." Cependant, il prévient qu'il reste encore beaucoup de travail à faire. «Nous avons franchi une étape importante - extrêmement importante. Cependant, c'est un petit pas dans la bonne direction. "

Vérité sobre


Le but de la prévision des tremblements de terre n'a jamais été la prédiction des tremblements de terre lents. Tout le monde doit prévoir les tremblements soudains et catastrophiques qui menacent la vie et la santé. Pour l'apprentissage automatique, cela semblait représenter un paradoxe: les plus grands tremblements de terre que les sismologues aimeraient le plus prédire sont les moins susceptibles de se produire. Comment un algorithme d'apprentissage automatique peut-il obtenir suffisamment de données d'entraînement pour le prédire en toute confiance?

Le groupe Los Alamos estime que, en principe, leur algorithme n'aura pas besoin d'être formé sur les données obtenues à partir des enregistrements de tremblements de terre catastrophiques pour les prédire avec succès. Des études récentes suggèrent que les modèles sismiques qui précèdent les petits tremblements de terre sont statistiquement similaires à ceux qui précèdent les grands, et des dizaines de petits tremblements de terre peuvent se produire en une seule faille n'importe quel jour. Ayant tiré des leçons de milliers de ces petits chocs, l'ordinateur peut être capable d'en prévoir de grands. En outre, les algorithmes d'apprentissage automatique peuvent être en mesure d'apprendre des simulations informatiques de tremblements de terre rapides, qui peuvent un jour se substituer aux données réelles.

Mais tout de même, les scientifiques sont confrontés à une vérité qui donne à réfléchir: bien que les processus physiques qui conduisent à une défaillance au bord d'un tremblement de terre puissent devenir prévisibles, l'occurrence même d'un tremblement de terre - la croissance de petites perturbations sismiques, conduisant à une rupture de faille à grande échelle - de l'avis de la plupart des scientifiques, contient un élément de chance. Si tel est le cas, quelle que soit la qualité de l'apprentissage automatique, ils ne pourront peut-être jamais prédire les tremblements de terre comme les scientifiques ont pu prédire d'autres catastrophes naturelles.

"Nous ne savons pas encore à quel point les dates seront précises pour faire des prévisions", a déclaré Johnson. - Sera-ce comme une prédiction d'ouragans? Non, je ne pense pas. "

Au mieux, les prévisions de grands tremblements de terre donneront des délais de semaines, de mois ou d'années. De telles prévisions ne peuvent pas être utilisées, par exemple, pour organiser une évacuation massive des villes à la veille des tremblements. Mais ils peuvent améliorer la préparation de cet événement, aider les responsables à se concentrer sur le renforcement des bâtiments dangereux, et autrement réduire le risque de tremblement de terre catastrophique.

Johnson estime qu'un tel objectif mérite d'être atteint. Mais, étant réaliste, il se rend compte que cela prendra beaucoup de temps. "Je ne dis pas que nous apprendrons à prédire les tremblements de terre au cours de ma vie", a-t-il dit, "mais nous ferons d'énormes progrès dans cette direction."

Source: https://habr.com/ru/post/fr471452/


All Articles