L'intelligence artificielle aide les chercheurs à prévoir les seismes

L'apprentissage automatique rapproche les sismologues d'un objectif insaisissable: prévoir les tremblements de terre bien avant qu'ils ne se produisent.


Prévenir les tremblements de terre

En mai dernier, après un sommeil de 13 mois, le sol sous le Puget Sound à Washington a repris vie. Le séisme a commencé à plus de 20 milles au-dessous des montagnes olympiques et, en quelques semaines, a dérivé au nord-ouest pour atteindre l’île de Vancouver, au Canada. Il a ensuite brièvement inversé la trajectoire, revenant de l'autre côté de la frontière américaine avant de redevenir silencieux. Au total, le séisme qui a duré un mois a probablement libéré suffisamment d’énergie pour s’enregistrer comme une magnitude de 6 À ce moment-là, la pointe sud de l’île de Vancouver avait été poussée d’un centimètre plus près de l’océan Pacifique.
Parce que le tremblement de terre était si dispersé dans le temps et dans l’espace, il est probable que personne ne l’a ressenti. Ces types de tremblements de terre fantômes, qui se produisent plus profondément sous terre que les tremblements de terre rapides conventionnels, sont appelés «glissements lents». Ils se produisent environ une fois par an dans le nord-ouest du Pacifique, le long d'une section de faille où la plaque de Juan de Fuca se coince lentement sous la plaque nord-américaine. Le vaste réseau de stations sismiques de la région a détecté plus d'une douzaine de glissements lents depuis 2003. Ces événements font depuis un an et demi l'objet d'un nouvel effort de prévision du séisme mené par le géophysicien Paul Johnson .

Analyser les signes de séisme grâce à l'intelligence artificielle

L'équipe de Johnson fait partie d'une poignée de groupes qui utilisent l'intelligence artificielle pour tenter de démystifier la physique des tremblements de terre et de mettre en évidence les signes avant-coureurs de séismes imminents. Il y a deux ans, en utilisant des algorithmes de recherche de motifs similaires à ceux qui sont derrière les récentes avancées dans l' image et la reconnaissance vocale et d' autres formes d'intelligence artificielle, lui et ses collaborateurs a prédit avec succès temblors dans un système un laboratoire de modèle exploit qui a depuis été dupliqués par des chercheurs L'Europe.
Maintenant, dans un article publié cette semaine sur le site scientifique arxiv.org, Johnson et son équipe signalent qu'ils ont testé leur algorithme sur des tremblements de terre à glissement lent dans le nord-ouest du Pacifique. Le document n'a pas encore fait l'objet d'un examen par les pairs, mais des experts externes affirment que les >résultats sont intéressants. Selon Johnson, ils indiquent que l'algorithme peut prédire le début d'un séisme à glissement lent "dans quelques jours, voire mieux".
«C’est un développement passionnant», a déclaré Maarten de Hoop , un sismologue de l’Université Rice qui n’a pas participé aux travaux. «Pour la première fois, je pense qu'il y a un moment où nous faisons vraiment des progrès» vers la prévision des tremblements de terre.
Mostafa Mousavi , géophysicien à l’Université de Stanford, a qualifié les nouveaux résultats de «intéressants et motivants». Lui, de Hoop et d’autres spécialistes du domaine soulignent que l'intelligence artificielle a encore beaucoup à faire avant de pouvoir prévoir de manière fiable des séismes catastrophiques - et qu'Il peut être difficile, voire impossible, de surmonter les obstacles. Néanmoins, dans un domaine où les scientifiques ont lutté pendant des décennies et n’ont vu que quelques lueurs d’espoir, l’apprentissage par la machine peut être leur meilleur atout.

Reproduction de séisme en laboratoire

Le regretté sismologue Charles Richter, a noté en 1977, que la prévision des tremblements de terre pouvait constituer «un terrain de chasse agréable pour les amateurs, les manivelles et les faux imitateurs de publicité». Aujourd'hui, de nombreux sismologues vous diront qu'ils ont vu leur juste part des trois.
Mais il y a eu aussi des scientifiques réputés qui ont concocté des théories qui, rétrospectivement, semblent terriblement mal orientées, voire carrément farfelues. Il y avait le géophysicien Panayiotis Varotsos de l'Université d'Athènes, qui prétendait pouvoir détecter les tremblements de terre imminents en mesurant les «signaux électriques sismiques». les fondant sur une idée ténue que les éclats de roche dans les mines souterraines étaient des signes évidents de tremblements de terre à venir.
Paul Johnson est bien conscient de cette histoire mouvementée. Il sait que la simple phrase «prédiction des séismes» est taboue dans de nombreux domaines. Il connaît les six scientifiques italiens reconnus coupables d'homicide involontaire en 2012 pour avoir minimisé les chances d'un tremblement de terre près de la ville de L'Aquila, dans le centre du pays, quelques jours avant que la région ne soit dévastée par une magnitude de 6,3. (Les convictions ont été annulées par la suite .) Il est au courant des éminents sismologues qui ont déclaré avec force que «les séismes ne peuvent être prédits».
Mais Johnson sait aussi que les tremblements de terre sont des processus physiques, qui ne diffèrent en rien de l’effondrement d’une étoile mourante ou du mouvement des vents. Et bien qu'il souligne que son objectif principal est de mieux comprendre la physique des failles, il n'a pas évincé le problème de la prédiction.
Il y a plus de dix ans, Johnson a commencé à étudier les «tremblements de terre de laboratoire», constitués de blocs glissants séparés par de minces couches de matériau granulaire. Comme les plaques tectoniques, les blocs ne glissent pas de manière fluide mais de manière incohérente: ils collent généralement les uns aux autres pendant plusieurs secondes, maintenus en place par friction, jusqu'à ce que la contrainte de cisaillement augmente suffisamment pour qu'ils glissent soudainement. Ce glissement - la version de laboratoire d’un tremblement de terre - libère l'énergie, puis le cycle du stick-slip commence à nouveau.
Lorsque Johnson et ses collègues ont enregistré le signal acoustique émis au cours de ces cycles de dérapage, ils ont remarqué des pointes nettes juste avant chaque dérapage. Ces événements précurseurs étaient l’équivalent en laboratoire des ondes sismiques produites avant un séisme. Mais, alors que les sismologues avaient du mal à traduire les difficultés en prévision du séisme principal, Johnson et ses collègues ne parvenaient pas à trouver comment transformer les événements précurseurs en prévisions fiables des tremblements de terre en laboratoire. «Nous étions en quelque sorte dans une impasse», a rappelé Johnson. "Je ne voyais aucun moyen de procéder."

Analyse des données et expériences en laboratoire

Lors d'une réunion à Los Alamos il y a quelques années, Johnson a expliqué son dilemme à un groupe de théoriciens. Ils lui ont suggéré de reprendre les analyses des données en utilisant l’intelligence artificielle, une approche bien connue pour sa capacité à reconnaître les modèles de données audio.
Ensemble, les scientifiques ont élaboré un plan. Ils prendraient environ cinq minutes d’audio enregistrées au cours de chaque série expérimentale (comprenant environ 20 cycles stick-slip) et les découperaient en de nombreux segments minuscules. Pour chaque segment, les chercheurs ont calculé plus de 80 caractéristiques statistiques, dont le signal moyen, la variation de cette moyenne et des informations indiquant si le segment contenait un événement précurseur. Comme les chercheurs analysaient les données avec le recul, ils savaient également combien de temps s’était écoulé entre chaque segment sonore et la défaillance subséquente de la panne de laboratoire.
Armés de ces données d'apprentissage, ils ont utilisé ce que l'on appelle un algorithme d'apprentissage automatique pour rechercher systématiquement des combinaisons de caractéristiques fortement associées au temps restant avant l'échec. Après quelques minutes de données expérimentales, l'algorithme pourrait commencer à prévoir les temps de défaillance en fonction des caractéristiques de l'émission acoustique uniquement.
Johnson et ses collègues ont choisi d'utiliser un algorithme aléatoire pour prédire le temps avant le prochain glissement, notamment parce que, comparé aux réseaux de neurones et à d'autres algorithmes d'apprentissage automatique populaires, les algorithmes aléatoires sont relativement faciles à interpréter. L'algorithme fonctionne essentiellement comme un arbre de décision dans lequel chaque branche divise l'ensemble de données en fonction de certaines caractéristiques statistiques. L'arborescence conserve ainsi un enregistrement des caractéristiques de l'algorithme utilisé pour effectuer ses prédictions, ainsi que de l'importance relative de chaque caractéristique pour aider l'algorithme à atteindre ces prévisions.

Etude des failles et hypothèses de recherche

Lorsque les chercheurs de Los Alamos ont exploré le fonctionnement interne de leur algorithme, ce qu'ils ont appris les a surpris. La caractéristique statistique sur laquelle l’algorithme s’appuyait le plus pour ses prédictions n’était pas liée aux événements précurseurs juste avant un tremblement de terre en laboratoire. Il s’agissait plutôt de la variance - une mesure de la fluctuation du signal par rapport à la moyenne - et elle a été diffusée tout au long du cycle stick-slip, et pas seulement dans les moments qui ont immédiatement précédé l’échec. La variance commençait peu à peu, puis augmentait progressivement pendant la période précédant le tremblement de terre, vraisemblablement à mesure que les grains entre les blocs se bousculaient de plus en plus sous l’effort de cisaillement croissant. Juste en connaissant cette variance, l’algorithme pourrait deviner de manière décente le moment où un glissement se produirait; les informations sur les événements précurseurs ont permis d'affiner ces hypothèses.
La découverte avait de grandes implications potentielles. Pendant des décennies, de potentiels pronostiqueurs de tremblements de terre avaient pris des mesures pour les événements sismiques isolés. Le résultat de Los Alamos donne à penser que tout le monde a regardé au mauvais endroit - que la clé de la prédiction réside plutôt dans les informations plus subtiles diffusées pendant les périodes relativement calmes entre les grands événements sismiques.
Certes, les blocs coulissants ne commencent pas à capturer la complexité chimique, thermique et morphologique des véritables failles géologiques. Pour montrer que l’intelligence artificielle pouvait prédire de vrais séismes, Johnson devait le tester sur une faille réelle. Quel meilleur endroit pour le faire, at-il estimé, que dans le nord-ouest du Pacifique?

Hors laboratoire

La plupart des sites, sinon tous, qui peuvent subir un séisme de magnitude 9, sont des zones de subduction, où une plaque tectonique plonge sous une autre. Le tremblement de terre de Tohoku et le Tsunami qui a dévasté le littoral du pays en 2011 ont été dévastés par une zone de subduction située juste à l'est du Japon. Un jour, la zone de subduction de Cascadia, où la plaque Juan de Fuca plonge sous la plaque nord-américaine, dévastera de la même manière Puget Sound, l'île de Vancouver et le nord-ouest du Pacifique environnant.
La zone de subduction de Cascadia s’étend sur environ 1 000 kilomètres de la côte du Pacifique, du cap Mendocino au nord de la Californie à l’île de Vancouver. En janvier 1700, il a engendré un tremblement de magnitude 9 et un tsunami qui ont atteint les côtes du Japon. Les archives géologiques suggèrent que tout au long de l'Holocène, la faille a provoqué de tels méga-tremblements environ une fois par demi-millénaire, à quelques centaines d'années près.
C'est l'une des raisons pour lesquelles les sismologues ont porté une attention particulière aux tremblements de terre à glissement lent de la région. Les glissements lents dans les parties inférieures d'une faille de zone de subduction sont supposés transmettre de petites quantités d'énergie à la croûte fragile située au-dessus, où se produisent des tremblements de terre rapides et catastrophiques. À chaque glissement lent dans la région de Puget Sound-Île de Vancouver, les chances d'un méga-tremblement du nord-ouest du Pacifique augmentent légèrement. En effet, un glissement lent a été observé au Japon au cours du mois qui a précédé le séisme de Tohoku.
Pour Johnson, cependant, il existe une autre raisonde prêter attention aux tremblements de terre à glissement lent: Ils produisent beaucoup de données. À titre de comparaison, il n’y a pas eu de séisme rapide majeur sur le tronçon de faille entre Puget Sound et l’île de Vancouver au cours des 12 dernières années. Dans le même laps de temps, la faille a généré une douzaine de glissements lents, chacun enregistré dans un catalogue sismique détaillé.
Ce catalogue sismique est la contrepartie réelle des enregistrements acoustiques de l'expérience sismique en laboratoire de Johnson. Comme ils l'ont fait pour les enregistrements acoustiques, Johnson et ses collègues ont découpé les données sismiques en petits segments, caractérisant chaque segment avec une série de caractéristiques statistiques. Ils ont ensuite transmis ces données de formation, ainsi que des informations sur la synchronisation des événements antérieurs à glissement lent, à leur algorithme d'apprentissage automatique.
Après une formation sur les données de 2007 à 2013, l'algorithme a été en mesure de prédire les glissements lents survenus entre 2013 et 2018, sur la base des données enregistrées dans les mois précédant chaque événement. L'élément clé était l'énergie sismique, une quantité étroitement liée à la variance du signal acoustique dans les expériences de laboratoire. Comme la variance, l'énergie sismique a grimpé de façon caractéristique dans la période précédant chaque glissement lent.
Les prévisions de Cascadia n'étaient pas aussi précises que celles concernant les séismes de laboratoire. Les coefficients de corrélation caractérisant l'adéquation des prédictions avec l'ajustement des observations étaient nettement plus faibles dans les nouveaux résultats que dans l'étude en laboratoire. Néanmoins, l'algorithme a été capable de prédire la totalité des cinq glissements lents qui se sont produits entre 2013 et 2018, indiquant les heures de début, précise Johnson, à quelques jours à peine. (Un glissement lent survenu en août 2019 n'a pas été inclus dans l'étude.)
Pour De Hoop, le grand avantage est que «les techniques d'apprentissage automatique nous ont fourni une entrée dans la recherche de données pour rechercher des choses que nous n'avions jamais identifiées ou vues auparavant». Mais il prévient qu'il reste encore du travail à faire. «Un pas important a été franchi - un pas extrêmement important. Mais c'est comme un tout petit pas dans la bonne direction. "

Des vérités qui donnent à réfléchir

L'objectif de la prévision sismique n'a jamais été de prédire les glissements lents. Il s'agit plutôt de prédire des tremblements de terre soudains et catastrophiques qui présentent un danger pour la vie et la vie. Pour l’apprentissage par la machine, cela présente un paradoxe apparent: les plus gros séismes, ceux que les sismologues aimeraient le plus pouvoir prédire, sont aussi les plus rares. Comment un algorithme d'apprentissage automatique obtiendra-t-il assez de données d'apprentissage pour les prédire avec confiance
Le groupe Los Alamos parie que leurs algorithmes n'auront pas besoin de s'entraîner à la prévision de séismes catastrophiques. Des études récentes suggèrent que les schémas sismiques avant les petits séismes sont statistiquement similaires à ceux de leurs homologues plus grands et que, chaque jour, des dizaines de petits tremblements de terre peuvent se produire sur une seule faille. Un ordinateur formé à des milliers de ces petits simulateurs pourrait être suffisamment polyvalent pour prévoir les plus gros. Les algorithmes d’apprentissage automatique pourraient également permettre de s’entraîner sur des simulations informatiques de séismes rapides qui pourraient un jour servir pour des données réelles.
Mais même dans ce cas, les scientifiques devront faire face à cette vérité qui fait réfléchir: bien que les processus physiques qui conduisent à une faille au bord d'un séisme puissent être prévisibles, le déclenchement d'un séisme - la croissance d'un petit séisme en une faille complète - la plupart des scientifiques pensent qu’il contient au moins un élément aléatoire. En supposant que ce soit le cas, quelle que soit la qualité de la formation des machines, elles pourraient ne jamais être en mesure de prédire les séismes, de même que les scientifiques prévoient d'autres catastrophes naturelles.
«Nous ne savons pas encore ce que prévoient les prévisions en ce qui concerne le calendrier», a déclaré Johnson. “Serait-ce comme un ouragan Non je ne pense pas."
Dans le meilleur des cas, les prévisions de grands séismes auront probablement des semaines, des mois ou des années. De telles prévisions ne pourraient probablement pas être utilisées, par exemple, pour coordonner une évacuation de masse à la veille d'un tremblement de terre. Mais ils pourraient améliorer l'état de préparation du public, aider les fonctionnaires à cibler leurs efforts en vue de la rénovation de bâtiments dangereux et, sinon, atténuer les risques de séismes catastrophiques.
Johnson voit cela comme un objectif à atteindre. Cependant, toujours réaliste, il sait que cela prendra du temps. "Je ne dis pas que nous allons prédire les tremblements de terre de mon vivant", a-t-il déclaré, "mais ... nous allons faire énormément de progrès."

Date de création : 2019-09-23
Auteur :

0 Avis

Pas encore d'avis.

Déposer un avis

CGU - Gralon - Confidentialité
Accéder au site complet
© Gralon 2011-2024