Un cadre propulsé par un supercalculateur développé par le SCEC offre une nouvelle vision de l’aléa sismique – Technoguide

Les tremblements de terre massifs sont, heureusement, des événements rares. Mais cette rareté des informations nous aveugle à certains égards sur leurs risques, en particulier lorsqu’il s’agit de déterminer le risque pour un emplacement ou une structure spécifique.

“Nous n’avons pas observé la plupart des événements possibles qui pourraient causer de gros dégâts”, a expliqué Kevin Milner, informaticien et chercheur en sismologie au Southern California Earthquake Center (SCEC) de l’Université de Californie du Sud. “En prenant le sud de la Californie comme exemple, nous n’avons pas eu de tremblement de terre vraiment important depuis 1857 – c’était la dernière fois que le sud de San Andreas a fait irruption dans un tremblement de terre de magnitude 7,9. Un tremblement de terre de San Andreas pourrait toucher une zone beaucoup plus grande que le Le tremblement de terre de Northridge en 1994 et d’autres grands tremblements de terre peuvent également survenir. C’est ce qui nous inquiète. “

La manière traditionnelle de contourner ce manque de données consiste à creuser des tranchées pour en savoir plus sur les ruptures passées, à collecter des informations sur de nombreux tremblements de terre partout dans le monde et à créer un modèle statistique de danger, ou à utiliser des supercalculateurs pour simuler un tremblement de terre spécifique dans un endroit spécifique avec un haut degré de fidélité.

Cependant, un nouveau cadre de prédiction de la probabilité et de l’impact des tremblements de terre sur toute une région, développé par une équipe de chercheurs associés au SCEC au cours de la dernière décennie, a trouvé un terrain d’entente et peut-être un meilleur moyen de déterminer les risques.

Une nouvelle étude dirigée par Milner et Bruce Shaw de l’Université de Columbia, publiée dans le Bulletin de la Seismological Society of America en janvier 2021, présente les résultats d’un prototype de simulateur de tremblement de terre Rate-State, ou RSQSim, qui simule des centaines de milliers d’années de séisme histoire en Californie. Couplé à un autre code, CyberShake, le framework peut calculer la quantité de secousse qui se produirait pour chaque tremblement de terre. Leurs résultats se comparent bien aux tremblements de terre historiques et aux résultats d’autres méthodes, et affichent une distribution réaliste des probabilités sismiques.

Selon les développeurs, la nouvelle approche améliore la capacité de déterminer l’ampleur d’un tremblement de terre à un endroit donné, permettant aux développeurs de code du bâtiment, aux architectes et aux ingénieurs en structure de concevoir des bâtiments plus résilients qui peuvent survivre aux tremblements de terre sur un site spécifique.

“Pour la première fois, nous avons tout un pipeline du début à la fin où l’occurrence des tremblements de terre et la simulation du mouvement du sol sont basées sur la physique”, a déclaré Milner. “Il peut simuler jusqu’à 100 000 ans sur un système de pannes vraiment compliqué.”

Application d’une puissance informatique massive à de gros problèmes

RSQSim transforme les représentations mathématiques des forces géophysiques en jeu dans les tremblements de terre – le modèle standard de la nucléation et de la propagation des ruptures – en algorithmes, puis les résout sur certains des supercalculateurs les plus puissants de la planète. La recherche intensive en calcul a été rendue possible pendant plusieurs années par des supercalculateurs parrainés par le gouvernement au Texas Advanced Computing Center, y compris Frontera – le système le plus puissant de toutes les universités au monde – Blue Waters au National Center for Supercomputing Applications, et Summit au centre de calcul du leadership d’Oak Ridge.

«Une façon dont nous pourrions être en mesure de mieux prédire les risques est la modélisation basée sur la physique, en exploitant la puissance de systèmes comme Frontera pour exécuter des simulations», a déclaré Milner. “Au lieu d’une distribution statistique empirique, nous simulons la survenue de tremblements de terre et la propagation de ses ondes.”

«Nous avons fait beaucoup de progrès sur Frontera pour déterminer à quel type de tremblement de terre nous pouvons nous attendre, sur quelle faute et à quelle fréquence», a déclaré Christine Goulet, directrice générale des sciences appliquées au SCEC, également impliquée dans les travaux. “Nous ne prescrivons ni ne disons au code quand les tremblements de terre vont se produire. Nous lançons une simulation de centaines de milliers d’années, et laissons simplement le code transférer le stress d’une faute à une autre.”

Les simulations ont commencé avec la topographie géologique de la Californie et ont simulé plus de 800 000 années virtuelles comment les contraintes se forment et se dissipent lorsque les forces tectoniques agissent sur la Terre. À partir de ces simulations, le cadre a généré un catalogue – un enregistrement indiquant qu’un tremblement de terre s’est produit à un certain endroit avec une certaine magnitude et des attributs à un moment donné. Le catalogue que l’équipe SCEC a produit sur Frontera et Blue Waters était parmi les plus grands jamais réalisés, a déclaré Goulet. Les sorties de RSQSim ont ensuite été introduites dans CyberShake qui a de nouveau utilisé des modèles informatiques de géophysique pour prédire combien de secousses (en termes d’accélération du sol, de vitesse et de durée) se produiraient à la suite de chaque tremblement de terre.

«Le cadre produit un historique complet du temps de glissement: où une rupture se produit et comment elle s’est développée», a expliqué Milner. “Nous avons trouvé qu’il produit des mouvements de terrain réalistes, ce qui nous indique que la physique implémentée dans le modèle fonctionne comme prévu.” Ils ont plus de travail prévu pour la validation des résultats, ce qui est essentiel avant l’acceptation des applications de conception.

Les chercheurs ont découvert que le cadre RSQSim produit globalement des tremblements de terre riches et variables – signe qu’il produit des résultats raisonnables – tout en générant des effets de source et de trajectoire répétables.

“Pour de nombreux sites, le risque de secousse diminue, par rapport aux estimations de l’état de la pratique”, a déclaré Milner. “Mais pour quelques sites qui ont des configurations spéciales de failles proches ou de caractéristiques géologiques locales, comme près de San Bernardino, le risque a augmenté. Nous travaillons à mieux comprendre ces résultats et à définir des approches pour les vérifier.”

Les travaux aident à déterminer la probabilité qu’un tremblement de terre se produise le long de l’une des centaines de failles génératrices de tremblements de terre en Californie, l’ampleur du tremblement de terre à laquelle on pourrait s’attendre et comment il peut déclencher d’autres tremblements de terre.

Le soutien du projet provient de l’US Geological Survey (USGS), de la National Science Foundation (NSF) et de la WM Keck Foundation. Frontera est la ressource nationale de classe dirigeante de NSF. Le temps de calcul sur Frontera a été fourni par le biais d’un prix de partenariat communautaire à grande échelle (LSCP) au SCEC qui permet à des centaines d’universitaires américains d’accéder à la machine pour étudier de nombreux aspects de la science des tremblements de terre. Les bourses LSCP offrent des allocations prolongées pouvant aller jusqu’à trois ans pour soutenir les efforts de recherche de longue durée. SCEC – qui a été fondée en 1991 et a calculé sur les systèmes TACC pendant plus d’une décennie – est un exemple de premier ordre d’un tel effort.

La création du catalogue a nécessité huit jours de calcul continu sur Frontera et utilisé plus de 3 500 processeurs en parallèle. Simuler les secousses du sol sur 10 sites à travers la Californie nécessitait une quantité comparable de calcul sur Summit, le deuxième supercalculateur le plus rapide au monde.

«L’adoption par la communauté élargie sera naturellement lente», a déclaré Milner. «Parce que de tels résultats auront un impact sur la sécurité, il fait partie de notre diligence raisonnable pour nous assurer que ces résultats sont techniquement défendables par la communauté au sens large», a ajouté Goulet. Mais les résultats de recherche comme ceux-ci sont importants pour aller au-delà des codes du bâtiment généralisés qui, dans certains cas, peuvent ne pas représenter correctement le risque auquel une région est confrontée, alors que dans d’autres cas, ils sont trop prudents.

“L’espoir est que ces types de modèles nous aideront à mieux caractériser les risques sismiques. Nous dépensons donc nos ressources pour construire des bâtiments solides, sûrs et résilients là où ils sont le plus nécessaires”, a déclaré Milner.

Vidéo: https://www.youtube.com/watch?v=AdGctQsjKpU&feature=emb_logo

.

Lire plus

A propos Technoguide

Voir aussi

Le plus grand amas de galaxies connu dans l’univers primitif – Technoguide

Une étude, menée par des chercheurs de l’Instituto de Astrofísica de Canarias (IAC) et réalisée …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Défiler vers le haut