Une nouvelle application de l’IA vient de supprimer l’un des plus grands obstacles en astrophysique – Technoguide

En utilisant un peu de magie d’apprentissage automatique, les astrophysiciens peuvent désormais simuler des univers vastes et complexes en un millième du temps nécessaire avec les méthodes conventionnelles. La nouvelle approche aidera à inaugurer une nouvelle ère dans les simulations cosmologiques à haute résolution, rapportent ses créateurs dans une étude publiée en ligne le 4 mai dans Proceedings of the National Academy of Sciences.

«Pour le moment, les contraintes sur le temps de calcul signifient généralement que nous ne pouvons pas simuler l’univers à la fois à haute résolution et à grand volume», explique l’auteur principal de l’étude Yin Li, astrophysicien au Flatiron Institute de New York. “Avec notre nouvelle technique, il est possible d’avoir les deux efficacement. À l’avenir, ces méthodes basées sur l’IA deviendront la norme pour certaines applications.”

La nouvelle méthode développée par Li et ses collègues alimente un algorithme d’apprentissage automatique avec des modèles d’une petite région de l’espace à basse et haute résolution. L’algorithme apprend à mettre à l’échelle les modèles basse résolution pour qu’ils correspondent aux détails trouvés dans les versions haute résolution. Une fois entraîné, le code peut prendre des modèles basse résolution à grande échelle et générer des simulations de «super-résolution» contenant jusqu’à 512 fois plus de particules.

Le processus revient à prendre une photo floue et à ajouter les détails manquants, ce qui la rend nette et claire.

Cette montée en gamme apporte un gain de temps significatif. Pour une région de l’univers d’environ 500 millions d’années-lumière contenant 134 millions de particules, les méthodes existantes nécessiteraient 560 heures pour produire une simulation haute résolution à l’aide d’un seul cœur de traitement. Avec la nouvelle approche, les chercheurs n’ont besoin que de 36 minutes.

Les résultats étaient encore plus spectaculaires lorsque davantage de particules étaient ajoutées à la simulation. Pour un univers 1 000 fois plus grand avec 134 milliards de particules, la nouvelle méthode des chercheurs a nécessité 16 heures sur une seule unité de traitement graphique. Les méthodes existantes prendraient tellement de temps qu’elles ne valent même pas la peine d’être exécutées sans ressources de calcul intensif dédiées, dit Li.

Li est chercheur conjoint au Center for Computational Astrophysics du Flatiron Institute et au Center for Computational Mathematics. Il a co-écrit l’étude avec Yueying Ni, Rupert Croft et Tiziana Di Matteo de l’Université Carnegie Mellon; Simeon Bird de l’Université de Californie, Riverside; et Yu Feng de l’Université de Californie, Berkeley.

Les simulations cosmologiques sont indispensables pour l’astrophysique. Les scientifiques utilisent les simulations pour prédire à quoi ressemblerait l’univers dans divers scénarios, par exemple si l’énergie sombre séparant l’univers variait au fil du temps. Les observations au télescope peuvent alors confirmer si les prévisions des simulations correspondent à la réalité. La création de prédictions testables nécessite d’exécuter des simulations des milliers de fois, une modélisation plus rapide serait donc une grande aubaine pour le terrain.

Réduire le temps nécessaire pour exécuter des simulations cosmologiques «a le potentiel de fournir des avancées majeures en cosmologie numérique et en astrophysique», déclare Di Matteo. “Les simulations cosmologiques suivent l’histoire et le destin de l’univers, jusqu’à la formation de toutes les galaxies et de leurs trous noirs.”

Jusqu’à présent, les nouvelles simulations ne prennent en compte que la matière noire et la force de gravité. Bien que cela puisse sembler une simplification excessive, la gravité est de loin la force dominante de l’univers à grande échelle, et la matière noire représente 85% de toutes les «choses» du cosmos. Les particules de la simulation ne sont pas des particules de matière noire littérales, mais sont plutôt utilisées comme des trackers pour montrer comment des morceaux de matière noire se déplacent dans l’univers.

Le code de l’équipe a utilisé des réseaux de neurones pour prédire comment la gravité déplacerait la matière noire au fil du temps. Ces réseaux ingèrent des données d’entraînement et exécutent des calculs à l’aide des informations. Les résultats sont ensuite comparés au résultat attendu. Avec la formation continue, les réseaux s’adaptent et deviennent plus précis.

L’approche spécifique utilisée par les chercheurs, appelée réseau antagoniste génératif, oppose deux réseaux de neurones l’un à l’autre. Un réseau prend des simulations à basse résolution de l’univers et les utilise pour générer des modèles à haute résolution. L’autre réseau essaie de distinguer ces simulations de celles faites par des méthodes conventionnelles. Au fil du temps, les deux réseaux de neurones s’améliorent de plus en plus jusqu’à ce que, finalement, le générateur de simulation l’emporte et crée des simulations rapides qui ressemblent aux lentes conventionnelles.

«Nous n’avons pas pu le faire fonctionner pendant deux ans», dit Li, «et tout à coup cela a commencé à fonctionner. Nous avons obtenu de beaux résultats qui correspondaient à ce que nous attendions. Nous avons même fait des tests à l’aveugle nous-mêmes, et la plupart d’entre nous ne pouvaient pas le dire lequel était “réel” et lequel était “faux”. “

Bien qu’ils n’aient été entraînés qu’en utilisant de petites zones de l’espace, les réseaux de neurones ont répliqué avec précision les structures à grande échelle qui n’apparaissent que dans d’énormes simulations.

Cependant, les simulations ne capturent pas tout. Parce qu’ils se concentrent uniquement sur la matière noire et la gravité, les phénomènes à plus petite échelle – tels que la formation d’étoiles, les supernovae et les effets des trous noirs – sont laissés de côté. Les chercheurs prévoient d’étendre leurs méthodes pour inclure les forces responsables de tels phénomènes et de faire fonctionner leurs réseaux de neurones «à la volée» parallèlement aux simulations conventionnelles pour améliorer la précision. «Nous ne savons pas encore exactement comment faire cela, mais nous faisons des progrès», dit Li.

.

A propos Technoguide

Voir aussi

Les nouveaux écouteurs sans fil Beats Studio d’Apple avec étui de chargement repérés dans iOS, tvOS 14.6 Betas

Selon les images trouvées dans iOS 14.6 beta et tvOS 14.6 beta, Apple travaille sur …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Défiler vers le haut