Cette image représente une visualisation conceptuelle de données numériques et de réseaux d’information, probablement destinée à illustrer des thématiques comme l’intelligence artificielle, la simulation numérique ou la transformation digitale dans l’industrie.

La simulation sobre, un nouveau levier d’innovation pour l’industrie lourde

À l’heure où la sidérurgie moderne peut embarquer plus de capteurs qu’un satellite [1,2], l’industrie lourde se découvre un nouveau mantra : calculer plus pour consommer moins.

Flux thermique, corrosion des installations, dynamique de bulles dans un bain de verre en fusion, tout semble désormais passer au crible du calcul haute performance (HPC) avec une promesse : innover pour réduire la dépense énergétique, allonger la durée de vie des installations, limiter les rebuts et favoriser le recyclage. Le calcul haute performance, prometteur donc, mais à quel prix ?

La simulation numérique traditionnelle : atouts et angles morts

La simulation numérique, hier cantonnée aux laboratoires de recherche, irrigue aujourd’hui toute la chaîne de valeur : conception en bureau d’étude, pilotage intelligent de procédés ou encore maintenance prédictive.

Mais ce déluge de modélisations numériques se paie en main-d’œuvre experte, en semaines de traitement et en kilowattheures.

En effet, les logiciels de simulation numérique traditionnels développés dans les années 1990 ne sont utilisables qu’au prix d’une formation scientifique de haut niveau. Plusieurs années sont nécessaires à leur maîtrise complète par des ingénieurs confirmés, qui sont alors souvent les seuls collaborateurs en mesure de lancer des cas de simulation.

Les approches classiquement utilisées par ces logiciels sont les méthodes des éléments finis (FEM) ou des volumes finis (FVM), qui reposent sur la résolution approchée des équations de la physique sur un maillage constitué d’un très grand nombre d’inconnues appelées degrés de liberté. Ces méthodes ont le mérite d’être flexibles et permettent de répondre à une large diversité de problèmes, mais au prix d’un coût de calcul souvent conséquent : il est parfois nécessaire d’attendre jusqu’à plusieurs semaines que le traitement se termine avant de pouvoir analyser les résultats [3,4].

Se pose alors la question des modèles spécialisés, plus efficaces, taillés pour délivrer juste ce qu’il faut de la physique afin de répondre bien plus rapidement à une question d’intérêt industriel.

Le nouveau paradigme des méthodes numériques spécialisées

Comment conserver – voire accroître – la fidélité physique tout en réduisant simultanément le temps de calcul, la facture énergétique et la taille des jeux de données ? La recherche de sobriété des calculs numériques conduit naturellement à troquer une unique méthode numérique passe-partout (comme les FEM et FVM) contre une palette de méthodes spécialisées se répartissant la charge de travail en fonction de leurs domaines de prédilection.

On peut alors citer deux de ces méthodes, qui, à précision égale, permettent d’aller jusqu’à 1 000 fois plus vite que les approches traditionnelles : Par exemple, la Boundary Element Method (BEM) [5], réduisant habillement la dimension spatiale des problèmes thermiques acoustiques ou électromagnétiques en ne maillant que la surface [6], ou encore la Lattice Bolzmann Method (LBM) [7], initialement pensée pour la dynamique des gaz, mais très efficace pour calculer des écoulements, même turbulents [8,9].

Il existe bien sûr d’autres méthodes spécialisées, comme la Smooth Particle Hydrodynamics (SPH) [10] ou la Discrete Element Method (DEM) [11] pour des dynamiques de grains ou des écoulements fortement agités, la méthode Hybrid High Order (HHO) [12] pour la mécanique des solides, la Population Balance Equation pour les dispersions denses [13] ou encore les méthodes spectrales (SEM) permettant de résoudre élégamment une large gamme de problèmes physiques sur des géométries standards [14].

L’enjeu n’est donc plus de tout résoudre avec un seul marteau numérique, mais de composer la boîte à outils la plus frugale et efficace sans rien concéder sur la représentativité physique.

 

Modèles réduits et modèles minimaux : compresser ou simplifier ?

On peut également penser à la réduction de modèle, qui à partir d’une simulation haute-fidélité en extrait l’essence physique, isole les modes dominants, puis assemble une modélisation réduite plus efficiente. Plusieurs approches existent, la plus connue étant la Proper Orthogonal Decomposition (POD). Les gains parlent d’eux-mêmes : un four verrier passe d’une modélisation complète complexe à un modèle réduit s’exécutant 50 à 1 000 fois plus vite que le temps réel [15]. Plus qu’un gain de confort, cette efficacité permise par la réduction de modèle pourrait, lorsqu’elle est possible, faire des outils de simulation des processus d’aide à la décision en temps réel.

Les modèles minimaux, cousins éloignés de la réduction de modèle, cherchent quant à eux à simplifier la modélisation physique d’un phénomène en enlevant tout ce qui s’avère superflu : parfois une géométrie 3D est réduite à une vision bidimensionnelle, ou encore certains phénomènes physiques comme l’expansion thermique des liquides ou la force de Coriolis résultant de la rotation de la Terre sont négligés : l’objectif, comme à bord d’une montgolfière, est de garder le strict minimum, c’est-à-dire les quelques équations représentatives des phénomènes d’intérêt, pas plus.

Le gain de performance est significatif et permet par la même occasion de réellement comprendre et d’expliquer les origines des phénomènes physiques observés. Le prix à payer est qu’elles nécessitent le plus souvent d’itérer sur le niveau de modélisation avant de converger vers le bon ratio entre complexité mathématique et représentativité physique et industrielle.

 

Intelligence artificielle : catalyseur… mais dépendante des données déterministes

L’IA s’invite aussi au cœur de l’innovation industrielle comme catalyseur de la simulation numérique, à une condition : disposer d’un socle de données de qualité et en quantité importante. Les jeux de données d’entraînement des modèles d’IA proviennent le plus souvent de calculs haute-fidélité [18]. Sur cette base, des surrogate models (réseaux de neurones ou des Physics-Informed Neural Networks) peuvent diviser le temps de réponse par 100 et, dans certains cas, se substituer à une méthode de calcul classique [16,17]. Une belle promesse de performance, sous réserves de phases d’entrainement intensives, utilisant souvent une quantité importante de résultats de simulations numériques déterministes [18-19].

Mais la médaille a son revers : extrapolation hasardeuse hors domaine d’apprentissage [20], dette carbone de l’entraînement massif sur des simulations haute-fidélité très coûteuses [21] et opacité des « boîtes noires » IA – puisqu’il n’est pas possible d’expliquer le raisonnement ayant conduit à une solution – ainsi générées [22]. En réponse, de bonnes pratiques émergent : active learning pour n’ajouter que les points utiles [23], quantification d’incertitude systématique [24] et co-simulation entre IA et modèle réduit [25], pour garantir la robustesse physique. Autant de garde-fous indispensables pour faire de l’IA un réel levier de sobriété.

 

Infrastructure : du cloud à l’edge, quelle architecture efficace ?

Choisir où lancer ses calculs devient presque aussi stratégique que l’algorithme lui-même. La solution cloud promet élasticité instantanée, paiement à l’usage et une utilisation de cartes graphiques (GPU) dernier cri mais se posent en contrepartie des questions de souveraineté de la donnée et de latence. La solution des calculs On-premise, chez l’industriel directement, permet plus de contrôle mais nécessite la maintenance d’un cluster de calcul. Enfin l’edge computing constitue un modèle numérique léger embarqué, prenant des décisions en quelques millisecondes sans remonter au data-center.

À contre-pied des approches classiques souvent longues et coûteuses ayant régné pendant ces dernières décennies, l’industrie dispose désormais d’une palette d’approches complémentaires pour faire mieux avec moins : méthodes déterministes spécialisées, modèles réduits ou minimaux et infrastructures adaptées. Dans un contexte d’urgence à la décarbonation des procédés, la simulation sobre, rapide et spécialisée, n’est plus une option, c’est une condition de survie. Reste à articuler données, compétences et moyens de calcul pour convertir ces atouts techniques en avantage compétitif durable.

 

__________________________________________________________________________________________

Références

[1]: https://www.thyssenkrupp-steel.com/en/company/digitalization/smart-factory/smart-factory.html
[2]: https://www.nesdis.noaa.gov/news/all-instruments-noaas-goes-r-satellite-now-integrated-spacecraft

[3]: Mayr, Bernhard et al. « The usability and limits of the steady flamelet approach in oxy-fuel combustions. » Energy 90 (2015): 1478-1489.
[4]: Zhang, Haijie et al. « Experimental evaluation of MHD modeling of EMS during continuous casting. » Metallurgical and Materials Transactions B 53.4 (2022): 2166-2181.
[5]: Liu, Yijun. Fast multipole boundary element method: theory and applications in engineering. Cambridge university press, 2009.

[6]: Htet, Aung Thu et al. « Comparative performance of the finite element method and the boundary element fast multipole method for problems mimicking transcranial magnetic stimulation (TMS). » Journal of neural engineering 16.2 (2019): 024001.
[7]: Kruger, Timm. Lattice Boltzmann Method-Principles and Practice. Springer International Publish, 2016.
[8] King, Marco-Felipe et al. « Modelling urban airflow and natural ventilation using a GPU-based lattice-Boltzmann method. » Building and Environment 125 (2017): 273-284.
[9] Sankaranarayanan, K., et al. « Analysis of drag and virtual mass forces in bubbly suspensions using an implicit formulation of the lattice Boltzmann method. » Journal of Fluid Mechanics 452 (2002): 61-96.
[10] Violeau, Damien. Fluid mechanics and the SPH method: theory and applications. Oxford University Press, 2012.

[11] Thornton, Colin. « Granular dynamics, contact mechanics and particle system simulations. » A DEM study. Particle Technology Series 24 (2015).
[12] Cicuttin, Matteo, Alexandre Ern, and Nicolas Pignet. Hybrid high-order methods: a primer with applications to solid mechanics. Cham, Switzerland: Springer, 2021.
[13] Marchisio, Daniele L., and Rodney O. Fox. Computational models for polydisperse particulate and multiphase systems. Cambridge University Press, 2013.
[14] Boyd, John P. Chebyshev and Fourier spectral methods. Courier Corporation, 2001.
[15] https://research.tue.nl/en/publications/application-of-proper-orthogonal-decomposition-to-reduce-detailed-

[16] Zhang, Xinqi et al. « Hydrogen jet and diffusion modeling by physics-informed graph neural network. » Renewable and Sustainable Energy Reviews 207 (2025): 114898.
[17] Stiasny, Jochen, Samuel Chevalier, and Spyros Chatzivasileiadis. « Learning without data: Physics-informed neural networks for fast time-domain simulation. » 2021 IEEE international conference on communications, control, and computing technologies for smart grids (SmartGridComm). IEEE, 2021.
[18] Karbasian, Hamidreza, and Wim M. van Rees. « A deep-learning surrogate model approach for optimization of morphing airfoils. » AIAA SCITECH 2023 Forum. 2023.

[29] Roznowicz, Davide et al. « Large-scale graph-machine-learning surrogate models for 3D-flowfield prediction in external aerodynamics. » Advanced Modeling and Simulation in Engineering Sciences 11.1 (2024): 6.
[20] Fesser, Lukas, Luca D’Amico-Wong, and Richard Qiu. « Understanding and mitigating extrapolation failures in physics-informed neural networks. » arXiv preprint arXiv:2306.09478 (2023).

[21] Patterson, David et al. « Carbon emissions and large neural network training. » arXiv preprint arXiv:2104.10350 (2021).
[22] Ranasinghe, Nisal, et al. « Ginn-kan: Interpretability pipelining with applications in physics informed neural networks. » arXiv preprint arXiv:2408.14780 (2024).
[23] Rygiel, Patryk et al. « Active Learning for Deep Learning-Based Hemodynamic Parameter Estimation. » arXiv preprint arXiv:2503.03453 (2025).
[24] Fesser, Lukas, Luca D’Amico-Wong, and Richard Qiu. « Understanding and mitigating extrapolation failures in physics-informed neural networks. » arXiv preprint arXiv:2306.09478 (2023).
[25] Matray, Victor et al. « A hybrid numerical methodology coupling Reduced Order Modeling and Graph Neural Networks for non-parametric geometries: applications to structural dynamics problems. » Computer Methods in Applied Mechanics and Engineering 430 (2024): 117243.

Photo de Kevin Lippera

Kevin Lippera

Diplômé de l’École nationale des ponts et chaussées et docteur en physique de l’École polytechnique, il est ancien chercheur de l’équipe physique de la fusion de Saint‑Gobain...

Lire la bio de l'auteur
Devenez contributeurs !

Vous souhaitez partager votre point de vue sur une problématique industrielle ? Contactez-nous en nous proposant un sujet et un texte court.

Devenir contributeur
Partager
Imprimer
Pour réagir