Accueil Recherche Thèmes de recherche Machine Learning & Quantification d’incertitude (MLQ)

Machine Learning & Quantification d’incertitude (MLQ)

Les activités de recherche du thème MLQ se divisent en deux axes principaux :
  • Le développement d’une approche Bayésienne pour la quantification des incertitudes appliquée aux modèles de turbulence industriels;
  • Les méthodes de régression parcimonieuse, symbolique ou à contrainte de rang pour l’identification de systèmes non-linéaires ou la modélisation réduite.

Axe 1. Quantification d’incertitudes et modélisation de la turbulence industrielle

Malgré une augmentation exponentielle des moyens de calcul (puissance des processeurs, calcul parallèle, architecture), la Simulation Numérique Directe (DNS) ou la Simulation des Grandes Echelles (LES) demeurent aujourd’hui impraticables en milieu industriel où les écoulements sont, la plupart du temps, caractérisés par des grands nombres de Reynolds. Aussi, les industriels se tournent plus volontiers vers la résolution des équations de Navier-Stokes moyennées au sens de Reynolds (RANS). Pour autant, en dépit des recherches menées au cours des dernières décennies, aucune modélisation du tenseur de Reynolds ne fait aujourd’hui consensus, d’une part, et l’hypothèse d’alignement du tenseur de Reynolds sur le tenseur des taux de déformation est régulièrement mise en défaut, d’autre part. Partant de ce constat, le laboratoire DynFluid mets en œuvre et/ou développé des approches permettant de :
  • Quantifier l’incertitude de prédiction des simulations RANS : pour permettre la prise en compte des incertitudes, tous les axes de recherche ont été développés en environnement bayésien, en travaillant autour du mélange bayésien de modèles. Ceci a permis d’aboutir à une méthode d’agrégation de modèles variable en espace qui, d’une part, relaxe la contrainte de poids fixe associée à une approche plus classique comme la BMA et, d’autre part, tire profit du Mélange d’Experts et de l’Agrégation de modèles. Cette méthode fait actuellement l’objet d’un développement pour inclure la calibration des paramètres incertains des modèles impliqués dans le mélange.
  • Corriger la partie anisotropique du tenseur de Reynolds : différentes corrections sont établies à partir d’une base d’écoulements canoniques et en utilisant un algorithme d’identification symbolique bayésien (Sparse Bayesian Learning). Les corrections sont ensuite analysées dans un espace de features caractéristiques des écoulements et un algorithme d’apprentissage (Random Forests, Gaussian Mixture Models) permet de sélectionner les meilleures corrections à appliquer en chaque zone de l’écoulement.


Axe 2. Titre IBHS

Dans le cadre du projet PERTINENT financé par l'Institut Carnot ARTS, un travail a été mené concernant la construction, en utilisant des méthodes de machine learning, de modèles de turbulence de type RANS précis pour le calcul de la turbulence hors équilibre. Un algorithme d'identification symbolique déterministe piloté par la CFD (approche en ligne) pour l'apprentissage de modèles algébriques explicites de contrainte de Reynolds (EARSM) à partir de données haute-fidélités a été développé sur la base de l'algorithme SpaRTA d'apprentissage hors ligne [Schmelzer et al. 2020]. Les corrections pour le tenseur de contrainte de Reynolds et la production de quantités turbulentes transportées d'un modèle de base de viscosité turbulente linéaire (LEVM) sont exprimées comme des fonctions de polynômes tenseurs sélectionnés dans une bibliothèque de fonctions candidates. L'entraînement CFD consiste à résoudre un problème d'optimisation de type boîte noire dans lequel la pertinence des modèles EARSM candidats est évaluée en exécutant des simulations RANS (approche en ligne). Cette procédure permet d'entraîner les modèles par rapport à n'importe quelle quantité cible d'intérêt, calculable en tant que sortie du modèle CFD. Contrairement à l'approche d’entraînement hors ligne, la méthodologie proposée n'est pas limitée aux ensembles de données pour lesquels des champs complets de données haute-fidélité, y compris les statistiques du second ordre d'écoulement, sont disponibles. Cependant, la solution d'un problème d'optimisation de fonction de boîte noire coûteuse et à haute dimension est requise. Plusieurs étapes sont alors entreprises pour réduire la charge de calcul associée. Tout d'abord, une analyse de sensibilité est utilisée pour identifier les termes les plus influents et pour réduire la dimensionnalité de l'espace de recherche. Ensuite, l'algorithme CORS (Constrained Optimization using Response Surface), qui approxime la fonction coût boîte noire, en utilisant une surface de réponse construite à partir d'un nombre limité de résolutions CFD, est utilisé pour trouver les paramètres optimaux du modèle. La découverte de modèles et la validation croisée sont effectuées pour trois configurations d'écoulements décollés turbulents en 2D dans des canaux de section variable en utilisant différents ensembles de données d'apprentissage pour montrer la flexibilité de la méthode. Les modèles découverts sont ensuite appliqués à la prédiction d'un écoulement séparé 2D inconnu avec un nombre de Reynolds plus élevé et une géométrie différente. Les prédictions des modèles découverts pour ce nouveau cas s'avèrent non seulement plus précises que celles du LEVM de base, mais aussi que celles d'un modèle EARSM polyvalent dérivé d'arguments purement physiques. L'approche d'identification symbolique déterministe proposée constitue un candidat prometteur pour construire des modèles RANS précis et robustes adaptés à une classe donnée d'écoulements présentant de la turbulence hors équilibre à un coût de calcul modéré. Ce type d'écoulement se retrouve dans différents secteurs industriels.
 

Axe 3. Apprentissage statistique et modélisation réduite 

Au cours de la dernière décennie, les techniques d’apprentissage statistique ont connu un regain d’intérêt, notamment avec le développement et la popularisation des méthodes basées sur les réseaux de neurones profonds. En dynamique des fluides, cela s’est traduit par un grand nombre d’applications dans le cadre de la modélisation de la turbulence (voir le point précédent), ainsi que dans le développement de nouvelles méthodologies pour la modélisation réduite, notamment dans des perspectives de contrôle des écoulements. 

Parmi les techniques d’apprentissage statistique pour l’identification de systèmes et/ou la modélisation réduite, une emphase particulière est portée aux méthodes de régression parcimonieuse, symbolique, ou à contrainte de rang. Les deux premières approches nécessitent que la dimension intrinsèque (e.g. le nombre de degrés de liberté) du système que l’on cherche à étudier soit relativement faible. Elles nécessitent donc d’être combinées à des techniques de réduction de la dimension (e.g. POD, DMD, Auto Encoder, etc.) pour être applicables. Au cours du quinquennat passé, cette approche a été utilisée avec succès pour obtenir des modèles de faible dimension et interprétables d’écoulements canoniques tels que l’allée de von Karman bidimensionnelle, l’écoulement affleurant une cavité ouverte, ou encore les retournements chaotiques d’une cellule de convection dans un thermosiphon annulaire. Comparés aux approches plus classiques telles que POD-Galerkin, les modèles ainsi obtenu se sont avérés plus stables, plus précis et interprétables (par construction). L’importance de la prise en compte des corrélations non-linéaires entre les différentes structures cohérentes utilisées pour la base de projection (e.g. les différents modes POD) a également été mis en avant pour la première fois. Ces recherches se sont accompagnées du développement de la librairie PySINDy, une bibliothèque open-source écrite en Python pour permettre au plus grand nombre d’utiliser ces approches. Les aspects liés aux techniques de régression multivariée sous contrainte de rang forment quant à eux le cœur des recherches actuellement menées par Jean-Christophe Loiseau pour l’identification de systèmes linéaires, la prise en compte des dépendances paramétriques, ou encore le problème du placement optimal de capteurs et d’actuateurs.