Les statistiques
L’analyse des données observées et simulées de l’océan physique, biogéochimique, biologique, et des compartiments du système Terre associés, repose largement sur l’utilisation de méthodes statistiques. Les données à notre disposition, relativement nombreuses (même si pour certaines variables, comme l’intensité des courants en profondeur, les observations directes restent rares) et souvent bruitées, concernent un grand nombre de variables, illustrent une large gamme de mécanismes de variabilité d’échelles spatio-temporelles variées (de la seconde au millénaire soit 10 ordres de grandeur en temps, et du cm au globe entier soit 9 ordres de grandeur en espace), et sont souvent discontinues (en espace et/ou en temps). L’analyse de ces données passe donc par l’utilisation de méthodes mathématiques de traitement du signal, monovariées et multivariées : analyse en composantes principales, analyse spectrale, corrélations… Ces méthodes sont largement utilisées au LOCEAN, via des codes numériques développés par les équipes de recherche, pour mieux répondre aux questions scientifiques soulevées. Une attention particulière est apportée aux tests de significativité associés à chacune de ces méthodes, afin de quantifier l’incertitude des résultats obtenus.
- la découverte de régimes océaniques en utilisant des techniques de clustering
- le filtrage de la signature d’ondes internes dans la SSH par des réseaux de neurones convolutionels
- l’utilisation de la régression par processus Gaussiens comme émulateurs de modèles coûteux lors de tuning de paramètres
En vedette, l’apprentissage profond « deep learning » qui a révolutionné le traitement du signal et d’image, n’est encore qu’à ses débuts dans le monde complexe de l’océanographie physique. Le potentiel de ces méthodes, combiné avec les avancées en termes de moyens de calculs (ex: GPUs), intéresse également les modélisateurs du LOCEAN.