Accès direct au contenu

LMT

Version anglaise

aide

LMT > Manifestations > Séminaires du LMT

Recherche - Valorisation

Interaction données-simulation : optimisation des outils de prediction

le 14 mars 2019
à 13h30

Damiano LOMBARDI, chercheur à l’INRIA, interviendra lors d'un séminaire.

Interaction données-simulation : optimisation des outils de prediction.

Dans des nombreuses applications un point fondamentale est la capacité d'utiliser des données afin de prédire des quantités d'intérêt qui ne peuvent pas être directement mesurées de façon fiable. Deux strategies ont été étudiées : les problèmes inverses utilisent la connaissance d'un modèle physique qui décrit l'évolution d'un système afin d'estimer les quantités d'intérêt.  Ces problèmes sont souvent mal conditionnés et très couteux du point de vue computationnnel. Les méthodes de machine learning construisent de manière agnostique la relation entre données et quantités d'intérêt en se basant sur une connaissance a posteriori, sous la forme d'un très grand ensemble de données. L'avantage de ces méthodes est leur rapidité, le désavantage est lié à la nécessité d'avoir un nombre de données qui pourraient se révéler prohibitif, en particulier quand les données sont en dimension élevée. Afin de mitiger la malédiction de la dimension et d'intégrer la connaissance venant de la modélisation dans les méthodes de machine learning une méthode est proposée. Elle est basée sur la construction d'un dictionnaire et sur un algorithme glouton qui permet d'optimiser la construction de classifieurs et regresseurs. Des experiences numériques seront proposées, dans des cas académiques ainsi que dans des applications réalistes dans le domaine de la pharmacologie de sécurité. 


Data-simulation interaction: optimisation of prediction tools.

In numerous realistic problems and applications a crucial point is to exploit data to predict an outcome of the system, or to estimate a quantity that cannot be directly or reliably measured. Two distinct ways have been investigated: inverse problems use the a priori knowledge of a physical model describing the evolution of the system in order to perform the approximation of the quantities of interest. These are computationally expensive and often bad conditioned. Machine learning methods, on the contrary, agnostically build a relationship between data and predictions based on an a posteriori knowledge, in the form of a large dataset of couples data-prediction. The advantage of machine learning methods relies on the ability to perform a fast online estimation of the predictions, their main drawback is the need of a large dataset. When data are high dimensional, the number of data needed to obtain a precise prediction could be prohibitively large. To overcome the curse of dimensionality and to exploit the a priori knowledge of physical models a method is proposed that combines numerical simulations and realistic data. In particular, a dictionary based, double greedy approach is defined in order to help building more reliable classifiers and regressors to be used in realistic applications. Some numerical experiments are presented on synthetic and real data, in applications of safety pharmacology.
Type :
Séminaires - conférences
Lieu(x) :
Campus de Cachan
Bâtiment Léonard de Vinci
Amphi E-Media

Recherche d'une actualité

Recherche d'une actualité