Le transport optimal est un problème ancien, formulé par Monge au XVIIIième siècle. Originellement, Il consiste à chercher le moyen le plus économique, pour transporter des objets entre un ensemble de points de départ et d’arrivée. A l’époque, Monge avait des préoccupations plutôt centrées vers le génie civil et formulait son problème comme la recherche du cout minimum pour déplacer des tas de sable d’une zone et remplir les trous d’une autre zone. Cependant, lorsque la dimension augmente ce problème devient vite intraitable.
Il faut attendre 2 siècles pour que Kantorovich, porté par des considérations économiques, revoie ce problème et révolutionne cette théorie. Couronné par un prix Nobel en 1975 pour ce travail, Kantorovich a ouvert la voie à d’autres issues théoriques et pratiques, en particulier la connexion étroite entre le transport optimal et les équations aux dérivées partielles (médaille Field, Villani 2010, Figalli 2018).
Derrière la notion de transport optimal se cache la notion de distance entre deux distributions statistiques (la métrique de Wasserstein). Cette conséquence a introduit par la grande porte le transport optimal dans l’analyse de données, le traitement du signal, le machine learning, le deep learning et bien d’autres domaines.
L’objectif de ce séminaire est de présenter cet outil mathématique car il est susceptible d’éveiller la curiosité de certains d’entre vous et pourquoi pas … « de vous transporter de manière optimale » vers de nouvelles idées…
La présentation est organisée de la manière suivante :
- Le problème du transport optimal (formulation de Monge) : une illustration
- La formulation relaxée de Kantorovich
- D’un problème d’optimisation de la production à l’analyse de données… il n’y a qu’un pas
- La distance de Wasserstein: distance entre distributions
- Résolution du problème de Kantorovich: un problème de programmation linéaire
- Le transport optimal entropique : une solution élégante pour traiter des problèmes de grandes dimensions
- Les applications (liste non exaustive)
- Traitement d’images : transfert de luminance
- Calcul de barycentre : Wassertein barycenter
- Classification de documents
- Classification de séries temporelles
- Réduction de la dimension : Wasserstein Discriminant Analysis (WDA), Wasserstein Dictionary Learning (non linear NMF),…
- Formes 3D et interpolation
- Deep Learning : Wasserstein Generative adversarial network (WGAN)
…….
Mon exposé se terminera en présentant quelques pistes de recherche en relation avec mon activité de recherche.