Introduction
L’objectif de ce cours est double : illustrer le traitement de données en grande dimension lorsque des données sont manquantes (par le prisme de l’acquisition compressée et de la complétion de matrice), et acquérir les bases d’optimisation convexe. Des outils probabilistes tels que la concentration seront aussi utilisés pour démontrer que certaines propriétés de reconstruction sont vérifiées. Ces thèmes ouvrent la voie à de nombreux autres domaines d’apprentissage statistique et problèmes rencontrés en science des données. Pré-requis : Notions fondamentales de probabilités, statistique inférentielle et algèbre linéaire, calcul scientifique en Python
Contact
Content (non-contractual)
- Compressed sensing as an inverse problem: sparsity and measurements
- TP CS
- Convex optimization and algorithms
- TP algo
- Recovery condition and sensing matrices
- Gaussian matrices as random measurements (possibly TP on phase transition)
- Structured measurements: random sampling in bounded orthonormal systems + TP BOS
- *** Article defense ***
- Low-rank matrix recovery and matrix completion + TP inpainting and matrix completion
- Off-the-grid compressed sensing (possibly TP)
Evaluation
- Présentation d'article (50%)
- 30 min de présentation par binôme :
- Présenter le contenu de l'article en le resituant par rapport au cours, et en prenant du recul sur les concepts abordés.
- Un travail numérique substantiel sera à fournir qui pourra soit invalider ou valider la partie numérique du papier (refaire les XP et aller plus loin...), soit illustrer la partie théorique.
- Un mémoire n'est pas demandé mais pourra cependant vous aider à organiser les idées.
- Toute initiative bibliographique est la bienvenue.
- Achtung! 30 min est un créneau très court, la soutenance sera à préparer avec un soin particulier.
- 15 min de questions : les aspects techniques du papier pourront être abordés.
- Exam (50%) : 2h, documents autorisés,
Teaching resources
-
To come.