Premier Semestre
L’année débute par deux cours de remise à niveau (non validants mais fortement recommandés) en probabilités et en statistiques pendant les semaines du 5 et 12 septembre. Rentrée des cours le lundi 19 septembre 2016.

Remise à niveau en probabilités

Responsable : Carl Graham

Contenu : Ce cours accéléré reprend les notions de L3/M1 en probabilités (Théorème central limite, loi forte des grands nombres, espérance conditionnelle, martingale et chaîne de Markov à temps discret) nécessaires pour plusieurs parcours (maths de l’aléatoire, MSV, Data Science ...) ainsi que plusieurs compléments en vue plus spécifiquement du parcours maths de l’aléatoire (théorème de dérivation de Lebesgue, variation quadratique martingales discrète dans  \mathbb{L}^2, théorème des trois séries, uniforme intégrabilité).

Volume Horaire : 20h cours-TD, pas d’examen.

Remise à niveau en statistiques

Contenu : Ce cours accéléré introduit les notions de bases de statistique (estimation, intervalles de confiance, tests, max de vraisemblance, modèle linéaire, tests paramétriques).

Volume Horaire : 20h cours-TD, pas d’examen.

30 ECTS sont à valider, parmi les cours suivants :

Introduction à la percolation (2.5 ECTS)

Responsable : Hugo Duminil-Copin

Contenu : Le modèle de percolation est l’un des modèles mathématiques les plus simples présentant un phénomène de transition de phase. L’étude de ce modèle génère des questions complexes, liant géométrie et probabilités. Nous présenterons une sélection de résultats fondamentaux en percolation.

Volume Horaire : 10h cours

Théorie ergodique (7.5 ECTS)

Responsable : Hans Rugh, Damien Thomine (TD)

Contenu : L’hypothèse ergodique, formulée par le physicien L. Boltzmann en 1871 pour « expliquer » la mécanique statistique, présume que le comportement à long terme d’un système dynamique est en « moyenne » le même pour tout point initial. Ceci est complètement faux en général, mais à donné naissance à la théorie ergodique, qui remplace « pour tout point » par « pour presque tout point » par rapport à une mesure, invariante par la dynamique. Cette théorie en soi, contient une pléthore de phénomènes intéressants, en forte relation avec la théorie des probabilités :

  • Définitions de base : Mesure, invariance, ergodicité, mélange.
  • Récurrence de Poincaré, théorème de Kac, temps de visite,…
  • Dynamique symbolique.
  • Théorème ergodique maximal, théorème de Birkhoff, Martingales.
  • Entropie d’une mesure invariante. Entropie d ’information de Shannon.

Le cours se déroule sur la 1re partie du 1er semestre et sera suivi par un cours de Systèmes Dynamiques, bien que les deux soient indépendants.
Références

  • Karl Petersen : Ergodic Theory (Cambridge, 3rd ed. 1995)
  • Boris Hasselblatt, Anatole Katok : Introduction to the Modern Theory of Dynamical Systems.

25h de cours et 12h de TD.

Marches et graphes aléatoires (7.5 ECTS)

Responsable : Nicolas Curien

Contenu : Voici une liste des thèmes que nous aborderons :

  • Théorie du potentiel, réseaux électriques sur graphes généraux
  • Critère de récurrence/transience et applications
  • Marches aléatoires sur $\mathbbZ$, décomposition de Wiener-Hopf, lemme cyclique
  • Arbres aléatoires de Galton—Watson
  • Marches aléatoires sur $\mathbbZ^d$, théorème local limite, intersection.
  • Graphes aléatoires : transition de phase dans le modèle d’erdos-Renyi.

Polycopié disponible sur la page web de N. Curien

Volume Horaire : 25h cours + 12h de TD.

Projet Data Mining (10 ECTS)

Responsable : Yannig Goude.

Contenu : L’objectif du projet est d’acquérir une première expérience de modélisation statistique, de la préparation des données à la réponse au problème posé. Il s’agit de comparer différents modèles et méthodes statistiques pour analyser un jeu de données associé à une problématique de prévision. Nous travaillerons sur des données liées à l’énergie (consommation électrique, production PV et éolien…). Nous étudierons différentes méthodes de régression non-linéaire issues de récents développements en statistiques et machine learning et ayant faits leurs preuves dans ce contexte : generalized additive model, random forest, gradient boosting machine, curve linear regression, agrégation d’experts.

L’objectif du projet est d’aboutir à une modélisation performante des données (réalisant une faible erreur de prévision et pouvant raisonnablement être mise en œuvre). Le cours propose une démarche fréquente dans l’industrie ou lors de la conduite d’un projet de recherche en statistique appliquée. Plusieurs étapes seront menées : data mining exploratoire (analyse descriptive, visualisation, recherche bibliographique sur les données et le phénomène à modéliser), la modélisation proprement dite (choix de modèle, prétraitements/transformation des données, construction d’un code, validation) puis enfin l’évaluation des performances et la restitution des résultats (présentation et rédaction d’un rapport).

Volume Horaire : 36h cours/TD

Modalités de contrôle : Soutenance orale et rapport écrit. Il y a une seule session d’évaluation de projet.

Statistique semi-paramétrique (5 ECTS)

Responsable : Elisabeth Gassiat

Contenu : La théorie de la vraisemblance, introduite par Le Cam dans les années 70, permet de construire les fondements de l’estimation asymptotique efficace. Un des buts de ce cours est de présenter les développements de cette théorie pour l’estimation semi-paramétrique. Une question fondamentale posée par l’estimation semi-paramétrique est celle de l’adaptativité, nous verrons en particulier comment la géométrie des fonctions d’influence permet de comprendre les performances attendues. Nous nous attacherons à la question de la construction d’estimateurs efficaces ainsi qu’à l’étude du comportement des méthodes de vraisemblance et des méthodes bayésiennes très populaires en pratique. La fin du cours ouvrira à des problèmes récents en statistique semi-paramétrique.

Références bibliographiques :

  • Asymptotic Statistics (A. Van der Vaart) - Efficient and Adaptive Estimation for Semiparametric Models (P. Bickel, C. Klaassen, Y. Ritov, J. Wellner)
  • Semiparametric Theory and Missing Data (A. Tsiatis)
  • Notes de cours (E. Gassiat) constituées d’une partie des notes de cours de l’année 2014/2015.

Volume Horaire : 20h cours

Statistique en grande dimension (5 ECTS)

Responsable : Christophe Giraud, Tristan Mary-Huart

Contenu : L’objectif principal de ce cours est de fournir des bases conceptuelles et methodologiques solides, indispensables pour développer des analyses statistiques pertinentes et performantes en biologie et écologie. Les différentes situations sont abordées à partir d’exemples issus des sciences du vivant.

La principale difficulté du statisticien face à des données biologiques est de vaincre le fléau de la grande dimension. Ce fléau oppose aux statisticiens deux difficultés : d’une part il rend les méthodes statistiques classiques totalement inopérantes par manque de précision, d’autre part il oblige à développer des approches gardant sous contrôle la complexité algorithmique des procédures d’estimation.

Le principal outil conceptuel pour aborder la première difficulté est la théorie non asymptotique de la sélection de modèles qui s’est construite au cours des quinze dernières années. Elle permet de rendre opérante l’estimation en exploitant finement les structures et régularités (inconnues) présentes dans les données et résultant des structures du système biologique à l’origine des données. Le première partie du cours est dédiée à la compréhension des principaux concepts de cette théorie (qui repose principalement sur des inégalités de concentration, des inégalités oracle et des concepts de complexité). Si cette théorie offre un cadre de pensée puissant, elle n’est pas directement opérationnelle (en général) à cause d’une grande complexité algorithmique. Nous verrons dans un second temps comment contourner les verrous computationnels liés à la grande dimension en convexifiant les critères de sélection. Nous verrons aussi comment tirer profit d’une situation multivariée où on mesure simultanément plusieurs réponses fortement corrélées entre elles. Dans un troisième temps nous nous intéresserons à une situation plus complexe, pour laquelle nous introduirons les modèles graphiques. Ces modèles à la frontière entre théorie des graphes et probabilités permettent une modélisation naturelle de diverses situations multivariées. Ils ont par exemple été proposés récemment pour explorer les réseaux de régulation biologique. Enfin, nous finirons par une introduction aux méthodes de diagnostic et de reconnaissance (classification supervisée) avec une attention particulière pour les algorithmes efficaces et les concepts théoriques sur lesquels ils reposent.

Page web du cours

Volume Horaire : 20h cours

Calcul stochastique et processus de Markov (10 ECTS)

Responsable : Jean-François Le Gall, Maxime Février (TD)

Contenu : La première partie du cours sera consacrée à la théorie du calcul stochastique. On présentera d’abord le mouvement brownien et certaines de ses propriétés les plus importantes. On discutera ensuite les martingales continues, processus aléatoires qui généralisent le mouvement brownien, et on introduira les semi-martingales continues, qui peuvent s’écrire comme somme d’une martingale continue et d’un processus à variation finie. On développera dans ce cadre la théorie du calcul stochastique d’Itô, et on donnera en particulier une forme générale de la formule d’Itô, puis on développera plusieurs applications, dont le célèbre théorème de Girsanov ou le théorème de Dubins-Schwarz qui affirme que toute martingale continue peut s’écrire comme un mouvement brownien changé de temps. Dans une seconde partie, on traitera la théorie des processus de Markov à temps continu, qui sont une classe fondamentale de processus aléatoires. On introduira les notions importantes de semigroupe et de générateur associés à un processus de Markov, puis on discutera le cas des processus de Feller qui possèdent des propriétés de régularité remarquables. On terminera en utilisant le calcul stochastique pour traiter l’exemple fondamental des processus de diffusion, qui sont obtenus comme solutions d’équations différentielles stochastiques dirigées par un mouvement brownien multidimensionnel.

Références bibliographiques :
I. Karatzas, S. Shreve : Brownian motion and stochastic calculus. Springer
J.F. Le Gall : Mouvement brownien et calcul stochastique
D. Revuz, M. Yor : Continuous martingales and Brownian motion. Springer
S. N. Ethier, T. Kurtz : Markov processes : characterization and convergence. Wiley
L.C.G. Rogers, D. Williams : Diffusions, Markov processes and martingales, vol. II. Wiley

Volume Horaire : 40h cours - 24h TD

Convergence de mesures et processus de Poisson (5 ECTS)

Responsable : Pierre-Loïc Méliot

Contenu : La première partie du cours est une introduction aux processus en temps continu et sur la notion de convergence faible de processus. Ces concepts permettent par exemple de formaliser le résultat de Donsker, selon lequel une marche aléatoire dans \mathbb{R}^d, convenablement renormalisée, et dont les pas sont indépendants et de même loi, de matrice de covariance scalaire, converge en loi vers un mouvement brownien. La seconde partie du cours est consacrée à des processus stochastiques fondamentaux : les mesures aléatoires de Poisson et les Processus de Lévy, dont nous étudions la construction et les propriétés.

Références Bibliographiques :
Notes de cours de G. Miermont (disponibles sur sa page web)
J. Bertoin : Lévy processes. Cambridge U. Press
P. Billingsley : Convergence of probability measures. Wiley
W. Feller : An introduction to probability theory and its applications, II. Wiley
J.F.C. Kingman : Poisson processes. Oxford U. Press

Volume Horaire : 20h cours - 10h TD

Simulation aléatoire (5 ECTS) (cours à l’X)

Responsable : Emmanuel Gobet

Contenu : La simulation aléatoire a de multiples applications en biologie, chimie, économie, finance, image, informatique, physique, réseaux... pour mieux comprendre et analyser les systèmes. Elle prend de multiples formes : méthodes de Monte-Carlo pour le calcul d’intégrales, simulation de systèmes complexes en physique, estimation statistique, optimisation stochastique...
Le but de ce cours est de donner un aperçu des principales méthodes, de les analyser mathématiquement, en les illustrant d’exemples bien représentatifs, en lien avec les autres cours du master. Au programme :

  • simulation de variables aléatoires méthodes de Monte-Carlo par Chaines de Markov : échantillonneurs de Metropolis-Hastings et de Gibbs, applications au modèle d’Ising, à la marche aléatoire auto-évitante, à la statistique bayésienne, algorithme EM
  • algorithmes stochastiques : algorithme du recuit-simulé, algorithme de Robbins-Monro, algorithme du bandit
  • simulation d’évènements rares : changement de probabilité et grandes déviations, méthodes de splitting (RESTART), méthodes particulaires et formules de Feynman-Kac
  • simulation de processus stochastiques : processus gaussien, processus de Poisson et autres processus à sauts, EDS, discrétisation optimale d’intégrale stochastique.

Volume Horaire : 20h cours. Un projet de simulation compte pour la moitié de la note, le reste est un examen écrit.

Chaîne de Markov : approfondissements (5 ECTS) (cours à l’X)

Responsable : Eric Moulines

Contenu : L’objet de ce cours est d’introduire les outils d’analyse de chaînes de Markov sur des espaces généraux. Nous introduirons tout d’abord le formalisme de base (noyau, opérations sur les noyaux, opérateurs) puis étendrons au cas continu des résultats élémentaires (Chapman-Kolmogorov, Markov fort, problèmes de Dirichlet et Poisson). Nous étudierons ensuite l’ergodicité des chaînes et le contrôle de convergence. Nous présenterons tout d’abord l’ergodicité uniforme en variation totale (sous la condition de Doeblin uniforme), que nous étendrons à l’ergodicité non uniforme sous les conditions de Foster-Lyapounov (existence d’un petit ensemble et condition de dérive). Nous illustrerons ces théories avec de nombreux exemples, permettant de comprendre la richesse de cette méthode, mais aussi ses limites.
Nous spécialiserons ensuite ces résultats à des espaces topologiques, en introduisant tout d’abord des résultats généraux sur les chaînes Felleriennes et fortement Felleriennes puis en présentant des méthodes permettant d’obtenir des résultats de convergence plus quantitifs (convergence en distance de Wasserstein, étude des systèmes itératifs). Nous présenterons succinctement les extensions non géométriques. Ce cours permet de découvrir ou de voir en action de nombreuses méthodes de probabilités appliquées : couplage, renouvellement, régénération ; il permet aussi de découvrir des connexions intéressantes entre la théorie des opérateurs et les probabilités. Nous illustrerons les concepts introduits dans ce cours à travers de nombreux exemples de probabilités appliquées, théorie des processus, statistiques numériques, domaines dans lesquels les chaînes de Markov jouent un rôle fondamental.

Références Bibliographiques :
Topics on Markov Chains, R. Douc, E. Moulines, P. Priouret, P. Soulier (Springer, à paraître)
Markov Chains and Stochastic stability, S. Meyn et R. Tweedie, 2009, Cambridge University Press
Convergence of Markov Processes (notes de cours), M. Hairer

Volume Horaire : 20h cours

Concentration et sélection de modèle (5 ECTS + 5 ECTS)

Responsable : Pascal Massart

Contenu : La sélection de modèles est un sujet classique en statistique. L’idée de choisir un modèle à partir d’un critère de type log-vraisemblance pénalisée remonte aux travaux séminaux de Mallows et Akaike au début des années 70. On peut trouver dans la littérature de nombreuses variantes de ces critères ainsi que des résultats asymptotiques précisant les propriétés de ces critères lorsque la liste de modèles est considérée comme fixée et le nombre d’observations tend vers l’inifini. Un des deux buts poursuivis dans ce cours est de donner un aperçu de la théorie non asymptotique pour la sélection de modèles qui s’est construite au cours de ces dix dernières années. Dans différents contextes d’estimation fonctionnelle, il est possible de construire des critères de type log-vraisemblance pénalisée où la pénalité dépend non seulement du nombre de paramètres définissant des modèles comme dans les critères classiques, mais aussi de la « complexité » de la liste de modèles. Dans cette approche, les dimensions des modèles ainsi que la liste de modèles elle-même sont autorisés à dépendre du nombre d’observations. L’expression des pénalités tout autant que l’analyse des performances de ces procédures pénalisées en terme de risque de manière essentielle d’inégalités dites de concentration dont le prototype est l’inégalité de Talagrand pour les processus empiriques. Ces nouveaux outils de calcul des probabilités seront également étudiés pour eux-mêmes. Nous développerons en particulier la méthode entropique initiée par Michel Ledoux il y a une dizaine d’années. Cette méthode permet en effet d’accéder à des résultats fins avec une économie de moyens remarquable.

Références Bibliographiques :
Ledoux, Talagrand, Probability in Banach spaces
Dudley, Central Limit Theorems
Ledoux, Cours de Saint Flour 1994
Pascal Massart, Cours de Saint Flour 2003

Volume Horaire : Le cours est en deux parties consécutives. La première pouvant être validée indépendamment. 20h cours + 20h cours.

Apprentissage statistique et rééchantillonnage (5 ECTS)

Responsable : Sylvain Arlot

Contenu : La première partie du cours présentera les fondements de la théorie statistique de l’apprentissage supervisé, en classification et en régression. Nous établirons des bornes sur l’erreur de prédiction de plusieurs méthodes d’apprentissage parmi les plus classiques : moyennage local (partitions, k plus proches voisins, noyaux) et minimisation du risque empirique. Ces résultats montreront en particulier que certaines de ces méthodes sont « universellement consistantes ». En revanche, nous verrons qu’un apprentissage totalement agnostique n’est possible que dans certaines limites (« on n’a rien sans rien »), ce qui se formalise mathématiquement par plusieurs théorèmes aux énoncés plutôt contre-intuitifs.
La deuxième partie du cours se focalisera sur les méthodes de rééchantillonnage (bootstrap, sous-échantillonnage, validation croisée, etc.) et à leur application en apprentissage. Nous étudierons en particulier leurs propriétés pour l’estimation de l’erreur de prédiction d’une méthode d’apprentissage, et pour la sélection parmi une famille de méthodes d’apprentissage.

Volume Horaire : 20h cours


Un séminaire des élèves obligatoire (2.5 ECTS) est également organisé pour présenter aux étudiants des sujets de recherche actuels.

Second Semestre
12 ECTS à valider parmi les cours suivants, et 18 ECTS pour le mémoire ou le stage (voir ci-dessous).

Matrices aléatoires (4 ECTS)

Responsable : Edouard Maurel-Segala
Contenu :
Volume Horaire : 20h cours

Optimisation et statistique (4 ECTS)

Responsable : Francis Bach
Contenu :

Site web du cours

De nombreux problèmes d’estimation en apprentissage statistique sont formulés comme des problèmes d’optimisation. Ces formulations ont permis une separation entre l’analyse des performances de l’estimateur et le développement d’algorithmes de résolution du problème. Face aux grands volumes de données, une telle séparation n’est plus efficace et l’analyse doit mêler statistique et optimisation. Dans ce cours, seront présentés de manière unifiée les résultats statistiques classiques sur la M-estimation et l’optimisation convexe, en montrant les liens entre statistique et optimisation. Un accent sera mis sur l’analyse non-asymptotique de l’approximation stochastique.

Références : Transparents (ancienne version donnant une bonne idée du contenu du cours)

Volume Horaire : 20h. Validation du cours
(a) Prise de notes manuscrites en Latex pour chacune des seances
(b) Lecture d’articles

Marches branchantes (4 ECTS)

Responsable : Pascal Maillard
Contenu :
Volume Horaire : 20h cours

Modèles aléatoires de populations (4 ECTS) (cours à l’X)

Responsable : Vincent Bansaye
Contenu : This course concerns the stochastic modeling of population dynamics. In the first part, we focus on monotype populations described by one-dimensional stochastic differential equations with jumps. We consider their scaling limits for large populations and study the long time behavior of the limiting processes. It is achieved, thanks to martingale properties, Poisson measure representations, and stochastic calculus. These tools and results will be used and extended to measure-valued processes in the second part. The latter is dedicated to structured populations, where individuals are characterized by a trait belonging to a continuum.
Volume Horaire : Début des cours le vendredi 29 janvier.

Modèles solubles en probabilités (4 ECTS)

Responsable : xxx
Contenu :

Il s’agit de présenter divers modèles solubles en probabilités. L’objectif est de donner un panorama vivant (mais de loin non exhaustif !) de la recherche actuelle en probabilités sans aller dans les avancées les plus récentes de chaque modèle. Cela inclut les marches aléatoires en milieu aléatoire sur $\mathbbZ$ dont la vitesse asymptotique peut se calculer explicitement, l’asymptotique explicite de la longueur de la plus longue sous-suite croissante d’une permutation aléatoire, la formule de Hardy-Ramanujan sur l’asymptotique du nombre de partitions d’un entier, des calculs de formes limites de divers objets, la distribution limite de la mesure spectrale de matrices de Wigner... Chaque calcul peut être présenté en 3 ou 4 heures, et est le fruit d’un « miracle » de calcul, ou de la découverte d’une mesure invariante explicite dans un grand système markovien, de la correspondance avec un système de particules, de l’introduction d’un modèle statistique... qui aiguisent la curiosité et peuvent donner envie aux élèves d’approfondir l’un de ces sujets dans le cadre d’une thèse.

Volume Horaire : 20h cours

Systèmes de particules en interaction (4 ECTS) (Cours à l’X)

Responsable : Thierry Bodineau

Site web du cours
Contenu : Si on se place à l’échelle atomique, un gaz ne présente pas de structure cohérente, pourtant à l’échelle macroscopique, on le caractérise par quelques paramètres simples comme sa densité et sa pression qui peuvent évoluer au cours du temps. Mathématiquement le passage du microscopique au macroscopique se formalise en assimilant les atomes à un ensemble de variables aléatoires en interaction et en étudiant leur comportement limite qui est alors décrit par une EDP : la limite hydrodynamique. Ce cours est une introduction à différents systèmes de particules en interaction et à leurs dynamiques quand le nombre de particules tend vers l’infini.

Volume Horaire : 20h cours

Analytic combinatorics and applications (4 ECTS)

Responsable : Timothy Budd (Cours en anglais).
Contenu : Analytic combinatorics is one of the powerful methods to count (large)
combinatorial objects. Among its applications are the counting of
various types of trees, lattice paths, strings with patterns, regular
languages, (planar) graphs, etc. The counting often serves as basis to
study properties of large random such objects, and therefore plays an
important role in probability and statistical physics.
The method comprises of two main steps : (1) a symbolic method that
allows one to efficiently derive equations for the generating
functions, which are formal power series of which the coefficients
count objects of varying size, and (2) various complex analytic
methods to extract asymptotic estimates from the generating functions.
In the course we will setup the necessary framework underlying both
steps, accompanied by abundant examples throughout. The standard
reference will be Flajolet & Sedgewick’s « Analytic combinatorics ».
A rough outline :
* Symbolic method : introducing combinatorial classes, ordinary
generating functions (OGF), and standard operations on both.
* Multivariate generating functions (MGF) : counting objects not only
by size but including additional parameters.
* Review of some basic results from complex analysis : power series,
analytic continuation, contour integration, singularities, residue
theorem.
* Singularity analysis of OGF’s : transfer theorems, saddle-point approximation.
* Singularity analysis of MGF’s : limit laws for large random objects.

Volume Horaire : 20h cours

Estimation bayésienne non-paramétique (4 ECTS)

Responsable : Vincent Rivoirard
Contenu : Un grand nombre de domaines scientifiques tels que la biostatistique ou l’apprentissage emploie naturellement le paradigme bayésien (où l’on suppose que le paramètre à inférer est une variable aléatoire). En particulier, en autorisant une grande flexibilité sur la modélisation des paramètres, l’approche non-paramétrique de la statistique bayésienne a connu un essor considérable ces dernières années. L’objectif de ce cours est de proposer un large panorama des méthodes et des résultats théoriques spécifiques à la statistique bayésienne non-paramétrique.

La première partie du cours présentera les principes de l’estimation fonctionnelle propre à l’approche bayésienne. On s’attardera notamment sur la construction des distributions a priori les plus classiques fondées sur les processus gaussiens et de Dirichlet. Dans un second temps, on analysera le comportement asymptotique des distributions a posteriori (consistance et vitesse de convergence). Bien que l’estimation de densité constituera le fil rouge de ce cours, on proposera également quelques extensions dans le cadre de la grande dimension ou pour d’autres modèles statistiques moins classiques.

Des pré-requis sur l’approche bayésienne classique seront utiles mais pas indispensables (une remise à niveau est prévue lors du premier cours)

Volume Horaire : 20h.

Analyse topologique des données (4 ECTS)

Responsable : Frédéric Chazal et Quentin Merigot
Contenu : L’estimation des propriétés de nature topologique et géométrique de données souvent représentées par des ensembles de points dans des espaces euclidiens de grande dimension (ou plus généralement des variétés riemanniennes ou des espaces métriques) connait un développement important depuis quelques années.
L’analyse topologique des données est motivée par l’observation que généralement les données, qui ne sont pas distribuées uniformément dans l’espace ambiant mais se concentrent autour de structures géométriques de plus petite dimension qu’il est important de comprendre.
L’objectif de ce cours est de donner une introduction à ce sujet en pleine expansion.
Les notions nécessaires de topologie et de géométrie seront introduite ou rappelée au fil du cours.

Plan du cours :

1. Introduction et rappels
2. Fonctions distance et reconstruction d’ensembles compacts.
3. Application à l’estimation de l’homologie de de sous-variétés à partir d’échantillon i.i.d. Aspects algorithmiques et statistiques.
4. Homologie persistente : définition, stabilité et applications (clustering, signatures topologiques,...).
5. Propriétés statistiques de l’homologie persistente.
6. Inférence géométrique pour les mesures de probabilité.

Volume Horaire : 20h cours

Fiabilité des systèmes (4 ECTS)

Responsable : Patrick Pamphile
Contenu :
Séance 1 Fiabilités des systèmes
Séance 2 Maîtrise statistiques des procédés
Séance 3 MSP TP
séance 4 Faibilité des système réparables
Séance 5 TP Réparable
Séance 6 Système markovien à espace d’états
Séance 7 Examen
Volume Horaire : 20h cours.

Apprentissage et optimisation séquentiels (4 ECTS)

Responsable : Gilles Stoltz (CNRS & HEC Paris)
Contenu : Sequential learning, sequential optimization

Prerequisites :

  • Martingale theory
  • Basic notions of statistics

Grading policy :

  • Based on a final written exam, taking place at the end of March, in unlimited time and without any document
  • Similar rules for the make-up exam, which will take place in April or May (students will need to come back from their internships and be present at the make-up exam ; no project or homework can replace the written make-up exam)

Language :
English, unless all students are comfortable with the course being given in French

Summary :
We will study two sequential settings, a stochastic one and a non-stochastic one, where in both cases good actions / forecasts are to be picked.

1.
Multi-armed bandit problems
We consider finitely many arms, each associated with an unknown distribution, or even a continuum of arms, associated with a function f : [0,1] -> R and some noise structure. When pulling an arm we get a reward drawn at random according to the associated distribution. The aim is to maximize the obtained rewards but to do so a tradeoff between exploring the arms (to have an idea of the best arms) and exploiting the obtained information (to pull those best arms) must be performed. On the optimization side, this problem has strong ties with the identification of the maximum of f.

2.
Aggregation of expert advice
At each round, some base forecasters (experts) provide forecasts for a sequential and quantitative phenomenon (height of an ozone peak, exchange rate, electricity consumption). Instead of selecting one such forecast we will combine and aggregate their values, based on past performance. The aim is to obtain meta-forecasts that are almost as good as the best global convex or linear combination. The latter can only be determined in hindsight while we are subject to a constraint of sequential prediction. This is where the optimization bottleneck lies : performing online almost as well as we would have done in hindsight.

Volume Horaire : 20h

Extrêmes (4 ECTS)

Responsable : François Roueff et Anne Sabourin

Contenu :
Dans de nombreuses applications telles que l’assurance ou, plus généralement, la gestion des risques, on s’intéresse au comportement d’une variable « du côté de ses valeurs extrêmes ». L’inférence statistique est rendu possible si l’on admet que le comportement extrême peut être déduit d’une façon raisonnable à partir du comportement observé, qui lui n’est pas extrême. Nous aborderons les approches principales proposées pour répondre à ce problème de modélisation : comportement des maxima, des excès de seuil ou du processus ponctuel associé. Les aspects probabilistes de ces approches reposent sur les domaines d’attraction des lois max-stables et les mesures à variations régulières. Les cas univariés et multivariés seront abordés ainsi que des applications statistiques telles que le théorème central limite en variance infinie.
Volume Horaire : 20h.

Estimation non paramétrique (4 ECTS) (cours à l’ENSAE)

Responsable : Cristina Butucea
Contenu :

L’objet de ce cours est de présenter quelques méthodes classiques de
l’estimation non-paramétrique et d’estimation statistique en grande dimen-
sion. Les thèmes suivants seront abordés :

1. Estimateurs à noyaux et par projection d’une densité de probabilité.
Vitesses de convergence, inégalités d’oracle et adaptation.
2. Estimation non-paramétrique d’une fonction de régression. Estima-
teurs par polynômes locaux, par projection et par la méthode de splines.
Vitesses de convergence, inégalités d’oracle et adaptation.
3. Procédures de seuillage, BIC et Lasso. Estimation statistique en grande
dimension et sparsité.

Références

A.B.Tsybakov : Introduction to Nonparametric Estimation. Springer, New
York, 2009.
A.B.Tsybakov : Apprentissage statistique et estimation non-paramétrique.
Polycopié de l’Ecole Polytechnique, 2014.
L. Wasserman : All of Nonparametric Statistics. Springer, New York, 2006.
L. Devroye : A Course in Density Estimation. Birkhauser, Boston, 1987.
A.Nemirovski : Topics in non-parametric statistics. Ecole d’Eté de Prob-
abilités de Saint-Flour XXVIII - 1998. Lecture Notes in Mathematics, v.
1738. Springer, 2000.

Vendredi 29 janvier de 13h45 à 16h15
Vendredi 5 février de 13h45 à 16h15
Vendredi 19 février de 13h45 à 16h15
Vendredi 4 mars de 13h45 à 16h15
Vendredi 11 mars de 14h à 16h
Vendredi 18 mars de 14h à 16h (séance de TD)
Vendredi 25 mars de 14h à 16h (séance de TD)
Vendredi 1er avril de 14h à 16h
Vendredi 8 avril de 14h à 16h (séance de TD)
Vendredi 22 avril de 14h à 16h (séance de TD)

Volume Horaire : le cours aura lieu de 14h a 16h les vendredis 29/01 05/02 12/02 19/02 04/03 11/03 18/03 25/03 01/04 08/04 22/04. Pour les extérieurs à l’ENSAE, il faut une autorisation d’accès aux locaux de l’ENSAE (nous contacter).

Sharp threshold phenomena in Statistical Physics (2 ECTS) (cours à l’IHES)

Responsable : Hugo Duminil-Copin

8h de cours durant le mois de mars.

Il est également possible de valider des cours dans d’autres parcours notamment :

Statistique Spatiale (MSV)
Outils proba-stats pour la génétique des populations (MSV)
Calcul de Malliavin
Compressed Sensing
Statistique et fouille de données sur les graphes (Data Sciences)


Mémoire ou stage

Pendant le second semestre, chaque étudiant prépare, à partir d’articles de recherche, un projet personnel encadré donnant lieu à la rédaction d’un mémoire et représentant 18 crédits ECTS. Ce projet peut être remplacé par un stage en entreprise ou dans un organisme public de recherche. Il est évalué par une soutenance orale organisée par l’encadrant ainsi que par un mémoire (entre 20 et 50 pages) à rendre à Florence Rey. La note doit être rendue avant le 15 septembre de l’année suivante.

Les sujets peuvent être proposés par enseignants-chercheurs et chercheurs des équipes de recherche impliquées dans le parcours ou part des directeurs de mémoire ou de stage d’autres établissements notamment à l’étranger. Par ailleurs, les responsables du M2 reçoivent des propositions qui sont à la disposition des étudiants. Les étudiants du M2 peuvent aussi chercher eux-mêmes des stages. Dans tous les cas, le choix du mémoire ou du stage doit être validé par un responsable du M2 et aucun engagement ne doit être pris sans entretien préalable avec un responsable du M2.

Tous les documents et informations pour établir une convention de stage se trouvent ici