Premier Semestre
L’année débute par deux cours de remise à niveau (non validants mais fortement recommandés) en probabilités et en statistiques pendant les semaines du 5 et 12 septembre. Rentrée des cours le lundi 19 septembre 2016.

Remise à niveau en probabilités

Responsable : Carl Graham

Contenu : Ce cours accéléré reprend les notions de L3/M1 en probabilités (Théorème central limite, loi forte des grands nombres, espérance conditionnelle, martingale et chaîne de Markov à temps discret) nécessaires pour plusieurs parcours (maths de l’aléatoire, MSV, Data Science ...) ainsi que plusieurs compléments en vue plus spécifiquement du parcours maths de l’aléatoire (théorème de dérivation de Lebesgue, variation quadratique martingales discrète dans  \mathbb{L}^2, théorème des trois séries, uniforme intégrabilité).

Volume Horaire : 20h cours-TD, pas d’examen.

Remise à niveau en statistiques

Contenu : Ce cours accéléré introduit les notions de bases de statistique (estimation, intervalles de confiance, tests, max de vraisemblance, modèle linéaire, tests paramétriques).

Volume Horaire : 20h cours-TD, pas d’examen.

30 ECTS sont à valider, parmi les cours suivants :

Théorie ergodique (7.5 ECTS)

Responsable : Hans Rugh, Damien Thomine (TD)

Contenu : L’hypothèse ergodique, formulée par le physicien L. Boltzmann en 1871 pour « expliquer » la mécanique statistique, présume que le comportement à long terme d’un système dynamique est en « moyenne » le même pour tout point initial. Ceci est complètement faux en général, mais à donné naissance à la théorie ergodique, qui remplace « pour tout point » par « pour presque tout point » par rapport à une mesure, invariante par la dynamique. Cette théorie en soi, contient une pléthore de phénomènes intéressants, en forte relation avec la théorie des probabilités :

  • Définitions de base : Mesure, invariance, ergodicité, mélange.
  • Récurrence de Poincaré, théorème de Kac, temps de visite,…
  • Dynamique symbolique.
  • Théorème ergodique maximal, théorème de Birkhoff, Martingales.
  • Entropie d’une mesure invariante. Entropie d ’information de Shannon.

Le cours se déroule sur la 1re partie du 1er semestre et sera suivi par un cours de Systèmes Dynamiques, bien que les deux soient indépendants.
Références

  • Karl Petersen : Ergodic Theory (Cambridge, 3rd ed. 1995)
  • Boris Hasselblatt, Anatole Katok : Introduction to the Modern Theory of Dynamical Systems.

25h de cours et 12h de TD.

Mouvement brownien et calcul stochastique (7.5 ECTS)

Responsable : Jean-François Le Gall, Maxime Février (TD)

Contenu : Le cours sera consacrée à la théorie du calcul stochastique. On présentera d’abord le mouvement brownien et certaines de ses propriétés les plus importantes. On discutera ensuite les martingales continues, processus aléatoires qui généralisent le mouvement brownien, et on introduira les semi-martingales continues, qui peuvent s’écrire comme somme d’une martingale continue et d’un processus à variation finie. On développera dans ce cadre la théorie du calcul stochastique d’Itô, et on donnera en particulier une forme générale de la formule d’Itô, puis on développera plusieurs applications, dont le célèbre théorème de Girsanov ou le théorème de Dubins-Schwarz qui affirme que toute martingale continue peut s’écrire comme un mouvement brownien changé de temps. On terminera en utilisant le calcul stochastique pour traiter l’exemple fondamental des processus de diffusion, qui sont obtenus comme solutions d’équations différentielles stochastiques dirigées par un mouvement brownien multidimensionnel.

Références bibliographiques :
I. Karatzas, S. Shreve : Brownian motion and stochastic calculus. Springer
J.F. Le Gall : Brownian motion, martingales and stochastic calculus. Springer 2016
D. Revuz, M. Yor : Continuous martingales and Brownian motion. Springer
L.C.G. Rogers, D. Williams : Diffusions, Markov processes and martingales, vol. II. Wiley

Volume Horaire : 28h cours - 20h TD

Marches et graphes aléatoires (7.5 ECTS)

Responsable : Nicolas Curien

Contenu : Voici une liste des thèmes que nous aborderons :

  • Théorie du potentiel, réseaux électriques sur graphes généraux
  • Critère de récurrence/transience et applications
  • Marches aléatoires sur $\mathbbZ$, décomposition de Wiener-Hopf, lemme cyclique
  • Arbres aléatoires de Galton—Watson
  • Marches aléatoires sur $\mathbbZ^d$, théorème local limite, intersection.
  • Graphes aléatoires : transition de phase dans le modèle d’Erdos-Renyi.

Polycopié disponible sur la page web de N. Curien

Volume Horaire : 25h cours + 12h de TD.

Projet Data Mining (7.5 ECTS)

Responsable : Yannig Goude.

Contenu : L’objectif du projet est d’acquérir une première expérience de modélisation statistique, de la préparation des données à la réponse au problème posé. Il s’agit de comparer différents modèles et méthodes statistiques pour analyser un jeu de données associé à une problématique de prévision. Nous travaillerons sur des données liées à l’énergie (consommation électrique, production PV et éolien…). Nous étudierons différentes méthodes de régression non-linéaire issues de récents développements en statistiques et machine learning et ayant faits leurs preuves dans ce contexte : generalized additive model, random forest, gradient boosting machine, curve linear regression, agrégation d’experts.

L’objectif du projet est d’aboutir à une modélisation performante des données (réalisant une faible erreur de prévision et pouvant raisonnablement être mise en œuvre). Le cours propose une démarche fréquente dans l’industrie ou lors de la conduite d’un projet de recherche en statistique appliquée. Plusieurs étapes seront menées : data mining exploratoire (analyse descriptive, visualisation, recherche bibliographique sur les données et le phénomène à modéliser), la modélisation proprement dite (choix de modèle, prétraitements/transformation des données, construction d’un code, validation) puis enfin l’évaluation des performances et la restitution des résultats (présentation et rédaction d’un rapport).

Volume Horaire : 36h cours/TD

Modalités de contrôle : Soutenance orale et rapport écrit. Il y a une seule session d’évaluation de projet.

Statistique semi-paramétrique (5 ECTS)

Responsable : Elisabeth Gassiat

Contenu : Le cours est centré sur l’apprentissage semi-paramétrique, c’est à dire l’estimation d’un vecteur de paramètres en situation non paramétrique (lorsque la loi des données n’est pas fixée par un modèle paramétrique).

La théorie de la vraisemblance, introduite par Le Cam dans les années 70, permet de construire les fondements de l’estimation asymptotique efficace. Un des buts de ce cours est de présenter les développements de cette théorie, élaborés dans les 20 dernières années, pour l’estimation semi-paramétrique.

Une question fondamentale posée par l’estimation semi-paramétrique est celle des limites intrinsèques sur les performances attendues, en fonction du nombre d’observations et de la géométrie du modèle sous-jacent. Nous nous attacherons à la question de la construction d’estimateurs efficaces ainsi qu’à l’étude du comportement des méthodes de vraisemblance et des méthodes bayésiennes très populaires en pratique.

Nous étudierons en illustration des problèmes d’apprentissage actuels dans différents modèles de mélanges de population et nous présenterons les méthodes spectrales récentes pour l’analyse de ces modèles.

Références bibliographiques :

  • Asymptotic Statistics (A. Van der Vaart)
  • Efficient and Adaptive Estimation for Semiparametric Models (P. Bickel, C. Klaassen, Y. Ritov, J. Wellner)
  • Semiparametric Theory and Missing Data (A. Tsiatis)
  • Notes de cours (E. Gassiat)
  • Tensor decompositions for learning latent variable models (A. Anadkumar, R. Ge, D. Hsu, S. Kakade, M. telgarski), Joural of Machine Learning Research (2014).

Volume Horaire : 20h cours

Statistique en grande dimension (6 ECTS)

Responsable : Christophe Giraud, Tristan Mary-Huart

Contenu : Objectifs principaux :

comprendre les problèmes posés par la grande dimension ;
fournir des bases conceptuelles et méthodologiques solides, indispensables pour développer des analyses statistiques pertinentes et performantes ;
acquérir des techniques mathématiques fondamentales en vue d’une thèse.

La principale difficulté du statisticien face aux données du XXIe siècle est de vaincre le fléau de la grande dimension. Ce fléau oppose aux statisticiens deux difficultés : d’une part il rend les méthodes statistiques classiques totalement inopérantes par manque de précision, d’autre part il oblige à développer des approches gardant sous contrôle la complexité algorithmique des procédures d’estimation.

Nous verrons comment vaincre ce fléau dans un contexte général, puis comment rendre opérationnels ces concepts, avec une attention sur les frontières du possible. Les différentes situations sont illustrées à l’aide d’exemples issus des sciences du vivant (cours commun avec MathSV et Proba/Stat).

website : http://www.cmap.polytechnique.fr/ giraud/MSV/stats.html

Volume Horaire : 30h cours

Convergence de mesures et processus de Poisson (5 ECTS)

Responsable : Pierre-Loïc Méliot

Contenu : La première partie du cours est une introduction aux processus en temps continu et sur la notion de convergence faible de processus. Ces concepts permettent par exemple de formaliser le résultat de Donsker, selon lequel une marche aléatoire dans \mathbb{R}^d, convenablement renormalisée, et dont les pas sont indépendants et de même loi, de matrice de covariance scalaire, converge en loi vers un mouvement brownien. La seconde partie du cours est consacrée à des processus stochastiques fondamentaux : les mesures aléatoires de Poisson et les Processus de Lévy, dont nous étudions la construction et les propriétés.

Références Bibliographiques :
Notes de cours de G. Miermont (disponibles sur sa page web)
J. Bertoin : Lévy processes. Cambridge U. Press
P. Billingsley : Convergence of probability measures. Wiley
W. Feller : An introduction to probability theory and its applications, II. Wiley
J.F.C. Kingman : Poisson processes. Oxford U. Press

Volume Horaire : 20h cours - 10h TD

Simulation aléatoire (5 ECTS) (cours à l’X)

Responsable : Emmanuel Gobet

Contenu : La simulation aléatoire a de multiples applications en biologie, chimie, économie, finance, image, informatique, physique, réseaux... pour mieux comprendre et analyser les systèmes. Elle prend de multiples formes : méthodes de Monte-Carlo pour le calcul d’intégrales, simulation de systèmes complexes en physique, estimation statistique, optimisation stochastique...
Le but de ce cours est de donner un aperçu des principales méthodes, de les analyser mathématiquement, en les illustrant d’exemples bien représentatifs, en lien avec les autres cours du master. Au programme :

  • simulation de variables aléatoires méthodes de Monte-Carlo par Chaines de Markov : échantillonneurs de Metropolis-Hastings et de Gibbs, applications au modèle d’Ising, à la marche aléatoire auto-évitante, à la statistique bayésienne, algorithme EM
  • algorithmes stochastiques : algorithme du recuit-simulé, algorithme de Robbins-Monro, algorithme du bandit
  • simulation d’évènements rares : changement de probabilité et grandes déviations, méthodes de splitting (RESTART), méthodes particulaires et formules de Feynman-Kac
  • simulation de processus stochastiques : processus gaussien, processus de Poisson et autres processus à sauts, EDS, discrétisation optimale d’intégrale stochastique.

Volume Horaire : 20h cours. Un projet de simulation compte pour la moitié de la note, le reste est un examen écrit.

Chaîne de Markov : approfondissements (5 ECTS)

Responsable : Eric Moulines

Contenu : L’objet de ce cours est d’introduire les outils d’analyse de chaînes de Markov sur des espaces généraux. Nous introduirons tout d’abord le formalisme de base (noyau, opérations sur les noyaux, opérateurs) puis étendrons au cas continu des résultats élémentaires (Chapman-Kolmogorov, Markov fort, problèmes de Dirichlet et Poisson). Nous étudierons ensuite l’ergodicité des chaînes et le contrôle de convergence. Nous présenterons tout d’abord l’ergodicité uniforme en variation totale (sous la condition de Doeblin uniforme), que nous étendrons à l’ergodicité non uniforme sous les conditions de Foster-Lyapounov (existence d’un petit ensemble et condition de dérive). Nous illustrerons ces théories avec de nombreux exemples, permettant de comprendre la richesse de cette méthode, mais aussi ses limites.
Nous spécialiserons ensuite ces résultats à des espaces topologiques, en introduisant tout d’abord des résultats généraux sur les chaînes Felleriennes et fortement Felleriennes puis en présentant des méthodes permettant d’obtenir des résultats de convergence plus quantitifs (convergence en distance de Wasserstein, étude des systèmes itératifs). Nous présenterons succinctement les extensions non géométriques. Ce cours permet de découvrir ou de voir en action de nombreuses méthodes de probabilités appliquées : couplage, renouvellement, régénération ; il permet aussi de découvrir des connexions intéressantes entre la théorie des opérateurs et les probabilités. Nous illustrerons les concepts introduits dans ce cours à travers de nombreux exemples de probabilités appliquées, théorie des processus, statistiques numériques, domaines dans lesquels les chaînes de Markov jouent un rôle fondamental.

Références Bibliographiques :
Topics on Markov Chains, R. Douc, E. Moulines, P. Priouret, P. Soulier (Springer, à paraître)
Markov Chains and Stochastic stability, S. Meyn et R. Tweedie, 2009, Cambridge University Press
Convergence of Markov Processes (notes de cours), M. Hairer

Volume Horaire : 20h cours

Concentration et sélection de modèle (5 ECTS + 5 ECTS)

Responsable : Pascal Massart

Contenu : La sélection de modèles est un sujet classique en statistique. L’idée de choisir un modèle à partir d’un critère de type log-vraisemblance pénalisée remonte aux travaux séminaux de Mallows et Akaike au début des années 70. On peut trouver dans la littérature de nombreuses variantes de ces critères ainsi que des résultats asymptotiques précisant les propriétés de ces critères lorsque la liste de modèles est considérée comme fixée et le nombre d’observations tend vers l’inifini. Un des deux buts poursuivis dans ce cours est de donner un aperçu de la théorie non asymptotique pour la sélection de modèles qui s’est construite au cours de ces dix dernières années. Dans différents contextes d’estimation fonctionnelle, il est possible de construire des critères de type log-vraisemblance pénalisée où la pénalité dépend non seulement du nombre de paramètres définissant des modèles comme dans les critères classiques, mais aussi de la « complexité » de la liste de modèles. Dans cette approche, les dimensions des modèles ainsi que la liste de modèles elle-même sont autorisés à dépendre du nombre d’observations. L’expression des pénalités tout autant que l’analyse des performances de ces procédures pénalisées en terme de risque de manière essentielle d’inégalités dites de concentration dont le prototype est l’inégalité de Talagrand pour les processus empiriques. Ces nouveaux outils de calcul des probabilités seront également étudiés pour eux-mêmes. Nous développerons en particulier la méthode entropique initiée par Michel Ledoux il y a une dizaine d’années. Cette méthode permet en effet d’accéder à des résultats fins avec une économie de moyens remarquable.

Références Bibliographiques :
Ledoux, Talagrand, Probability in Banach spaces
Dudley, Central Limit Theorems
Ledoux, Cours de Saint Flour 1994
Pascal Massart, Cours de Saint Flour 2003

Volume Horaire : Le cours est en deux parties consécutives. La première pouvant être validée indépendamment. 20h cours + 20h cours.

Apprentissage statistique et rééchantillonnage (5 ECTS)

Responsable : Sylvain Arlot

Contenu : La première partie du cours présentera les fondements de la théorie statistique de l’apprentissage supervisé, en classification et en régression. Nous établirons des bornes sur l’erreur de prédiction de plusieurs méthodes d’apprentissage parmi les plus classiques : moyennage local (partitions, k plus proches voisins, noyaux) et minimisation du risque empirique. Ces résultats montreront en particulier que certaines de ces méthodes sont « universellement consistantes ». En revanche, nous verrons qu’un apprentissage totalement agnostique n’est possible que dans certaines limites (« on n’a rien sans rien »), ce qui se formalise mathématiquement par plusieurs théorèmes aux énoncés plutôt contre-intuitifs.
La deuxième partie du cours se focalisera sur les méthodes de rééchantillonnage (bootstrap, sous-échantillonnage, validation croisée, etc.) et à leur application en apprentissage. Nous étudierons en particulier leurs propriétés pour l’estimation de l’erreur de prédiction d’une méthode d’apprentissage, et pour la sélection parmi une famille de méthodes d’apprentissage.

Volume Horaire : 20h cours

Introduction à la percolation (2.5 ECTS)

Responsable : Hugo Duminil-Copin

Contenu : Le modèle de percolation est l’un des modèles mathématiques les plus simples présentant un phénomène de transition de phase. L’étude de ce modèle génère des questions complexes, liant géométrie et probabilités. Nous présenterons une sélection de résultats fondamentaux en percolation.

Volume Horaire : 10h cours


Un séminaire des élèves obligatoire (2.5 ECTS) est également organisé pour présenter aux étudiants des sujets de recherche actuels.

Second Semestre
12 ECTS à valider parmi les cours suivants, et 18 ECTS pour le mémoire ou le stage (voir ci-dessous).

Matrices aléatoires (4 ECTS)

Responsable : Bertrand Eynard
Contenu :
Volume Horaire : 20h cours

Optimisation et statistique (4 ECTS)

Responsable : Francis Bach
Contenu :

Site web du cours

De nombreux problèmes d’estimation en apprentissage statistique sont formulés comme des problèmes d’optimisation. Ces formulations ont permis une separation entre l’analyse des performances de l’estimateur et le développement d’algorithmes de résolution du problème. Face aux grands volumes de données, une telle séparation n’est plus efficace et l’analyse doit mêler statistique et optimisation. Dans ce cours, seront présentés de manière unifiée les résultats statistiques classiques sur la M-estimation et l’optimisation convexe, en montrant les liens entre statistique et optimisation. Un accent sera mis sur l’analyse non-asymptotique de l’approximation stochastique.

Références : Transparents (ancienne version donnant une bonne idée du contenu du cours)

Volume Horaire : 20h. Validation du cours
(a) Prise de notes manuscrites en Latex pour chacune des seances
(b) Lecture d’articles

Marches branchantes (4 ECTS)

Responsable : Pascal Maillard
Contenu :
Volume Horaire : 20h cours

Modèles aléatoires de populations (4 ECTS) (cours à l’X)

Responsable : Vincent Bansaye
Contenu : This course concerns the stochastic modeling of population dynamics. In the first part, we focus on monotype populations described by one-dimensional stochastic differential equations with jumps. We consider their scaling limits for large populations and study the long time behavior of the limiting processes. It is achieved, thanks to martingale properties, Poisson measure representations, and stochastic calculus. These tools and results will be used and extended to measure-valued processes in the second part. The latter is dedicated to structured populations, where individuals are characterized by a trait belonging to a continuum.
Volume Horaire : Début des cours le vendredi 29 janvier.

Modèles solubles en probabilités (4 ECTS)

Responsable : Nathanaël Enriquez
Contenu :

Il s’agit de présenter divers modèles solubles en probabilités. L’objectif est de donner un panorama vivant (mais de loin non exhaustif !) de la recherche actuelle en probabilités sans aller dans les avancées les plus récentes de chaque modèle. Cela inclut les marches aléatoires en milieu aléatoire sur $\mathbbZ$ dont la vitesse asymptotique peut se calculer explicitement, l’asymptotique explicite de la longueur de la plus longue sous-suite croissante d’une permutation aléatoire, la formule de Hardy-Ramanujan sur l’asymptotique du nombre de partitions d’un entier, des calculs de formes limites de divers objets, la distribution limite de la mesure spectrale de matrices de Wigner... Chaque calcul peut être présenté en 3 ou 4 heures, et est le fruit d’un « miracle » de calcul, ou de la découverte d’une mesure invariante explicite dans un grand système markovien, de la correspondance avec un système de particules, de l’introduction d’un modèle statistique... qui aiguisent la curiosité et peuvent donner envie aux élèves d’approfondir l’un de ces sujets dans le cadre d’une thèse.

Volume Horaire : 20h cours

Systèmes de particules en interaction (4 ECTS) (Cours à l’X)

Responsable : Thierry Bodineau

Site web du cours
Contenu : Si on se place à l’échelle atomique, un gaz ne présente pas de structure cohérente, pourtant à l’échelle macroscopique, on le caractérise par quelques paramètres simples comme sa densité et sa pression qui peuvent évoluer au cours du temps. Mathématiquement le passage du microscopique au macroscopique se formalise en assimilant les atomes à un ensemble de variables aléatoires en interaction et en étudiant leur comportement limite qui est alors décrit par une EDP : la limite hydrodynamique. Ce cours est une introduction à différents systèmes de particules en interaction et à leurs dynamiques quand le nombre de particules tend vers l’infini.

Volume Horaire : 20h cours

Temps locaux et théorie des excursions (4 ECTS)

Responsable : Jean-François Le Gall
Contenu :
Dans une première partie nous utiliserons le calcul stochastique pour donner une construction simple des temps locaux des semimartingales continues. Nous étudierons ensuite les temps locaux du mouvement brownien, et notamment les liens entre le processus des temps locaux browniens et certains processus de branchement. Dans un second temps, nous développerons la théorie des excursions, qui est un outil puissant d’étude du mouvement brownien.

« Local times and excursion theory »

In a first part, we will use stochastic calculus to give a simple approach to local times of continuous semimartingales. We will then study local times of Brownian motion, and in particular the connections between Brownian local times and certain branching processes. In a second part, we will present excursion theory, which is a powerful tool for studying linear Brownian motion.

Volume Horaire : 16h cours

Estimation bayésienne non-paramétique (4 ECTS)

Responsable : Vincent Rivoirard
Contenu : Un grand nombre de domaines scientifiques tels que la biostatistique ou l’apprentissage emploie naturellement le paradigme bayésien (où l’on suppose que le paramètre à inférer est une variable aléatoire). En particulier, en autorisant une grande flexibilité sur la modélisation des paramètres, l’approche non-paramétrique de la statistique bayésienne a connu un essor considérable ces dernières années. L’objectif de ce cours est de proposer un large panorama des méthodes et des résultats théoriques spécifiques à la statistique bayésienne non-paramétrique.

La première partie du cours présentera les principes de l’estimation fonctionnelle propre à l’approche bayésienne. On s’attardera notamment sur la construction des distributions a priori les plus classiques fondées sur les processus gaussiens et de Dirichlet. Dans un second temps, on analysera le comportement asymptotique des distributions a posteriori (consistance et vitesse de convergence). Bien que l’estimation de densité constituera le fil rouge de ce cours, on proposera également quelques extensions dans le cadre de la grande dimension ou pour d’autres modèles statistiques moins classiques.

Des pré-requis sur l’approche bayésienne classique seront utiles mais pas indispensables (une remise à niveau est prévue lors du premier cours)

Volume Horaire : 20h.

Analyse topologique des données (4 ECTS)

Responsable : Frédéric Chazal et Quentin Merigot
Contenu : L’estimation des propriétés de nature topologique et géométrique de données souvent représentées par des ensembles de points dans des espaces euclidiens de grande dimension (ou plus généralement des variétés riemanniennes ou des espaces métriques) connait un développement important depuis quelques années.
L’analyse topologique des données est motivée par l’observation que généralement les données, qui ne sont pas distribuées uniformément dans l’espace ambiant mais se concentrent autour de structures géométriques de plus petite dimension qu’il est important de comprendre.
L’objectif de ce cours est de donner une introduction à ce sujet en pleine expansion.
Les notions nécessaires de topologie et de géométrie seront introduite ou rappelée au fil du cours.

Plan du cours :

1. Introduction et rappels
2. Fonctions distance et reconstruction d’ensembles compacts.
3. Application à l’estimation de l’homologie de de sous-variétés à partir d’échantillon i.i.d. Aspects algorithmiques et statistiques.
4. Homologie persistente : définition, stabilité et applications (clustering, signatures topologiques,...).
5. Propriétés statistiques de l’homologie persistente.
6. Inférence géométrique pour les mesures de probabilité.

Volume Horaire : 20h cours

Fiabilité des systèmes (4 ECTS)

Responsable : Patrick Pamphile
Contenu :
Séance 1 Fiabilités des systèmes
Séance 2 Maîtrise statistiques des procédés
Séance 3 MSP TP
séance 4 Faibilité des système réparables
Séance 5 TP Réparable
Séance 6 Système markovien à espace d’états
Séance 7 Examen
Volume Horaire : 20h cours.

Apprentissage et optimisation séquentiels (4 ECTS)

Responsable : Gilles Stoltz
Contenu : Sequential learning, sequential optimization

Prerequisites :

  • Martingale theory
  • Basic notions of statistics

Grading policy :

  • Based on a final written exam, taking place at the end of March, in unlimited time and without any document
  • Similar rules for the make-up exam, which will take place in April or May (students will need to come back from their internships and be present at the make-up exam ; no project or homework can replace the written make-up exam)

Language :
English, unless all students are comfortable with the course being given in French

Summary :
We will study two sequential settings, a stochastic one and a non-stochastic one, where in both cases good actions / forecasts are to be picked.

1.
Multi-armed bandit problems
We consider finitely many arms, each associated with an unknown distribution, or even a continuum of arms, associated with a function f : [0,1] -> R and some noise structure. When pulling an arm we get a reward drawn at random according to the associated distribution. The aim is to maximize the obtained rewards but to do so a tradeoff between exploring the arms (to have an idea of the best arms) and exploiting the obtained information (to pull those best arms) must be performed. On the optimization side, this problem has strong ties with the identification of the maximum of f.

2.
Aggregation of expert advice
At each round, some base forecasters (experts) provide forecasts for a sequential and quantitative phenomenon (height of an ozone peak, exchange rate, electricity consumption). Instead of selecting one such forecast we will combine and aggregate their values, based on past performance. The aim is to obtain meta-forecasts that are almost as good as the best global convex or linear combination. The latter can only be determined in hindsight while we are subject to a constraint of sequential prediction. This is where the optimization bottleneck lies : performing online almost as well as we would have done in hindsight.

Volume Horaire : 20h

Extrêmes (4 ECTS)

Responsable : François Roueff et Anne Sabourin

Contenu :
Dans de nombreuses applications telles que l’assurance ou, plus généralement, la gestion des risques, on s’intéresse au comportement d’une variable « du côté de ses valeurs extrêmes ». L’inférence statistique est rendu possible si l’on admet que le comportement extrême peut être déduit d’une façon raisonnable à partir du comportement observé, qui lui n’est pas extrême. Nous aborderons les approches principales proposées pour répondre à ce problème de modélisation : comportement des maxima, des excès de seuil ou du processus ponctuel associé. Les aspects probabilistes de ces approches reposent sur les domaines d’attraction des lois max-stables et les mesures à variations régulières. Les cas univariés et multivariés seront abordés ainsi que des applications statistiques telles que le théorème central limite en variance infinie.
Volume Horaire : 20h.



Il est également possible de valider des cours dans d’autres parcours notamment :

Liouville Conformal field theory (V. Vargas, cours à l’ENS)
Introduction à la théorie géométrique des groupes (A. Erschler, cours à l’ENS)
Sharp threshold phenomena in Statistical Physics (H. Duminil-Copin, cours à l’IHES)

Outils proba-stats pour la génétique des populations (V. Bansaye, master MSV)
Estimation non-paramétrique (C. Butucea, ENSAE)
Statistique Spatiale (L. Bel, master MSV)
Advanced theory for machine learning (S. Clemençon, Télécom)
Compressed Sensing
...

Mémoire ou stage

Pendant le second semestre, chaque étudiant prépare, à partir d’articles de recherche, un projet personnel encadré donnant lieu à la rédaction d’un mémoire et représentant 18 crédits ECTS. Ce projet peut être remplacé par un stage en entreprise ou dans un organisme public de recherche. Il est évalué par une soutenance orale organisée par l’encadrant ainsi que par un mémoire (entre 20 et 50 pages) à rendre à Florence Rey. La note doit être rendue avant le 15 septembre de l’année suivante.

Les sujets peuvent être proposés par enseignants-chercheurs et chercheurs des équipes de recherche impliquées dans le parcours ou part des directeurs de mémoire ou de stage d’autres établissements notamment à l’étranger. Par ailleurs, les responsables du M2 reçoivent des propositions qui sont à la disposition des étudiants. Les étudiants du M2 peuvent aussi chercher eux-mêmes des stages. Dans tous les cas, le choix du mémoire ou du stage doit être validé par un responsable du M2 et aucun engagement ne doit être pris sans entretien préalable avec un responsable du M2.

Tous les documents et informations pour établir une convention de stage se trouvent ici