Prochainement

Jeudi 25 avril 15:45-16:45 Jean-Christophe Mourrat (DMA, ENS Paris)
Inférence d’une grande matrice de rang 1 et mécanique statistique

Plus d'infos...

Résumé : On observe une version bruitée d’une grande matrice de rang 1. Suivant
l’intensité du bruit, est-il possible de récupérer une information non
triviale sur la matrice ? Ce problème, intéressant en soi, sera aussi
motivé par son lien avec un modèle de « verre de spins », c’est-à-dire un
modèle de mécanique statistique où un grand nombre de variables
interagissent les unes avec les autres, avec des interactions aléatoires
positives et négatives. La résolution du problème fera intervenir une
équation de Hamilton-Jacobi.

Inférence d’une grande matrice de rang 1 et mécanique statistique  Version PDF

Jeudi 9 mai 15:45-16:45 Paul Bourgade (NYU - Courant Institute)
TBA

Jeudi 16 mai 14:00-15:00 Angelina ROCHE (CEREMADE- Dauphine)
Sélection de variables et estimation dans le modèle linéaire fonctionnel multivarié

Plus d'infos...

Résumé : Dans cet exposé, nous nous intéressons au problème de la sélection de variable dans le modèle linéaire fonctionnel multivarié. Dans ce modèle, une quantité d’intérêt réelle dépend de plusieurs covariables, qui peuvent être des vecteurs ou des éléments d’un espace de fonctions (données fonctionnelles). L’objectif est de proposer un critère de sélection de variables (ici chaque variable est un vecteur ou une fonction) par un critère de type Group-Lasso. Nous comparerons deux estimateurs : un estimateur non projeté (le critère est minimisé directement dans l’espace de fonctions) et un estimateur projeté (dont la dimension est sélectionnée par un critère inspiré des travaux de Barron, Birgé et Massart, 99). Les propriétés théoriques (inégalités-oracles) et numériques des deux critères seront étudiées.

Sélection de variables et estimation dans le modèle linéaire fonctionnel multivarié  Version PDF

Jeudi 16 mai 15:45-16:45 Laure Dumaz (Paris Dauphine - CEREMADE)
TBA


Jeudi 23 mai 15:45-16:45 Barbara Dembin (LPSM)
TBA

Passés

Jeudi 25 avril 14:00-15:00 Paul Bastide  (KU Leuven)
A Flexible Bayesian Framework to Study Viral Trait Evolution

Plus d'infos...

Résumé : During the course of an epidemic, many viral pathogens are known to
evolve rapidly, leaving an imprint of the pattern of spread in their
genomes. Uncovering the molecular footprint of this transmission process
is a key goal of phylodynamic inference. Less focus has been put on the
evolution of quantitative traits of viruses, such as geographical
location or virulence. The goal of Phylogenetic Comparative Methods is
to account for a shared evolutionary history among a set of
non-independent samples. Conditioning on such an history, the observed
traits can be seen as the result of a stochastic process running on the
branches of a phylogenetic tree. We propose a Bayesian inference
framework for the study of this flexible model. Using a MCMC based
method, it relies on the efficient sampling of the constrained
parameters of the model, and takes advantage of the tree structure for
fast likelihood computations. It encompasses a wide family of Gaussian
processes, allowing for fine-grained modelling of trait evolution of
various biological systems. We implemented this new approach in the
phylogenetic software BEAST, and applied it to the study of heritability
of virulence in HIV.

Notes de dernières minutes :

A Flexible Bayesian Framework to Study Viral Trait Evolution  Version PDF

Jeudi 18 avril 15:45-16:45 Guillaume Cébron  (IMT (Toulouse))
TBA


Jeudi 11 avril 15:45-16:45 Zacharie Naulet (University of Toronto) 
Adaptive Bayesian density estimation in sup-norm

Plus d'infos...

Résumé : We investigate the problem of deriving adaptive posterior rates of contraction on $L^\infty$ balls in density estimation. Although it is known that log-density priors can achieve optimal rates when the true density is sufficiently smooth, adaptive rates were still to be proven. Here we establish a generic $L^\infty$-contraction result for log-density priors
with independent wavelet coefficients. The result is then applied to the so called spike-and-slab prior to obtain adaptive and minimax rates. Interestingly, our approach is different from previous works on $L^\infty$-contraction and is reminiscent to the classical test-based approach used in Bayesian nonparametrics. Moreover, we require no lower bound on the smoothness of the true density, albeit the rates are deteriorated by an extra log(n) factor in the case of low smoothness.

Adaptive Bayesian density estimation in sup-norm  Version PDF

Jeudi 11 avril 14:00-15:00 Gabriela Ciolek   (Telecom ParisTech)
Concentration inequalities for regenerative and Harris recurrent Markov chains with applications to statistical learning

Plus d'infos...

Résumé : Concentration inequalities are very often a crucial step in deriving many results in statistical learning. The purpose of this talk is to present exponential and polynomial tail maximal inequalities for regenerative Markov chains. All constants involved in the bounds are given in an explicit form which can be advantageous in practical considerations. We show that the inequalities obtained for regenerative Markov chains can be easily generalized to a Harris recurrent case. Furthermore, we provide one example of application of presented inequalities in statistical learning theory and obtain generalization bounds for mimimum volume set estimation problem when the data are Markovian. Minimum volume set estimation problem is (unsupervised) anomaly/novelty detection algorithm used in a setting when we deal with unlabelled dataset.

Concentration inequalities for regenerative and Harris recurrent Markov chains with applications to statistical learning  Version PDF

Jeudi 4 avril 15:45-16:45 Pierre-François Rodriguez  (IHES)
Sign cluster geometry of the Gaussian free field

Plus d'infos...

Résumé : We consider the Gaussian free field on a large class of transient weighted graphs G, and show that its sign clusters contain an infinite connected component. In fact, we prove that the sign clusters fall into a regime of strong supercriticality, in which two infinite sign clusters dominate (one for each sign), and finite sign clusters are necessarily tiny, with overwhelming probability. Examples of graphs G belonging to this class include cases in which the random walk on G exhibits anomalous diffusive behavior. Our findings also imply the existence of a nontrivial percolating regime for the vacant set of random interlacements on G. Based on joint work with A. Prévost and A. Drewitz.

Sign cluster geometry of the Gaussian free field  Version PDF

Jeudi 4 avril 14:00-15:00 Rémy Degenne  (LPSM)
Bandit Pure Exploration with Multiple Correct Answers

Plus d'infos...

Résumé : The active or pure exploration multi-armed bandit setting is the following : at successive times, an algorithm can sample one of K ``arms’’ (probability distributions) basing its choice on the samples observed at previous rounds. The goal of the algorithm is to answer a query, for example ``which arm has highest mean ?’’ (best arm identification) or ``is there an arm with negative mean ? if yes, return such an arm’’. A good algorithm will answer correctly with high probability and use as few samples as possible to do so.
I will present recent work on the sample complexity of active exploration in the well-studied particular case of best arm identification, and in general. In our new work with Wouter M. Koolen (see https://arxiv.org/abs/1902.03475), we determine the sample complexity of pure exploration bandit problems with multiple good answers. We derive a lower bound on the sample complexity using a game equilibrium argument. We show how continuity and convexity properties of single-answer problems ensures that an algorithm has asymptotically optimal sample complexity. However, that convexity is lost when going to the multiple-answer setting. We present a new algorithm which extends known techniques to the multiple-answer case and has asymptotic sample complexity matching the lower bound.

Bandit Pure Exploration with Multiple Correct Answers  Version PDF

Jeudi 28 mars 15:45-16:45 Guillaume Barraquand  (LPENS)
Equation KPZ sur les réels positifs.

Plus d'infos...

Résumé : L’équation de Kardar-Parisi-Zhang (KPZ) est une EDP stochastique non-linéaire, introduite en physique pour modéliser la croissance d’interfaces rugueuses. En général, la loi de la solution n’est pas gaussienne, mais reliée aux valeurs propres extrêmes de grandes matrices aléatoires. Dans certains cas, il est possible de calculer cette loi exactement à l’aide d’un modèle de mécanique statistique exactement soluble, le modèle à six sommets stochastique. Dans cet exposé nous nous concentrerons sur le cas de l’équation KPZ sur R_+ avec condition au bord de type Neumann. Travaux en commun avec Alexei Borodin, Ivan Corwin et Michael Wheeler.

Equation KPZ sur les réels positifs.  Version PDF

Jeudi 28 mars 14:00-15:00 Charles Tillier  (Telecom Paris tech)
Estimation in semi-parametric transformation boundary regression models

Plus d'infos...

Résumé : Abstract. Boundary regression models naturally arise in many applications for instance when analysing auctions or records but also in production frontiers and image analysis. Before fitting a regression model it is very common to transform the response variable to gain efficiency in the statistical inference. In this talk, we will consider parametric transformations that induce independence of the error distribution from the points
of measurements. In such a context, if the transformation of the response is monotone, the attractive feature is that one may recover the original functional dependence in an easy manner. The main purpose of this talk is to investigate the consistency of an estimator based on a minimum distance approach in the context of nonparametric regression models with one-sided errors. In particular, we estimate the transformation parameter and give mild model assumptions under which the estimator is consistent, for both random covariates and fixed design points. The small sample behavior will be shown in a simulation study using the so-called Yeo-Johnson transformations.
Keywords. Nonparametric regression, frontier estimation, minimum distance estimation, boundary models, local constant approximation, Yeo-Johnson transformations.

Estimation in semi-parametric transformation boundary regression models  Version PDF

Jeudi 21 mars 15:45-16:45 Pierre Tarrago  (LPSM)
Méthode de subordination pour la déconvolution spectrale

Plus d'infos...

Résumé : La déconvolution classique consiste à retrouver la distribution d’une variable aléatoire perturbée par un bruit. Dans cet exposé, je vais expliquer une version non -commutative de ce problème : l’objectif est de retrouver la distribution spectrale d’une matrice modifiée par un bruit matriciel. Contrairement au cas classique, il n’existe pas de noyau intégral similaire à la transformée de Fourier, ce qui rend le problème en général impossible à résoudre. Je vais présenter une approche possible par l’analyse complexe qui fonctionne dans le régime « libre », c’est à dire dans le cas où la taille des matrices tend vers l’infini. Cet exposé s’appuie sur des résultats obtenus en collaboration avec Octavio Arizmendi (CIMAT) et Carlos Vargas (CIMAT).

Méthode de subordination pour la déconvolution spectrale  Version PDF

Jeudi 21 mars 14:00-15:00 Subhajit Goswami  (IHES)
New risk bounds for two-dimensional total variation denoising

Plus d'infos...

Résumé : Two-dimensional total variation denoising (TVD) is a widely used technique for image denoising. It is also an important non parametric regression method for estimating functions with heterogenous smoothness. Recent results have shown the TVD estimator to be nearly minimax
rate optimal for the class of functions with bounded variation. One of the main results I will discuss in this talk complements these worst case guarantees by investigating the adaptivity of the ideally tuned TVD estimator to functions which are piecewise constant on axis aligned rectangles. In particular, our result shows that, when the truth is piecewise constant, the ideally tuned TVD estimator performs significantly better than in the worst case. I will also talk about the issue of choosing the tuning parameter. In particular, we propose a fully data driven version of the TVD estimator which enjoys similar worst case risk guarantees as the ideally tuned TVD estimator. Based on a joint work with Sabyasachi Chatterjee (https://publish.illinois.edu/sabyasachi/).

New risk bounds for two-dimensional total variation denoising  Version PDF

Jeudi 14 mars 15:45-16:45 Paul Gassiat  (Ceremade)
Vitesse de propagation des données initiales pour les équations de Hamilton-Jacobi stochastiques

Plus d'infos...

Résumé : Les équations d’Hamilton-Jacobi stochastiques apparaissent naturellement dans un certain nombre de contextes, en particulier dans la formulation par ligne de niveaux de mouvements d’interface, quand ce mouvement est perturbé par un bruit. La dépendance en temps « irrégulière » du membre de droite de ces équations crée un certain nombre de difficultés mathématiques. Elles font partie d’une classe d’équations (« EDPS complètement non-linéaires ») introduite par Lions et Souganidis à la fin des années 90 qui ont montré que l’on pouvait étendre les techniques classiques de solutions de viscosité à ce contexte.
Dans cet exposé je parlerai du problème de « vitesse de propagation » (des données initiales) pour de telles équations. On montre d’abord que, en contraste avec le cas classique (déterministe) , cette vitesse peut être en général infinie dès que le bruit n’est pas à variation bornée. En revanche, dans le cas où l’Hamiltonien est convexe en le gradient, et que le bruit est un mouvement brownien, on peut montrer que l’on a une vitesse finie de propagation.
Basé sur un travail en commun avec B. Gess, P. Souganidis and P.L. Lions.

Vitesse de propagation des données initiales pour les équations de Hamilton-Jacobi stochastiques  Version PDF