Sélection de modèles par validation croisée et sélection de paramètres pour la régression ridge et le lasso Dans une première partie, je présenterai les grandes lignes des propriétés théoriques ou observées en pratique des différentes méthodes de validation croisée dans un contexte de sélection de modèles [1]. Une présentation plus détaillée de ces résultats pourra être trouvée avec [3] (ou [4] pour une version française légèrement moins à jour). Je discuterai ensuite les conséquences de ces résultats pour la calibration des paramètres d'un estimateur, en particulier les cas de la régression ridge (pour laquelle des alternatives efficaces sont disponibles, par exemple [2]) et les méthodes de type lasso. Références: [1] Sylvain Arlot, Alain Celisse. A survey of cross-validation procedures for model selection. Statistics Surveys, 4, (2010), 40-79 (electronic). http://dx.doi.org/10.1214/09-SS054 [2] Sylvain Arlot, Francis Bach. Data-driven calibration of linear estimators with minimal penalties. Advances in Neural Information Processing Systems (NIPS 2009) 22, 46--54. http://arxiv.org/abs/0909.1884 [3] http://www.di.ens.fr/~arlot/enseign/2012Cergy/2012cergy_cours3_handout.pdf.gz [4] http://www.di.ens.fr/~arlot/enseign/2011Peccot/cours4_peccot_pres.pdf.gz