Estimation au moyen d’une courbe principale empirique

Jeudi 23 mai 14:00-15:00 - Aurélie Fischer - LPSM

Résumé : Soit une courbe paramétrée f : [0,1] → R^d minimisant sous contrainte de longueur la quantité ∆(f) = E[d(X, Im f)^2],
où d désigne la distance euclidienne à un ensemble, et X est une variable aléatoire de carré intégrable. Une telle courbe est appelée courbe principale contrainte (Kégl et al., 2000). Ce problème d’optimisation peut également être vu comme une version du problème de distance moyenne étudié au sein de la communauté du calcul des variations (Buttazzo and Stepanov (2003) ; Buttazzo et al. (2002)). Dans un contexte statistique, on ne connaît pas la loi de X, mais on peut chercher à construire à partir d’observations X_1, ... , X_n une courbe principale empirique minimisant un critère de la forme
∆n(f) = 1/n sum_i=1^n d(X_i, Im f)^2.
Soit g : [0,1] → R^d une courbe de longueur L(g) ≤ Λ < ∞, telle que |g′(t)| = L(g) dt−p.p., et vérifiant L(g) = H1(Im g). Pour tout n ≥ 1, on observe des vecteurs aléatoires X_i^n tels que
X_i^n = g(U_i^n) + ε_i,
où les U_i^n sont des variables aléatoires indépendantes à valeurs dans [0, 1]. Dans cet exposé, nous cherchons à estimer la courbe inconnue g dans ce modèle, au moyen de courbes principales empiriques. Sous certaines conditions sur la loi des U_n, il est possible de construire une suite de courbes principales empiriques (f_n)_n telle que la distance de Hausdorff entre Im f_n et Im g converge en probabilité vers 0.

Estimation au moyen d’une courbe principale empirique  Version PDF