Séminaire des élèves

Ce séminaire vise à présenter des domaines de recherche actuels aux élèves du master pour élargir leur culture probabiliste et statistique. Ces exposés sont aussi l’occasion de mettre en contact les étudiants avec des chercheurs de tous niveaux, de doctorant à professeur.

>> Tous les mardis de 13h15 à 14h30, salle 121-123, bâtiment 425 <<


Programme 2017-2018

DateOrateurTitre
3 oct. 2017
Edouard OyallonENS Paris & INRIA

(Optionnel) Séance commune avec statML.

10 oct. 2017
Gabriel PeyréCNRS & ENS Paris

(Optionnel) Séance commune avec statML.

17 oct. 2017
Matthieu LerasleCNRS & Université Paris-Sud, LMO

Learning from MOM’s principles

24 oct. 2017
Sylvain Le CorffCNRS & Université Paris-Sud, LMO

Modèle de Bradley-Terry

7 nov. 2017
Vianney PerchetENS Paris-Saclay, CMLA

Multi-armed bandits (Séance commune avec statML.)

14 nov. 2017
Pierre-Loïc MéliotUniversité Paris-Sud, LMO

Vitesses de convergence et méthode des cumulants

Si (Xn) est une suite de variables aléatoires qui converge en loi vers une variable X, il est souvent utile de savoir contrôler la vitesse de cette convergence, par exemple pour la distance de Kolmogorov \sup_{s \in \mathbb{R}} |F_{X_n}(s) - F_X(s)|. Par exemple, un problème ouvert est la conjecture de Ramachandra, qui assure que les valeurs de la fonction zeta de Riemann sur la droite critique forment un ensemble dense dans le plan ; cette conjecture serait une conséquence d’une estimée de la vitesse de convergence dans le théorème central limite de Selberg. Dans cet exposé, nous expliquerons comment calculer de telles estimées en utilisant les cumulants des variables aléatoires Xn. Les cumulants sont des polynômes en les moments, et j’expliquerai la combinatoire de ces quantités, en particulier pour une somme Xn de variables aléatoires dépendantes avec une structure de dépendance “creuse”.

Références utiles :

  • - pour le théorème central limite de Selberg : Limit Theorems for the Riemann Zeta-Function, A. Laurincikas, chapitre 4.
  • - pour la méthode des cumulants : Random Graphs, S. Janson, T. Luczak et A. Rucinski, chapitre 6 ; Mod-Phi convergence : Normality Zones and Precise Deviations, V. Féray, P.-L. Méliot et A. Nikeghbali, chapitres 5 et 9.
21 nov. 2017
Guillaume MaillardUniversité Paris-Sud, LMO

Surapprentissage et sélection d’estimateurs

28 nov. 2017
Cyril MarzoukUniversité Paris-Sud, LMO

Limites de grandes structures discrètes aléatoires

Pour un entier n donné, considérons l’ensemble (fini) des arbres planaires de taille n, i.e. des arbres généalogiques d’une famille asexuée à n individus. On se posera les questions suivantes :
1˚ Quel est son cardinal ? Et si l’on ajoute des contraintes sur les nombres d’enfants possibles pour chaque individu, par exemple : tous pairs, tous premiers, tous différents d’un multiple de 5, etc ? On verra notamment quels outils probabilistes se prêtent bien pour traiter ce problème.
2˚ À quoi « ressemble » un tel arbre choisi aléatoirement lorsque la taille n tend vers l’infini ? Quelles sont les propriétés de la loi limite ?
On considèrera également ces mêmes questions à propos d’une autre classe d’objets : les partitions non croisées.

Ces problématiques sont désormais bien comprises pour les arbres mais beaucoup reste à dire sur d’autres modèles, notamment les cartes planaires, très étudiées ici au LMO.

5 déc. 2017

Outils statistiques et algorithmiques pour la complétion de matrices (Séance commune avec statML).

12 déc. 2017
Jean-Michel PoggiUniversité Paris-Descartes & LMO

Forêts aléatoires : importance et sélection de variables

La méthode des forêts aléatoires, introduite par Leo Breiman en 2001, est désormais largement utilisée tant en classification qu’en régression avec un succès spectaculaire. Après avoir rappelé la source et les principes des méthodes d’arbres, on présente les forêts aléatoires, l’erreur Out-of-Bag et le score d’importance des variables par permutation. On esquisse ensuite une stratégie de sélection de variables en deux étapes : le classement des variables basé sur les scores d’importance suivie d’une procédure d’introduction ascendante séquentielle des variables.

Référence utile : Genuer, R., & Poggi, J. M. (2016). Arbres CART et Forêts aléatoires, Importance et sélection de variables.

19 déc. 2017
Camille CoronUniversité Paris-Sud, LMO

[Attention, en salle 0D1 au rez-de-chaussée du nouveau bâtiment !]
Modèle stochastique individu-centré en démogénétique : définition et comportement quasi-stationnaire

On considère une population d’invididus diploïdes caractérisés par leur génotype à un locus bi-allélique. Cette population est modélisée par un processus de naissance et mort avec compétition. Dans un premier temps on prouve, sous une hypothèse de grande taille de population, la convergence de ce processus vers une dynamique lente rapide pour laquelle la taille et la proportion d’un allèle donné convergent vers une diffusion de dimension 2. Cette diffusion s’éteint presque sûrement en temps fini et nous étudions son comportement quasi-stationnaire.

Référence utile : Coron, C. (2016), Slow-fast stochastic diffusion dynamics and quasi-stationarity for diploid populations with varying size. Journal of Mathematical Biology, Volume 72, Issue 1–2, pp 171–202.

Les organisateurs (...@math.u-psud.fr) :


Archives

- Année 2016-2017

DateOrateurTitre
5 avr. 2017
Matthieu LerasleCNRS & Université Paris-Sud, LMO

Modèle de Bradley-Terry en environnement aléatoire

Le modèle de comparaison par paires de Bradley-Terry consiste à attribuer à chaque participant i une valeur Vi>0 puis, lorsque i affronte j, de déclarer i vainqueur avec une probabilité Vi/(Vi+Vj). L’objectif sera ici d’étudier un championnat dans lequel les valeurs des participants sont aléatoires, indépendantes et de même loi. Je vous présenterai d’abord, dans le cadre d’un championnat complet ou chaque joueur affronte les autres une fois, quelques résultats sur la probabilité que le meilleur gagne, i.e. que le joueur de plus haute valeur termine avec le plus grand nombre de victoires. Nous verrons ainsi par exemple que, lorsque le nombre de participants tend vers l’infini, cette probabilité passe de 0 à 1 suivant qu’une condition de convexité sur la queue de distribution est ou non satisfaite.

Je tenterai dans une seconde partie de motiver l’apport des milieux aléatoires pour palier les limites de l’apprentissage statistique des valeurs à partir de la seule observation des résultats des matchs. Cette seconde partie n’est pas appuyée par des résultats théoriques publiés et sera l’occasion de donner quelques problèmes ouverts.

5 avr. 2017
Thanh Mai Pham NgocUniversité Paris-Sud, LMO

Estimation non paramétrique d’une densité de probabilité par ondelettes

Après avoir expliqué brièvement le principe d’analyse multirésolution et la construction des bases d’ondelettes à support compact, nous nous attacherons à montrer les bonnes qualités d’approximation des bases d’ondelettes. Enfin, nous verrons l’utilisation des ondelettes pour estimer une densité de probabilité en construisant un estimateur par projections sur une bases d’ondelettes et nous expliciterons son risque quadratique moyen.

22 mars 2017
Jean-Michel PoggiUniversité Paris-Descartes & LMO

Forêts aléatoires : importance et sélection de variables

La méthode des forêts aléatoires, introduite par Leo Breiman en 2001, est désormais largement utilisée tant en classification qu’en régression avec un succès spectaculaire. Après avoir rappelé la source et les principes des méthodes d’arbres, on présente les forêts aléatoires, l’erreur Out-of-Bag et le score d’importance des variables par permutation. On esquisse ensuite une stratégie de sélection de variables en deux étapes : le classement des variables basé sur les scores d’importance suivie d’une procédure d’introduction ascendante séquentielle des variables.

Référence utile : Genuer, R., & Poggi, J. M. (2016). Arbres CART et Forêts aléatoires, Importance et sélection de variables.

15 mars 2017
Paul GassiatUniversité Paris-Dauphine

EDPS singulières, structures de régularité et trajectoires rugueuses

De nombreuses EDP stochastiques nonlinéaires venant de la physique statistique sont singulières au sens où la régularité de la solution est trop faible pour que l’on puisse donner un sens à la non-régularité de façon canonique. Néanmoins la théorie des structures de régularité, due à M. Hairer en 2013, a permis de donner une bonne notion de solution pour plusieurs de ces équations (équation de KPZ, équation de la quantification stochastique,...). Cette théorie est l’extension pour les EDP de la théorie des trajectoires rugueuses de T. Lyons (1998) qui permet de résoudre des EDS « trajectoire par trajectoire », en séparant une étape probabiliste et une étape déterministe.

Dans mon exposé, après avoir présenté les difficultés énoncées
ci-dessus, j’exposerai les idées basiques de la théorie des
trajectoires rugueuses, et si le temps le permet celles des structures
de régularité.

6 mars 2017
Laure DumazUniversité Paris-Dauphine

Introduction aux processus SLE

1er mars 2017
Adélaïde OlivierUniversité Paris-Sud, LMO

Estimation du taux de division dans des modèles de croissance-fragmentation

Cette présentation sera centrée sur les modèles de croissance-fragmentation, pouvant servir à modéliser la croissance d’une population de cellules. D’un point de vue stochastique, nous nous intéressons à un système de particules évoluant à travers deux phénomènes. D’une part, les particules évoluent de façon déterministe (elles vieillissent, elles croissent). D’autre part, les particules se divisent au bout d’un temps aléatoire : une particule d’âge a ou de taille x se divise en deux nouvelles particules (d’âge 0, de taille initiale x/2) selon un taux de division B(.) dépendant de l’âge a ou de la taille x de la particule. Un objectif majeur est alors de reconstruire, de façon non-paramétrique, le taux de division.

22 fév. 2017
Michel PainENS Paris & Université Pierre et Marie Curie

Mouvement brownien branchant : motivations et valeurs extrêmes

Le mouvement brownien branchant est défini ainsi. On part d’une particule en 0 à l’instant 0, qui se déplace selon un mouvement brownien pendant un temps de vie exponentiel. À sa mort, elle donne naissance à un nombre aléatoire d’enfants qui partent de sa position, se déplacent selon des mouvements browniens indépendants pendant des temps de vie exponentiels puis ont des enfants, et ainsi de suite.


On s’intéressera aux motivations de ce modèle du point de vue de la physique statistique : le mouvement brownien branchant peut alors être vu comme un processus gaussien à plusieurs particules qui interagissent entre elles, mais de la manière la plus simple possible. En considérant la position de la particule la plus haute en temps long, on verra le rôle que jouent ces corrélations en comparaison avec le cas sans interactions. Pour cela, on utilisera l’outil fondamental pour étudier le mouvement brownien branchant : le lemme many-to-one.

8 fév. 2017
Claire LacourUniversité Paris-Sud, LMO

Sélection d’estimateurs : la méthode de Lepski et ses variantes

On suppose qu’on observe un échantillon X1, ..., Xn et qu’on cherche à estimer sa densité f. Une des méthodes les plus utilisées est l’estimation par noyau. Celle-ci fournit en réalité toute une famille d’estimateur (chaque estimateur dépendant d’un paramètre h qui mesure la quantité d’observations qu’on utilise localement). La question qui se pose alors est quel estimateur choisir parmi cette famille ? On essaiera de répondre à cette question grâce à la méthode de Lepski, introduite dans les années 90. Cette méthode utilise essentiellement la comparaison des estimateurs deux à deux. On parlera surtout de sa variante appelée méthode de Goldenshluger-Lespki (années 2010). On s’attachera à comprendre « pourquoi ça marche » par des heuristiques ou des éléments de preuve. Si le temps le permet on pourra évoquer une nouvelle extension (2016) qui compare chaque estimateur au pire de la famille.

Référence utile : Goldenshluger, A. V., & Lepski, O. V.(2013). General selection rule from a family of linear estimators. Theory of Probability & Its Applications, 57(2), 209-226.

1er fév. 2017
Pierre-Loïc MéliotUniversité Paris-Sud, LMO

Cumulants de variables aléatoires et calcul de vitesses de convergence en loi

Soit G=G(n,p) un graphe aléatoire d’Erdös-Rényi (graphe sur n sommets avec chaque arête gardée indépendamment avec probabilité p). Si T(n) désigne le nombre de triangles dans le graphe aléatoire, alors cette quantité est asymptotiquement gaussienne : Y(n)=(T(n)-E[T(n)])/sqrt(var(T(n))) converge en loi vers une variable gaussienne standard G. On peut alors se demander quelle est la vitesse de cette convergence, en calculant des bornes sur la distance de
Kolmogorov entre Y(n) et G. Ces calculs peuvent être menés à l’aide de résultats sur les cumulants de T(n), qui sont certains polynômes en les moments. La combinatoire de ces quantités est particulièrement intéressante, et elle est reliée à celle des arbres couvrants de graphes.

14 déc. 2016
Yohann de CastroUniversité Paris-Sud, LMO

Reconstruction convexe à partir de mesures linéaires indépendantes

La minimisation convexe est une méthode très efficace en Statistique pour résoudre des systèmes d’équations linéaires où le nombre d’équations est bien plus petit que le nombre de variables. Pour que ce problème ait un sens (et en vue des applications), on suppose que le nombre de variables non nulles à retrouver est contrôlé. Dans ce cas, on sait résoudre exactement de tels systèmes d’équations linéaires dès lors que le noyau de la matrice du système vérifie une certaine propriété. J’expliquerai cette analyse dans un premier temps. Puis j’exposerai la résolution d’un problème du même goût où l’on rajoute une perturbation et/ou on ne suppose plus de contrôle sur le nombre de variables non nulles à retrouver.

7 déc. 2016
Édouard Maurel-SégalaUniversité Paris-Sud, LMO

Quelques résultats de matrices aléatoires

30 nov. 2016
Matthias GornyUniversité Paris-Sud, LMO

Le modèle d’Ising Curie-Weiss

Le modèle d’Ising, exposé dans ce séminaire il y a trois semaines, est très complexe à étudier dès que la dimension du réseau est plus grande que 1. Cela est dû en grande partie à la corrélation spatiale entre les particules (ou spins) impliquées dans le modèle. Une façon d’obtenir un modèle plus simple est de considérer la version « champ moyen » du modèle d’Ising, appelé modèle d’Ising Curie-Weiss. Cela consiste à faire l’hypothèse que toutes les particules interagissent entre elles de la même façon ou plus précisément que chaque particule reçoit une interaction qui est la moyenne des interactions de toutes les particules. Ainsi la géométrie du réseau n’intervient plus.


Bien sûr le modèle d’Ising Curie-Weiss est moins riche physiquement que le modèle d’Ising. Néanmoins dans cet exposé, en utilisant des outils comme les grandes déviations et la méthode de Laplace, nous montrerons des lois des grands nombres et des théorèmes de fluctuations mettant en évidence le phénomène de magnétisation spontanée. Nous verrons notamment que la moyenne des interactions a un comportement Gaussien à température sur-critique, et un comportement atypique (dont nous laissons la surprise à la lecture de ces lignes) à température critique.

Référence utile : Ellis, R. S.(2012). Entropy, large deviations, and statistical mechanics (1985).

23 nov. 2016
Cyril MarzoukUniversité Paris-Sud, LMO

Limite d’échelle de grands arbres aléatoires

Les arbres jouent un rôle important dans de nombreux domaines scientifiques et en particulier mathématiques (combinatoire, probabilités, biologie, informatique, etc.) et une question importante est de comprendre le comportement « typique » d’un grand arbre. On prendra pour cela le point de vue des limites d’échelle (par opposition aux limites locales, cf. exposé de Linxiao d’il y a quatre semaines) : de la même manière qu’une marche aléatoire, après n pas, mise à l’échelle par un facteur n-1/2, converge en loi lorsque n tend vers l’infini vers le mouvement brownien, nous verrons qu’un arbre aléatoire à n sommets, également mis à l’échelle par un facteur n-1/2, converge en loi lorsque n tend vers l’infini vers l’arbre brownien.


Les limites d’échelle de grands graphes aléatoires forment un sujet de recherche bouillonnant ; l’organisation de la preuve dans de nombreux cas (et dans mon exposé) est la suivante :
1° codage des graphes par des fonctions discrètes,
2° limite d’échelle de ces fonctions vers des fonctions en temps continu,
3° construction d’objets analogues aux graphes discrets à partir de telles fonctions,
4° convergence des graphes discrets vers les structures continues via la convergence fonctionnelle.

Référence utile : Le Gall, J. F.(2005). Random trees and applications. Probab. Surv, 2(245), 10-1214..

16 nov. 2016
Léo MiolaneENS Paris & INRIA

Transitions de phase en statistiques, l’exemple du problème de détection de communautés dans un graphe

Un grand nombre de problèmes en statistiques sont de la forme suivante : on essaye de retrouver un signal X à partir d’observations bruitées Y de celui-ci. X et Y sont des vecteurs aléatoires. La force du signal peut souvent être paramétrée par un réel λ. Ainsi, plus λ sera grand, moins les observations seront bruitées et plus il sera facile de retrouver X à partir de Y.


Dans la limite où la taille des vecteurs X et Y tend vers l’infini, de nombreux modèles présentent une transition de phase : il existe une valeur critique λc telle que

- pour λ < λc, aucun estimateur (ou algorithme), ne permet de retrouver X à partir de Y mieux qu’un algorithme « stupide » (estimateur indépendant des observations) ;
- pour λ > λc, il est possible d’estimer X mieux qu’un estimateur stupide.


Dans cette présentation nous nous intéresserons à la détection de communautés dans un graphe, un problème qui présente une telle transition de phase. En particulier, nous montrerons en quoi ce problème se ramène à l’étude d’un modèle de « verres de spins » en champ moyen. Ce rapprochement sera l’occasion de présenter quelques analogies entre les statistiques et la physique statistique et nous permettra d’obtenir un diagramme de phase pour la détection de communautés.

Référence utile : Lelarge, M., & Miolane, L. (2016). Fundamental limits of symmetric low-rank matrix estimation.

9 nov. 2016
Wei ZhouENS Paris

Le modèle d’Ising à température critique en dimension 3

Le modèle d’Ising, premièrement étudié par des physiciens-statisticiens, est l’un des modèles les plus simples admettant une transition de phase. Depuis son apparition en 1920, beaucoup de propriétés ont été conjecturées par les physiciens et ne sont toujours pas démontrées. Il existe plusieurs façons d’étudier le problème qui font intervenir par exemple la FK percolation, la marche aléatoire ou le courant aléatoire.


Dans cet exposé, nous allons présenter le modèle et le fameux problème de la magnétisation spontanée à température critique. Ensuite, nous verrons l’approche du courant aléatoire et nous essaierons de présenter dans ses grandes lignes la réponse trouvée par Aizenman, Duminil-Copin et Sidoravicius en 2015.

Référence utile : Le cours à l’IHÉS d’Hugo Duminil-Copin.

2 nov. 2016
Linxiao ChenUniversité Paris-Sud, LMO

À quoi ressemble une géométrie aléatoire du plan ?

Cette question, posée par Angel et Schramm dans un article en 2003, a reçu beaucoup d’attention depuis les années 1980 grâce son intérêt en physique théorique. Partant du discret, une géométrie d’une surface peut être représentée par un graphe dessiné sur la surface. Ce dessin, vu comme un objet combinatoire, est ce qu’on appelle carte.

Dans cet exposé, on va d’abord présenter l’intérêt des cartes en probabilité, en combinatoire, en physique... On essayera ensuite de donner quelques éléments de réponse à la question du titre en considérant la limite locale des cartes quand leur taille tend vers l’infini.

Références utiles : Les notes de l’école d’été de Saint-Flour 2014 de Grégory Miermont ;
Section 2.9 de [Goulden, I. P., & Jackson, D. M. (2004). Combinatorial enumeration. Courier Corporation].

26 oct. 2016
Antoine Havet-MorelÉcole Polytechnique, CMAP

Marches aléatoires en milieu aléatoire

Initialement apparues dans les années 1970 à la fois pour modéliser des procédures de dégrafage de brins d’ADN et pour étudier la cinétique des transitions de phase dans les alliages de métaux, les marches aléatoires en milieu aléatoire (MAMA) n’ont cessé depuis lors d’être étudiées pour elles-même par nombre de probabilistes (Kesten, Sinaï, Zeitouni, ...). En effet, en supposant choisies aléatoirement les probabilités de transition d’un sommet à l’autre du graphe, de nouvelles questions émergent quant au comportement de la marche aléatoire : Est-elle récurrente ou transiente ? Si elle est transiente, à quelle vitesse part-elle vers l’infini ?


On introduira d’abord le modèle de MAMA dans un cadre général pour ensuite s’intéresser au cas d’un milieu unidimensionnel et y énoncer les principaux résultats probabilistes connus. On finira par adopter un point de vue pluses statistique des MAMA en évoquant le problème de l’estimation de la loi du milieu.

Référence utile : Bogachev, L. V.(2007). Random walks in random environments.

19 oct. 2016
Nicolas BrosseÉcole Polytechnique, CMAP

Simulation aléatoire par MCMC

Les mesures de Gibbs s’écrivent sous la forme exp(-U) où U peut être vu comme un potentiel ou une énergie. On les retrouve dans de nombreux domaines : en physique statistique, en optimisation ou dans l’inférence bayésienne. Simuler selon cette loi ou calculer la constante de normalisation peut se révéler difficile et néanmoins d’un intérêt majeur pour les praticiens.


Dans cet exposé, on abordera une méthode de simulation basée sur un algorithme MCMC (Monte Carlo Markov Chain) qui fait partie du « top ten » des dix algorithmes du XXe siècle (voir http://www.uta.edu/faculty/rcli/TopTen/topten.pdf). Ces algorithmes sont très utilisés en pratique mais les justifications théoriques avec des bornes de convergence explicites restent rares et difficiles.

Référence utile : Durmus, A., & Moulines, E. (2016). Sampling from strongly log-concave distributions with the Unadjusted Langevin Algorithm.

12 oct. 2016
Thomas LehéricyUniversité Paris-Sud, LMO

Compter les arbres et autres objets

Les combinatoristes aiment compter les familles d’objets. Lorsque la structure de la famille est sympathique, ils peuvent en déduire des relations sur les cardinaux de ces familles. L’exemple le plus fameux est les coefficients du binôme, pour compter le nombre de partitions de 1, ..., n en deux ensembles, qui se calcule à l’aide d’une simple relation de récurrence. Mais que se passe-t-il lorsque les équations se complexifient ?


Pour certains de ces problèmes, des liens surprenant avec d’autres domaines des mathématiques apparaissent. Nous aborderons une technique élégante d’énumération des arbres finis, à l’origine de nombreux progrès à la fois en probabilités et en combinatoire de la deuxième moitié du XXè siècle.

Référence utile : Flajolet, P., & Sedgewick, R. (2009). Analytic combinatorics. cambridge University press.

28 sep. 2016
Thomas LehéricyUniversité Paris-Sud, LMO

Erdős et le petit monde

La plupart des humains sont à au plus six degrés de distance de n’importe quel autre. Cette affirmation remontant au début du XXè siècle, d’abord pure conjecture, observée par Stanley Milgram en 1967, puis bien établie depuis l’avènement des réseaux sociaux, est source d’émerveillement : comment un aussi grand nombre de personnes, chacune ayant un nombre assez limité de proches, peuvent-elles pourtant être si proches ?

De manière plus formelle, un graphe satisfait la propriété de petit monde si d’une part, la plupart des noeuds sont reliés à peu d’autres noeuds, mais sont à distance typique logarithmique de la plupart des autres, et d’autre part les noeuds appartiennent à de petites cliques fortement connectées. Nous verrons quelques modèles qui ont été proposés pour étudier ce phénomène.

21 sep. 2016
Luc LehéricyUniversité Paris-Sud, LMO

Le partitionnement spectral

Les graphes se retrouvent partout dans notre vie : en informatique avec les réseaux sociaux, en biologie avec la génétique, en sociologie ou en analyse d’image... Chacun de ces domaines possédant souvent des structures sous-jacentes, inaccessibles directement. Une des questions que l’on peut ainsi être amené à se poser est l’identification de communautés.

Dans le problème de coupe minimale, on cherche à couper en deux parties égales un graphe dont les arêtes sont pondérées, en minimisant le poids des arêtes coupées. Obtenir la meilleure coupe est un problème difficile, mais en convexifiant le problème, on peut trouver une solution approchée donnée par le second vecteur propre du laplacien du graphe : c’est la méthode de partitionnement spectral.

Référence utile : Von Luxburg, U. (2007). A tutorial on spectral clustering. Statistics and computing, 17(4), 395-416.