Exposés à venir
Archives
Simulation de grands réseaux de neurones
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 28 avril 2022 10:45-11:45 Lieu : Salle de conférences Nancy Oratrice ou orateur : Patricia Reynaud-Bouret (Université Côte d'Azur) Résumé :Après avoir présenté les défis numériques actuels pour atteindre des tailles de réseaux de l’ordre du cerveau humain, j’expliquerai pourquoi les processus de Hawkes peuvent être un bon modèle pour passer à l’échelle. J’expliquerai comment les algorithmes classiques peuvent être renouvelés pour y arriver. Une des approches les plus innovantes est basée sur un résultat probabiliste fort : la décomposition de Kalikow, qui permet de tirer au hasard les dépendances spatiales et dans le passé et que nous avons redéfini en temps continu. Elle permet en particulier de simuler un neurone immergé dans un réseau infini sans avoir à simuler le réseau infini. Ce travail est effectué en collaboration avec Eva Löcherbach (mathématicienne, Paris I), Alexandre Muzy (informaticien, Université Côte d’Azur) ainsi que nos étudiants : Cyrille Mascart, Tien Cuong Phi et Paul Gresland.
Modèles d’épidémie en dimension infinie et stratégie de vaccination optimale
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 7 avril 2022 10:45-11:45 Lieu : Salle de conférences Nancy Oratrice ou orateur : Dylan Dronnier (Université de Neuchâtel) Résumé :Dans une population homogène, le nombre de reproduction de base, noté R0, est défini comme le nombre moyen de cas directement générés par une personne contagieuse quand tous les autres individus sont sains et sensibles à l’infection. Ce nombre joue un rôle fondamental en épidémiologie puiqu’il constitue un seuil qui détermine si l’épidémie va finir par disparaître (cas R0 ≤ 1) ou, au contraire, devenir endémique (cas R0 > 1).
Imaginons désormais qu’une proportion 1 − 1/R0 de la population est immunisée (en étant vaccinée par exemple). Le nombre moyen d’individus qu’infecte la personne contagieuse est alors divisé par R0. On en déduit que le nouveau nombre de reproduction, qualifié d’effectif dans ce cas, est égal à 1 : l’épidémie finira par disparaître grâce au phénomène d’immunité grégaire. Le nombre 1 − 1/R0, appelé seuil d’immunité de groupe, est souvent utilisé pour evaluer l’efficacité d’une politique de vaccination par les autorités sanitaires.
Quand les contacts dans la population ne sont plus homogènes, le nombre de reproduction de base est défini comme le nombre de cas directement générés par une personne infectée typique quand tous les autres individus sont sains et sensibles à l’infection. Le seuil d’immunité collective 1 − 1/R0 reste encore valide quand on vaccine la population uniformément. Il est cependant naturel de se demander si l’on ne pourrait pas abaisser ce seuil en ciblant certains groupes dans la population.
L’objectif de cette présentation est de proposer une formalisation mathématique de ce problème. Pour modéliser les contacts dans la population, j’utiliserai des objets issus de la théorie des limites des grands graphes. Dans la première partie de l’exposé, je présenterai un modèle hétérogène de type SIS (Susceptible → Infecté → Susceptible) avec vaccination que nous avons introduit récemment. Ce modèle servira de base pour définir les stratégies optimales de vaccination, montrer leur existence et étudier leurs propriétés de stabilité. Enfin, je donnerai une série d’exemples où les solutions du problème de vaccination optimale peuvent être exprimées de manière analytique.
Percolation surcritique sur les graphes à croissance polynomiale
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 24 mars 2022 10:45-11:45 Lieu : Salle de conférences Nancy Oratrice ou orateur : Sébastien Martineau (LPSM, Paris) Résumé :La percolation consiste à partir d’un graphe raisonnable G, d’un paramètre p dans [0,1] et à conserver chaque arête indépendamment avec probabilité p, effaçant toutes les autres. On s’intéresse alors aux composantes connexes du graphe ainsi formé (ces composantes sont appelées amas ou clusters). Par exemple, existe-t-il un cluster infini ?
Il existe un paramètre critique p_c, qui dépend du graphe, tel que :
– pour tout p < p_c, il n’y ait presque sûrement aucun cluster infini,
– pour tout p > p_c, il existe presque sûrement (au moins) un cluster infini.
Le régime sous-critique (p < p_c) est bien compris, et ce pour des graphes généraux. Le régime critique (p = p_c) est considérablement plus difficile : il fait l’objet de grands théorèmes et conjectures. C’est au régime restant, le surcritique (p > p_c), que sera dédié cet exposé. Ce régime est plus difficile que le sous-critique mais moins ardu que le régime critique.
Contrairement au régime sous-critique, le régime surcritique est, en un certain sens qu’on précisera, sensible à la géométrie du graphe de départ. Il est donc raisonnable de se restreindre à certaines classes de graphes définies par des hypothèses géométriques. On verra qu’en se restreignant aux graphes dits « à croissance polynomiale », il est possible d’obtenir une compréhension fine du régime surcritique. Cela permet de retrouver par des techniques nouvelles des résultats déjà connus sur le réseau cubique (Grimmett–Marstrand…), ainsi que de couvrir toute une gamme de graphes intéressants (discrétisations anisotropes de Z^d, graphes de Cayley de groupes nilpotents).
Cet exposé porte sur des travaux réalisés en collaboration avec Daniel Contreras et Vincent Tassion.
Une méthode « sans grille » pour la reconstruction d'images
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 17 mars 2022 10:45-11:45 Lieu : Salle de conférences Nancy Oratrice ou orateur : Vincent Duval (INRIA Paris) Résumé :Ces dernières années, les méthodes de reconstruction avec a priori de parcimonie (LASSO, Basis Pursuit), très utilisées en statistiques comme en traitement d’images, ont été adaptées pour opérer sur un domaine continu (Beurling Minimal extrapolation, Beurling-LASSO…): on reconstruit alors une somme de masses de Dirac plutôt qu’un vecteur parcimonieux.
Le fait de travailler sur un domaine continu apporte de nombreux avantages: absence de grille de reconstruction et des artefacts de discrétisation associés, analyse plus simple, et algorithmes tirant parti de la structure lisse du problème.
Dans cet exposé, nous nous proposons d’étendre cette démarche à la reconstruction d’objets plus complexes: plutôt que des sources ponctuelles, on veut reconstruire des images constantes par morceaux à l’aide de la régularisation par variation totale du gradient (comme dans les travaux de Rudin, Osher et Fatemi).
Nous montrons qu’en étudiant la boule unité associée, on peut décrire la structure des minimiseurs et définir un algorithme de type Frank-Wolfe « sans grille » pour la résolution du problème.
L’avantage d’une telle méthode est la préservation des bords et l’isotropie des solutions.
Il s’agit d’un travail commun avec Romain Petit et Yohann De Castro.
Les modèles de processus ponctuel spatiotemporels avec marques extrêmes : une application aux feux de forêts en France
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 10 mars 2022 10:45-11:45 Lieu : Salle de conférences Nancy Oratrice ou orateur : Thomas Opitz (INRAE Avignon) Résumé :Accurate spatiotemporal modeling of conditions leading to moderate and large wildfires provides better understanding of mechanisms driving fire-prone ecosystems and improves risk management. We here develop a joint model for the occurrence intensity and the wildfire size distribution by combining extreme-value theory and point processes within a novel Bayesian hierarchical model, and use it to study daily summer wildfire data for the French Mediterranean basin during 1995-2018. The occurrence component models wildfire ignitions as a spatiotemporal log-Gaussian Cox process. Burnt areas are numerical marks attached to points and are considered as extreme if they exceed a high threshold. The size component is a two-component mixture varying in space and time that jointly models moderate and extreme fires. We capture non-linear influence of covariates (Fire Weather Index, forest cover) through component-specific smooth functions, which may vary with season. We propose estimating shared random effects between model components to reveal and interpret common drivers of different aspects of wildfire activity. This leads to increased parsimony and reduced estimation uncertainty with better predictions. Fast approximate (but accurate) Bayesian estimation is carried out in the framework of the integrated nested Laplace approximation. Our methodology provides a holistic approach to explaining and predicting the drivers of wildfire activity and associated uncertainties.
Dynamical properties of rough delay equations
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 3 mars 2022 10:45-11:45 Lieu : Lien Teams Oratrice ou orateur : Mazyar Ghani Varzaneh (Technische Universität Berlin) Résumé :This talk aims to incorporate two subjects for developing a framework for studying the long-time behavior solution of singular delay equations. Singular delay equations fail to induce the flow property. Accordingly, for a long time, many people have believed it is not possible to apply the idea of random dynamical systems to this family of equations.
In this talk, we claim, is possible. The main trick is to regard the solution in the language of the Rough path and then construct the flow property in a bundle-like family of Banach spaces. The main challenge here is to prove the Multiplicative Ergodic Throem in this new framework. After proving this crucial theorem, we can generate the Lyapunov exponents. These exponents can be regarded as a generalization of eigenvalues. We then apply these theorems to prove the invariant manifolds in our setting. The main tools here are the rough path theory and random dynamical systems.
This talk is based on my doctoral thesis. I recently have defended my thesis in February.
Renormalisation locale pour les EDPS singulières
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 24 février 2022 10:45-11:45 Lieu : Salle de conférences Nancy Oratrice ou orateur : Yvain Bruned (University of Edinburgh) Résumé :Dans cet exposé, on présentera les outils des structures de régularité pour traiter les EDP stochastiques singulières qui ne sont pas invariantes par translation. On décrira en particulier l’équation renormalisée pour une très large classe de schémas de renormalisation dépendant de l’espace-temps. Cette approche est basée sur des renormalisations locales qui agissent directement au niveau de l’équation. L’exposé sera basé sur un travail en collaboration avec Ismaël Bailleul.
La forêt IDLA
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 3 février 2022 10:45-11:45 Lieu : Salle de conférences Nancy Oratrice ou orateur : David Coupier (Institut Mines Télécom Nord Europe) Résumé :Le modèle IDLA (Internal Diffusion Limited Aggregation) est un modèle de croissance aléatoire sur la grille Zd introduit dans les années 90 et permettant de modéliser l’évolution d’un bassin de culture de cellules, la croissance de zones urbaines ou encore la propagation d’un fluide visqueux. C’est une suite d’ensembles aléatoires (An)n définie comme suit : A0 = {0} et, étant donné An, on lance une marche aléatoire simple depuis l’origine de Zd. Le sommet z par lequel la marche sort de l’agrégat An est ajouté pour obtenir An+1 : An+1 = An U {z}. Un arbre aléatoire se cache derrière la suite des agrégats (An)n… Afin d’étudier la géométrie de cet arbre, nous avons défini en 2020 un graphe aléatoire auxiliaire, baptisé la forêt dirigée IDLA. Ce nouvel objet possède d’intéressantes propriétés et des conjectures excitantes qui seront abordées dans cet exposé. Travail en collaboration avec N. Chenavier (ULCO) et A. Rousselle (Dijon)
Functional data clustering with outlier detection
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 27 janvier 2022 10:45-11:45 Lieu : Salle Döblin Oratrice ou orateur : Julien Jacques (Université Lumière Lyon 2) Résumé :With the emergence of numerical sensors in many aspects of every-day life, there is an increasing need in analyzing high frequency data, which can be seen as discrete observation of functional data.
The presentation will focus on the clustering of such functional data, in order to ease their modeling and understanding. To this end, a novel clustering technique for multivariate functional data is presented.
This method is based on a functional latent mixture model which fits the data in group-specific functional subspaces through a multivariate functional principal component analysis.
In such clustering analysis, the presence of outliers can confuse the notion of cluster.
Consequently, a contaminated version of the previous mixture model is proposed. This model both clusters the multivariate functional data into homogeneous groups and detects outliers. The main advantage of this procedure over its competitors is that it does not require us to specify the proportion of outliers.
Model inference is performed through an Expectation-Conditional Maximization algorithm, and the BIC criterion is used to select the number of clusters. Numerical experiments on simulated data demonstrate the high performance achieved by the inference algorithm. In particular, the proposed model outperforms competitors. Its application on the real data which motivated this study allows us to correctly detect abnormal behaviors.
Durées de vie extrémales en analyse topologique des données
Catégorie d'évènement : Séminaire Probabilités et Statistique Date/heure : 20 janvier 2022 10:45-11:45 Lieu : Salle de conférences Nancy Oratrice ou orateur : Nicolas Chenavier (Université du Littoral Côte d'Opale) Résumé :L’un des principes de l’analyse topologique des données est d’étudier un ensemble de données, représentées sous forme d’un nuage de points, à partir d’outils topologiques. Un concept de base est celui de l’homologie persistante. Cette dernière mesure les naissances et les morts de diverses caractéristiques topologiques, telles que les boucles et les cavités, lorsque l’on fait grossir des boules en chaque point d’un processus de Poisson (on parle de modèle Booléen). Dans cet exposé, nous nous intéressons aux durées de vie extrémales pour de telles caractéristiques. Nous étudions d’abord le cas particulier des cavités et donnons l’ordre de grandeur du maximum (resp. du minimum) de leurs durées de vie. Une approximation poissonienne du nombre d’excédents est également établie. Nous étendons ensuite l’étude à des caractéristiques quelconques pour les complexes simpliciaux de Cech et de Vietoris-Rips. Travail joint avec C. Hirsch.