Séminaire des doctorants
Responsables : Martin Desombre et Xavier Lhebard
La liste des anciens responsables est disponible sur cette page.
Liste des exposés de 2023
-
Jeudi 14 décembre 2023
En route vers les théorèmes de Gödel
15:45 - 16:45 C201
-
Jeudi 30 novembre 2023
L'arbre de l'agrégation limitée par diffusion interne
(⊕ résumé)
Le modèle d'agrégation limitée par diffusion interne (IDLA) est un modèle de croissance aléatoire sur Z^d. Ce dernier consiste en une famille d'agrégats aléatoires qui sont définis de façon récursive comme suit: à l'étape 0, l'agrégat n'est constitué que de l'origine. A l'étape n, on lance une marche aléatoire simple et symétrique depuis l'origine, que l'on arrête dès que celle-ci sort de l'agrégat (de l'étape n-1). On rajoute alors le dernier site visité à l'agrégat pour obtenir l'agrégat à l'étape n. Plusieurs résultats ont déjà été établis sur l'agrégat IDLA, notamment un 'shape theorem' dû à Lawler, Bramson et Griffeath en 1992. Derrière l'agrégat IDLA se cache un arbre aléatoire enraciné en 0, qui est difficile à étudier en particulier à cause de son aspect radial. Une forêt aléatoire a été proposée en dimension 2 pour l'approcher mais la construction d'un tel objet est spécifique à cette dimension. Dans cet exposé, nous établissons en dimension quelconque des résultats d'invariance en loi, de stabilisation ainsi qu'un 'shape theorem' sur des agrégats basés sur un nombre infini de sources. De telles propriétés devraient être utiles pour construire une forêt aléatoire, en toute dimension, en vue d'approcher l'arbre IDLA.
15:35 - 16:35 C115
-
Jeudi 4 mai 2023
Vincent Gozé (LMPA)
Ordre moyen de fonctions arithmétiques et théorème des nombres premiers.
(⊕ résumé)
Dans cette exposé, nous introduirons le théorème des nombres premiers, l'un des théorèmes classiques de la théorie analytique des nombres, qui donne une approximation du nombre de nombres premiers plus petit qu'une quantité donnée. Après avoir introduit les concepts de base de la théorie analytique des nombres, nous définirons la notion d'ordre moyen et donnerons quelques exemples. Nous relierons ensuite la notion d'ordre moyen à la démonstration du théorème des nombres premiers et évoquerons les idées clés derrière les différentes démonstrations 'classiques' de ce théorème. Nous terminerons par évoquer les méthodes d'analyse réelle utilisées pour étudier le reste.
15:30 - 16:30 C115
-
Vendredi 31 mars 2023
Modélisation probabiliste et inférence bayésienne pour l'analyse de la dynamique des mélanges de fluides géologiques : détection des structures et estimation des paramètres
(⊕ résumé)
L'analyse de données hydrogéochimiques a pour objectif d'améliorer la compréhension des échanges de matières entre sol et du sous-sol. Ce travail se concentre sur l'étude des interactions fluides-fluides au travers des systèmes de mélange de fluides et plus particulièrement de la détection des compositions des sources du mélange. La détection se fait au moyen d'un processus ponctuel : le modèle proposé est non supervisée et applicable à des données multidimensionnelles.
Les connaissances physiques sur les mélanges et géologiques sur les données sont directement intégrés dans la densité de probabilité d'un processus ponctuel de Gibbs, qui distribue des configurations de points dans l'espace des données, appelé le modèle Hug. Les sources détectées forment la configuration de points qui maximise la densité de probabilité du modèle Hug. Cette densité de probabilité est connue à une constante de normalisation près. La connaissance sur les paramètres du modèle, qu'elle soit acquise d'une manière expérimentale ou bien en utilisant des méthodes d'inférence, y est intégrée sous forme des lois a priori. La configuration des sources est obtenue par un algorithme de type recuit simulé et des méthodes de type Monte-Carlo par Chaînes de Markov (MCMC). Les paramètres du modèle sont estimés par une méthode de calcul bayésien approximatif (ABC).
Dans un premier temps, le modèle est appliqué sur des données synthétiques, et après sur des données réelles. Les paramètres du modèle sont estimés ensuite pour un jeu de données synthétiques avec les sources connues. Enfin, la sensibilité du modèle aux données, aux paramètres et aux algorithmes est étudiée.
14:30 - 15:30 Salle B014
-
Jeudi 16 février 2023
Classification des algèbres de quaternions
(⊕ résumé)
Les algèbres de quaternions sont une généralisation sur un corps quelconque des quaternions de Hamilton. Il existe des propriétés permettant de relier ces algèbres à l'étude des formes quadratiques qui nous permettent d'en faire une classification sur certains corps. Outre des cas simples comme R, les corps algébriquement clos ou les corps finis, nous pouvons déterminer toutes les algèbres de quaternions sur le corps des p-adiques. Plus généralement, les algèbres de quaternions sont les algèbres centrales simples de dimension 4, et on peut alors se poser la question de la classification de ces algèbres en dimension fini et au calcul du groupe de Brauer.
16:00 - 17:00 C201
-
Jeudi 19 janvier 2023
Axel Renard (Université de Lille)
Autour de l'inégalité de von Neumann. De la théorie spectrale des opérateurs à la géométrie hyperbolique du disque unité.
(⊕ résumé)
La théorie spectrale est une théorie étendant à des opérateurs définis sur des espaces fonctionnels généraux (par exemple, des espaces de Hilbert) la théorie élémentaire des valeurs propres et des vecteurs propres de matrices. Plus précisément, si X est un espace de Banach et T un opérateur borné sur X, on définit le spectre de T comme l’ensemble des scalaires $\lambda$ tels que T - $\lambda Id$ ne soit pas inversible. Après une brève introduction à cette théorie, nous nous intéresserons à l’inégalité de von Neumann (qui, étant donnés un opérateur borné T sur un espace de Hilbert et un polynôme p, permet d’obtenir une estimation de la norme de p(T)), dont nous verrons ensuite quelques applications en analyse complexe et en géométrie hyperbolique.
16:00 - 17:00 C116
Archives
2018 2019 2020 2021 2022 2023 2024