Thèses soutenues
Contrôle d'équations aux dérivées partielles hyperboliques par méthodes directes (⊕ résumé)
Cette thèse a pour objet l’étude de la contrôlabilité à zéro de certaines équations aux dérivées partielles par des méthodes directes. On s’est intéressé dans un premier temps à une équation de la chaleur dégénérée en guise de travail introductif au problème de contrôlabilité. Pour cela, on a utilisé la méthode de la platitude, une méthode directe et constructive. Ensuite, on s’est focalisé sur la contrôlabilité à zéro d’équations hyperboliques, et plus particulièrement de l’équation des ondes. Un travail indépendant a été effectué sur l’analyse de problèmes aux limites hyperboliques faiblement bien posés pour lequel on a "achevé" l’étude de ces équations en se concentrant sur le cas de la dégénérescence de la condition de Kreiss-Lopatinskiiuniforme en zone glancing. Ensuite, on s’est intéressé à l’étude de la contrôlabilité de l’équation des ondes en dimensions un et trois d’espace, le but étant de développer des méthodes de contrôle numérique pour ces équations. On développe des méthodes robustes pour approcher le contrôle. En dimension un, on a opté pour une approche basée sur la méthode backstepping qui fournit la stabilisation en temps fini et en dimension trois, on a établi un principe d’Huygens couplé avec la méthode d’extension du domaine.
Soutenue en décembre 2023Reduction de modèles non-linéaire pour le contrôle
Soutenue en juillet 2023Caractérisation des inverses à gauche et applications
Soutenue en juillet 2023Contribution à l'étude des modèles fluides stochastiques avec sauts
Soutenue en juin 2023Deux études catégoriques : algèbre homologique relative pour R-modules, théorème du point fixe pour Q-categories
Soutenue en février 2023Régularisation des problèmes inverses multidimensionnels et application à la restauration de vidéos (⊕ résumé)
La résolution de problèmes inverses dans un cadre multidimensionnel est devenue un sujet actif sur lequel travaillent de nombreux chercheurs en algèbre linéaire. D'une part, la construction d'un modèle en dimension supérieure peut être réalisée en utilisant l'algèbre tensorielle en adoptant les mécanismes développés récemment dans ce domaine. D'autre part, la résolution de tels problèmes est généralement basée sur l'utilisation de techniques de régularisation qui remédient au mauvais conditionnement que l'on peut trouver dans presque tous les problèmes inverses. La présente thèse vise à réunir la modélisation des problèmes inverses en dimension supérieure et la généralisation de certaines méthodes de régularisation variationnelle sous forme tensorielle. Récemment, les méthodes de régularisation variationnelle sont connues comme des méthodes bien établies pour résoudre les problèmes inverses. Par exemple, les régularisateurs de Tikhonov et de la variation totale font partie des approches bien connues que nous généraliserons et développerons sous forme tensorielle. Les approches d'optimisation convexe joueront un rôle essentiel dans la résolution des problèmes de régularisation sous contraintes que nous avons proposés. Ainsi qu'un ensemble de mécanismes, tels que les méthodes de projection et les techniques d'extrapolation, qui ont contribué à améliorer les performances des approches développées. Des applications numériques dans le traitement des images et des vidéos sont données pour illustrer l'efficacité des approches proposées par rapport à certaines méthodes de l'état de l'art.
Soutenue en décembre 2022Algèbre multilinéaire appliquée à la restauration et reconnaissance d'images (⊕ résumé)
Les tenseurs sont des tableaux multidimensionnels. Ils sont une généralisation des matrices et des vecteurs. Ils fournissent un moyen naturel de représenter les données dans différents domaines, ce qui fait le domaine tensoriel un cadre idéal pour formuler et résoudre de nombreux problèmes dans différents domaines. L'une des applications les plus importantes des tenseurs se trouve dans le domaine du traitement des images, comme la restauration d'images et la reconnaissance des visages, où les images couleur (images RGB) sont présentées comme des tenseurs d'ordre 3 et une vidéo composée d'images couleur est un tenseur d'ordre 4. Mais lorsque nous travaillons dans des espaces de dimension supérieure pour résoudre des problèmes d'ordre supérieur, un ensemble de défis se pose, comme un problème connu sous le nom de "the curse of dimensionality". En effet, lorsque la dimension augmente, les problèmes d'ordre supérieur deviennent plus difficiles (besoin en calcul et en mémoire) car la taille des données d'un tenseur augmente exponentiellement avec l'augmentation de la dimensionnalité du tenseur. Par conséquent, les calculs tensoriels deviennent très coûteux. Dans cette thèse, nous nous sommes concentrés sur la résolution de certains problèmes tensoriels. Les algorithmes proposés sont obtenus en combinant des méthodes itératives telles que la méthode LSQR et des décompositions d'ordre supérieur pour surmonter le problème de la dimensionnalité. Les approches que nous proposons sont appliquées à la restauration d'images et de vidéos. De plus, cette thèse étudie les méthodes de reconnaissance des visages basées sur le format tensoriel, où des outils d'algèbre multi-linéaire tels que la HOSVD (Higher- Order Singular Value Decomposition) ont été utilisés. Nous proposons un nouvel algorithme qui peut être appliqué à une base de données d'images représentées par un tenseur d'ordre 3 ou 4. tenseur de troisième ou quatrième ordre.
Soutenue en décembre 2022Estimations du spectre discret des opérateurs définis par des matrices infinies non bornées et le modèle quantique de Rabi (⊕ résumé)
Le sujet de cette thèse est motivé par les différents modèles physiques et applications en théorie des équations différentiels. il s'agit des certaines classes de matrices infinies qui définissent une application linéaire qui est diagonale dans une base orthogonale et dont les valeurs propres forment une suite qui tend vers l'infini. Dans le cas de modèles de la physique quantique les valeurs propres correspondent aux niveaux d'énergie de l'hamiltonien qui contient des paramètres physiques. il est important d'obtenir des renseignements sur ces paramètres en connaissance les niveaux d'énergie qui peuvent être mesurés expérimentalement et l'approche utilisée est basée sur l'étude asymptotique de hauts niveaux d'énergies. Un exemple fondamentale de l'optique quantique est donné par le modèle quantique de Rabi qui décrit l'interaction entre un atomee à deux niveaux et un mode du champ électromagnétique. L'un de buts principaux de cette thèse est d'obtenir des preuves mathématiquement rigoureuses du comportement asymptotique de grandes valeurs propres dans des modèles du type de Rabi.
Soutenue en décembre 2022Enchevêtrements et polynôme de Jones modulaire
Soutenue en décembre 2021Calcul tensoriel et applications
Soutenue en novembre 2021Block and global extended Krylov subspace methods with applications to network analysis
Soutenue en mars 2021Problème de moments avec applications et estimations du spectre discret des opérateurs définis par des matrices infinies non bornées (⊕ résumé)
Dans cette thèse on donne d'abord une solution concrète pour presque tous les scénarios qu'on peut avoir dans le problème de moments complexe quintique et en particulier dans le cas d'une mesure à support minimal. On présente aussi de nombreux exemples pour illustrer chaque cas. La seconde partie présente une approche qui permet de passer du problème de moments tronqué au problème complet à l'aide des idempotents. Il s'agit d'une approche très différente de celle utilisée dans la première partie.Plus précisément, au lieu d'appliquer les méthodes de R. Curto et L. Fialkow où l'objet central est la matrice de moments, on utilise l'approche de F. Vasilescu dont l'objet central est la fonctionnelle de Riesz. Cette fonctionnelle fait associer à chaque monôme tᵅ la valeur γ∝ et elle satisfait trois conditions naturelles dans le cas où la suite (γ∝)∝∈ℕᵈ est donnée par les intégrales de tᵅ par rapport à une mesure. La troisième partie est consacrée à l'asymptotique du spectre pour une classe de matrices hermitiennes tridiagonales infinies. Le but est d'obtenir le comportement asymptotique précis des valeurs propres y associées à partir du comportement asymptotique de ces coefficients. Le résultat est obtenu par une approche nouvelle qui est une adaptation de la théorie de perturbations de Schrieffer-Wolff utilisée en physique de la matière condensée. Cette méthode marche également pour des matrices 'bande', mais le cas des matrices tridiagonales est le plus important pour des applications et encore les expressions explicites des premières corrections dans la formule asymptotique sont plus simples pour les matrices tridiagonales.
Soutenue en décembre 2020Sur la modélisation du transport réactif dans les réserves d’eaux potables (⊕ résumé)
Cette thèse est consacrée à l’étude du transport réactif dans les réserves en eaux. Elle est structurée en deux parties distinctes : la première porte sur l’élaboration de solveurs chimiques et la seconde sur l’étude mathématique d’une classe de modèles décrivant des écoulements en eaux peu profondes en interaction avec les eaux de surface.Dans la première partie du travail, on s’intéresse à la résolution numérique des équilibres thermodynamiques qui conduisent à des systèmes non linéaires complexes et très mal conditionnés. Dans ce travail, on combine une formulation particulière du système d’équilibre chimique, appelée la méthode des fractions continues positives, avec deux méthodes numériques itératives, la méthode d’Accélération d’Anderson et des méthodes d’extrapolation vectorielle, à savoir les méthodes MPE (minimal polynomial extrapolation) et RRE (reduced rank extrapolation). Le principal avantage de ces approches est d’éviter de former la matrice jacobienne et donc d’éviter les problèmes liés aux mauvais conditionnements de la matrice. Des tests numériques sont faits, notamment sur le cas test de l’acide gallique et sur le cas test 1D de référence du benchmark MoMas. Ces essais illustrent la grande efficacité de cette approche par rapport aux résolutions classiques résultant de la méthode de Newton-Raphson. Dans la seconde partie de la thèse, on introduit et étudie des modèles de type Richards-Dupuit pour décrire les écoulements dans des aquifères peu profonds. L’idée est de coupler les deux types d’écoulements principaux présents dans l’aquifère : celui de la partie insaturée avec celui de la partie saturée. Le premier est décrit par le problème classique de Richards dans la frange capillaire supérieure.Le second résulte de l’approximation de Dupuit après intégration verticale des lois de conservation entre le fond de l’aquifère et l’interface de saturation. Le modèle final consiste en un système fortement couplé d’edp de type parabolique qui sont définies sur un domaine dépendant du temps. Nous montrons comment la prise en compte de la faible compressibilité du fluide permet d’éliminer la dégénérescence présente dans la dérivée temporelle de l’équation de Richards. Puis nous utilisons le cadre général des équations paraboliques dans des domaines non cylindriques introduit par Lions pour donner un résultat d’existence global en temps. Nous présentons l’analyse mathématique du premier modèle qui correspond au cas isotrope et non conservatif. Puis nous généralisons l’étude au cas anisotrope et conservatif.
Soutenue en décembre 2020L'estimation non paramétrique de la fonction de régression pour des données censurées : méthodes locale linéaire et erreur relative (⊕ résumé)
Dans cette thèse, nous nous intéressons à développer des méthodes robustes et efficaces dans l’estimation non paramétrique de la fonction de régression. Le modèle considéré ici est le modèle censuré aléatoirement à droite qui est le plus utilisé dans différents domaines pratiques. Dans un premier temps, nous proposons un nouvel estimateur de la fonction de régression en utilisant la méthode linéaire locale. Nous étudions sa convergence uniforme presque sûre avec vitesse. Enfin, nous comparons ses performances avec celles de l’estimateur de la régression à noyau classique à l’aide de simulations. Dans un second temps, nous considérons l’estimateur de la fonction de régression par erreur relative (RER en anglais), basé sur la minimisation de l’erreur quadratique relative moyenne. Ainsi, nous établissons la convergence uniforme presque sûre (sur un compact) avec vitesse de l’estimateur défini pour des observations indépendantes et identiquement distribuées. En outre, nous prouvons sa normalité asymptotique en explicitant le terme de variance. Enfin, nous conduisons une étude de simulations pour confirmer nos résultats théoriques et nous appliquons notre estimateur sur des données réelles. Par la suite, nous étudions la convergence uniforme presque sûre (sur un compact) avec vitesse de l’estimateur RER pour des observations soumises à une structure de dépendance du type α-mélange. Une étude de simulation montre le bon comportement de l’estimateur étudié. Des prévisions sur données générées sont réalisées pour illustrer la robustesse de notre estimateur. Enfin, nous établissons la normalité asymptotique de l’estimateur RER pour des observations α-mélangeantes où nous construisons des intervalles de confiance afin de réaliser une étude de simulations qui valide nos résultats. Pour conclure, le fil conducteur de cette modeste contribution, hormis l’analyse des données censurées est la proposition de deux méthodes de prévision alternative à la régression classique. La première approche corrige les effets de bord crée par les estimateurs à noyaux classiques et réduit le biais. Tandis que la seconde est plus robuste et moins affectée par la présence de valeurs aberrantes dans l’échantillon.
Soutenue en décembre 2020De nouveaux théorèmes limites sur les extrêmes et les systèmes dynamiques (⊕ résumé)
Dans cette thèse, nous établissons quelques théorèmes limites en théorie des valeurs extrêmes eten systèmes dynamiques. La thèse est composée de deux parties. Dans la première partie, nousnous intéressons au comportement du maximum d’une suite qui ne satisfait pas les hypothèsesclassiques de la théorie des valeurs extrêmes. La suite que nous considérons est générée par unemarche aléatoire en milieu aléatoire. Nous établissons un résultat de convergence sur le processusponctuel des excédents associé à la suite et calculons l’indice extrémal. Des propriétés de mélangede la suite sont également discutées.Dans la deuxième partie, nous étudions la convergence presque sûre de différents types de moyennesergodiques avec poids (aléatoires et/ou déterministes), en développant une nouvelle techniquepour donner des vitesses de convergence. Cette technique est basée sur des travaux de Móriczconcernant l’étude de sommes de variables aléatoires. Elle nous permet d’établir des résultatssur la vitesse de convergence dans la loi forte des grandes nombres. Nous déduisons ensuite despropriétés de convergence ponctuelle de la transformée de Hilbert unilatérale pondérée.01/0
Soutenue en décembre 2020Sensitivity analysis of ill-conditioned tensor equations and implementing iterative methods for solving them
Soutenue en octobre 2020Méthodes de sous espaces de Krylovpréconditionnées pour les problèmesde point-selle avec plusieurs seconds membres (⊕ résumé)
La résolution numérique des problèmes de point-selle a eu une attention particulièreces dernières années. A titre d’exemple, la mécanique des fluides et solides conduitsouvent à des problèmes de point-selle. Ces problèmes se présentent généralement pardes équations aux dérivées partielles que nous linéarisons et discrétisons. Le problèmelinéaire obtenu est souvent mal conditionné. Le résoudre par des méthodes itérativesstandard n’est donc pas approprié. En plus, lorsque la taille du problème est grande,il est nécessaire de procéder par des méthodes de projections. Nous nous intéressonsdans ce sujet de thèse à développer des méthodes numériques robustes et efficacesde résolution numérique de problèmes de point-selle. Nous appliquons les méthodesde Krylov avec des techniques de préconditionnement bien adaptées à la résolutionde problèmes de point selle. L’efficacité de ces méthodes à été montrée dans les testsnumériques.
Soutenue en décembre 2019Block Krylov subspace methods for matrix Riccati equations
Soutenue en octobre 2019Modélisation d’aquifères peu profonds en interaction avec les eaux de surfaces (⊕ résumé)
Nous présentons une classe de nouveaux modèles pour décrire les écoulements d’eau dans des aquifères peu profonds non confinés. Cette classe de modèles offre une alternative au modèle Richards 3d plus classique mais moins maniable. Leur dérivation est guidée par deux ambitions : le nouveau modèle doit d’une part être peu coûteux en temps de calcul et doit d’autre part donner des résultats pertinents à toute échelle de temps. Deux types d’écoulements dominants apparaissent dans ce contexte lorsque le rapport de l’épaisseur sur la longueur de l’aquifère est petit : le premier écoulement apparaît en temps court et est décrit par un problème vertical Richards 1d ; le second correspond aux grandes échelles de temps, la charge hydraulique est alors considérée comme indépendante de la variable verticale. Ces deux types d’écoulements sont donc modélisés de manière appropriée par le couplage d’une équation 1d pour la partie insaturée de l’aquifère et d’une équation 2d pour la partie saturée. Ces équations sont couplées au niveau d’une interface de profondeur h (t,x) en dessous de laquelle l’hypothèse de Dupuit est vérifiée. Le couplage est assuré de telle sorte que la masse globale du système soit conservée. Notons que la profondeur h (t,x) peut être une inconnue du problème ou être fixée artificiellement. Nous prouvons (dans le cas d’aquifères minces) en utilisant des développements asymptotiques que le problème Richards 3d se comporte de la même manière que les modèles de cette classe à toutes les échelles de temps considérées (courte, moyenne et grande). Nous décrivons un schéma numérique pour approcher le modèle couplé non linéaire. Une approximation par éléments finis est combinée à une méthode d’Euler implicite en temps. Ensuite, nous utilisons une reformulation de l’équation discrète en introduisant un opérateur de Dirichlet-to-Neumann pour gérer le couplage non linéaire en temps. Une méthode de point fixe est appliquée pour résoudre l’équation discrète reformulée. Le modèle couplé est testé numériquement dans différentes situations et pour différents types d’aquifère. Pour chacune des simulations, les résultats numériques obtenus sont en accord avec ceux obtenus à partir du problème de Richards original. Nous concluons notre travail par l’analyse mathématique d’un modèle couplant le modèle Richards 3d à celui de Dupuit. Il diffère du premier parce que nous ne supposons plus un écoulement purement vertical dans la frange capillaire supérieure. Ce modèle consiste donc en un système couplé non linéaire d’équation Richards 3d avec une équation parabolique non linéaire décrivant l’évolution de l’interface h (t,x) entre les zones saturées et non saturées de l’aquifère. Les principales difficultés à résoudre sont celles inhérentes à l’équation 3D-Richards, la prise en compte de la frontière libre h (t,x) et la présence de termes dégénérés apparaissant dans les termes diffusifs et dans les dérivées temporelles.
Soutenue en juin 2019Méthodes tangentielles pour lesréductions de modèles et applications (⊕ résumé)
Les simulations à grande dimension jouent un rôle crucial dans l'étude d'une grande variété de phénomènes physiques complexes, entraînant souvent des demandes écrasantes sur les ressources informatiques. La gestion de ces demandes constitue la principale motivation pour la réduction du modèle : produire des modèles de commande réduite plus simples, qui permettent une simulation plus rapide et moins coûteuse tout en se rapprochant avec précision du comportement du modèle d'origine. La présence des systèmes avec multiples entrées et multiples sorties (MIMO) rend le processus de réduction encore plus difficile. Dans cette thèse, nous nous intéressons aux méthodes de réduction de modèles à grande dimension en utilisant la projection sur des sous-espaces de Krylov tangentielles. Nous nous penchons sur le développement de techniques qui utilisent l'interpolation tangentielle. Celles-ci présentent une alternative efficace et intéressante à la troncature équilibrée qui est considérée comme référence dans le domaine et tout particulièrement la réduction pour les systèmes linéaire à temps invariants. Enfin, une attention particulière sera portée sur l'élaboration de nouveaux algorithmes efficaces et sur l'application à des problèmes pratiques.
Soutenue en décembre 2018Choix optimal du paramètre de lissage dans l'estimation non paramétrique de la fonction de densité pour des processus stationnaires à temps continu (⊕ résumé)
Les travaux de cette thèse portent sur le choix du paramètre de lissage dans le problème de l'estimation non paramétrique de la fonction de densité associée à des processus stationnaires ergodiques à temps continus. La précision de cette estimation dépend du choix de ce paramètre. La motivation essentielle est de construire une procédure de sélection automatique de la fenêtre et d'établir des propriétés asymptotiques de cette dernière en considérant un cadre de dépendance des données assez général qui puisse être facilement utilisé en pratique. Cette contribution se compose de trois parties. La première partie est consacrée à l'état de l'art relatif à la problématique qui situe bien notre contribution dans la littérature. Dans la deuxième partie, nous construisons une méthode de sélection automatique du paramètre de lissage liée à l'estimation de la densité par la méthode du noyau. Ce choix issu de la méthode de la validation croisée est asymptotiquement optimal. Dans la troisième partie, nous établissons des propriétés asymptotiques, de la fenêtre issue de la méthode de la validation croisée, données par des résultats de convergence presque sûre.
Soutenue en octobre 2018Krylov Subspace Methods for Inverse Problems with Application to Image Restoration (⊕ résumé)
Image restoration often requires the solution of large linear systems of equations with avery ill-conditioned, possibly singular, matrix and an error-contaminated right-hand side.The latter represents the available blur and noise-contaminated image, while the matrix models the blurring. Computation of a meaningful restoration of the available image re-quires the use of a regularization method. We consider the situation when the blurring matrix has a Kronecker product structure and an estimate of the norm of the desired image is available, and illustrate that efficient restoration of the available image can be achieved by Tikhonov regularization based on the global Lanczos method, and by using the connection of the latter to Gauss-type quadrature rules. We also investigate the use of the global Golub-Kahan bidiagonalization method to reduce the given large problem to a small one. The small problem is solved by employing Tikhonov regularization. A regularization parameter determines the amount of regularization. The connection between global Golub-Kahan bidiagonalization and Gauss-type quadrature rules is exploited to in-expensively compute bounds that are useful for determining the regularization parameter by the discrepancy principle. We will also present an efficient algorithm for solving theT ikhonov regularization problem of a linear system of equations with multiple right-handsides contaminated by errors. The proposed algorithm is based on the symmetric block Lanczos algorithm, in connection with block Gauss quadrature rules. We will show how this connection is designed to inexpensively determine a value of the regularization parameter when a solution norm constraint is given. Next, we will present four algorithms for the solution of linear discrete ill-posed problems with several right-hand side vectors.These algorithms can be applied, for instance, to multi-channel image restoration when the image degradation model is described by a linear system of equations with multipler ight-hand sides that are contaminated by errors. Two of the algorithms are block generalizations of the standard Golub-Kahan bidiagonalization method with the block size equal to the number of channels. One algorithm uses standard Golub-Kahan bidiagonalization without restarts for all right-hand sides. These schemes are compared to standard Golub-Kahan bidiagonalization applied to each right-hand side independently. Tikhonov regularization is used to avoid severe error propagation. Applications include the restoration of color images are given. We will finally give efficient algorithms to solve total variation (TV) regularization of images contaminated by blur and additive noise. The unconstrained structure of the problem suggests that one can solve a constrained optimization by transforming the original unconstrained minimization problem to an equivalent constrained minimization problem. An augmented Lagrangian method is used to handle the constraints, and an alternating direction method (ADM) is used to iteratively find solutions of the subproblems. The solution of these subproblems are belonging to subspaces generated by application of successive orthogonal projections onto a class generalized matrix Krylov subspaces of increasing dimension.
Soutenue en décembre 2017Sur des méthodes préservant les structures d’une classede matrices structurées (⊕ résumé)
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche.
Soutenue en décembre 2017Identification de la conductivité hydraulique pour un problème d'intrusion saline : Comparaison entre l'approche déterministe et l'approche stochastique (⊕ résumé)
Le thème de cette thèse est l'identification de paramètres tels que la conductivité hydraulique, K, pour un problème d'intrusion marine dans un aquifère isotrope et libre. Plus précisément, il s'agit d'estimer la conductivité hydraulique en fonction d'observations ou de mesures sur le terrain faites sur les profondeurs des interfaces (h, h₁), entre l'eau douce et l'eau salée et entre le milieu saturé et la zone insaturée. Le problème d'intrusion marine consiste en un système à dérivée croisée d'edps de type paraboliques décrivant l'évolution de h et de h₁. Le problème inverse est formulé en un problème d'optimisation où la fonction coût minimise l'écart quadratique entre les mesures des profondeurs des interfaces et celles fournies par le modèle. Nous considérons le problème exact comme une contrainte pour le problème d'optimisation et nous introduisons le Lagrangien associé à la fonction coût. Nous démontrons alors que le système d'optimalité a au moins une solution, les princcipales difficultés étant de trouver le bon ensemble pour les paramètres admissibles et de prouver la différentiabilité de l'application qui associe (h(K), h₁(K₁)) à K. Ceci constitue le premier résultat de la thèse. Le second résultat concerne l'implémentation numérique du problème d'optimisation. Notons tout d'abord que, concrètement, nous ne disposons que d'observations ponctuelles (en espace et en temps) correspondant aux nombres de puits de monitoring. Nous approchons donc la fonction coût par une formule de quadrature qui est ensuite minimisée en ultilisant l'algorithme de la variable à mémoire limitée (BLMVM). Par ailleurs, le problème exact et le problème adjoint sont discrétisés en espace par une méthode éléments finis P₁-Lagrange combinée à un schéma semi-implicite en temps. Une analyse de ce schéma nous permet de prouver qu'il est d'ordre 1 en temps et en espace. Certains résultats numériques sont présentés pour illustrer la capacité de la méthode à déterminer les paramètres inconnus. Dans la troisième partie de la thèse, nous considérons la conductivité hydraulique comme un paramètre stochastique. Pour réaliser une étude numérique rigoureuse des effets stochastiques sur le problème d'intrusion marine, nous utilisons les développements de Wiener pour tenir compte des variables aléatoires. Le système initiale est alors transformé en une suite de systèmes déterministes qu'on résout pour chaque coefficient stochastique du développement de Wiener.
Soutenue en décembre 2017Deux exemples d'algèbres de Hopf d'extraction-contraction : mots tassés et diagrammes de dissection (⊕ résumé)
Ce manuscrit est consacré à l'étude de la combinatoire de deux algèbres de Hopf d'extraction-contraction. La première est l'algèbre de Hopf de mots tassés WMat introduite par Duchamp, Hoang-Nghia et Tanasa dont l'objectif était la construction d'un modèle de coproduit d'extraction-contraction pour les mots tassés. Nous expliquons certains sous-objets ou objets quotients ainsi que des applications vers d'autres algèbres de Hopf. Ainsi, nous considérons une algèbre de permutations dont le dual gradué possède un coproduit de déconcaténation par blocs et un produit de double battage décalé. Le double battage engendre la commutativité de l'algèbre qui est donc distincte de celle de Malvenuto et Reutenauer. Nous introduisons également une algèbre de Hopf engendrée par les mots tassés de la forme x₁...x₁. Elle est isomorphe à l'algèbre de Hopf des fonctions symétriques non commutatives. Son dual gradé est donc isomorphe à l'algèbre de Hopf des fonctions quasi-symétriques. Nous considérons également une algèbre de Hopf de compositions et donnons son interprétation en termes de coproduit semi-direct d'algèbres de Hopf. Le deuxième objet d'étude est l'algèbre de Hopf de diagrammes de dissection HD introduite par Dupont en théorie des nombres. Nous cherchons des éléments de réponse concernant la nature de sa cogèbre sous-jacente. Est-elle colibre ? La dimension des éléments primitifs de degré 3 ne permet pas de conclure. Le cas du degré 5 permet d'établir la non-coliberté dans le cas où le paramètre de HD vaut - 1. Nous étudions également la structure pré-Lie du dual gradué HD. Nous réduisons le champ de recherche à la sous-algèbre pré-Lie non triviale engendrée par le diagramme de dissection de degré 1. Cette algèbre pré-Lie n'est pas libre.
Soutenue en novembre 2017Détections des changements de plans et extraction d'images représentatives dans une séquence vidéo (⊕ résumé)
Les technologies multimédias ont récemment connues une grande évolution surtout avec la croissance rapide d'internet ainsi que la création quotidienne de grands volumes de données vidéos. Tout ceci nécessite de nouvelles méthodes performantes permettant d'indexer, de naviguer, de rechercher et de consulter les informations stockées dans de grandes bases de données multimédia. La récupération de données basée sur le contenu vidéo, qui est devenue un domaine de recherche très actif durant cette décennie, regroupe les différentes techniques conçues pour le traitement de la vidéo. Dans le cadre de cette thèse de doctorat, nous présentons des applications permettant la segmentation temporelle d'une vidéo ainsi que la récupération d'information pertinente dans une séquence vidéo. Une fois le processus de classification effectué, il devient possible de rechercher l'information utile en ajoutant de nouveaux critères, et aussi de visualiser l'information d'une manière appropriée permettant d'optimiser le temps et la mémoire. Dans une séquence vidéo, le plan est considéré comme l'unité élémentaire de la vidéo. Un plan est défini comme une suite d'image capturée par une même caméra représentant une action dans le temps. Pour composer une vidéo, plusieurs plans sont regroupés en utilisant des séquences de transitions. Ces transitions se catégorisent en transitions brusques et transitions progressives. Détecter les transitions présentes dans une séquence vidéo a fait l'objet de nos premières recherches. Plusieurs techniques, basées sur différents modèles mathématiques, ont été élaborées pour la détection des changements de plans. L'utilisation de la décomposition en valeur singulière (SVD) ains que la norme Frobenius ont permis d'obtenir des résultats précis en un temps de calcul réduit. Le résumé automatique des séquences vidéo est actuellement un sujet d'une très grande actualité. Comme son nom l'indique, il s'agit d'une version courte de la vidéo qui doit contenir l'essentiel de l'information, tout en étant le plus concis possible. Ils existent deux grandes familles de résumé : le résumé statique et le résumé dynamique. Sélectionner une image représentative de chaque plan permet de créer un scénarimage. Ceci est considéré comme étant un résumé statique et local. Dans notre travail, une méthode de résumé globale est proposée.
Soutenue en novembre 2017Méthodes de type Lanczos rationnel pour la réductionde modèles (⊕ résumé)
La solution numérique des systèmes dynamiques est un moyen efficace pour étudier des phénomènes physiques complexes. Cependant, dans un cadre à grande échelle, la dimension du système rend les calculs infaisables en raison des limites de mémoire et de temps, ainsi que le mauvais conditionnement. La solution de ce problème est la réduction de modèles. Cette thèse porte sur les méthodes de projection pour construire efficacement des modèles d'ordre inférieur à partir des systèmes linéaires dynamiques de grande taille. En particulier, nous nous intéressons à la projection sur la réunion de plusieurs sous-espaces de Krylov standard qui conduit à une classe de modèles d'ordre réduit. Cette méthode est connue par l'interpolation rationnelle. En se basant sur ce cadre théorique qui relie la projection de Krylov à l'interpolation rationnelle, quatre algorithmes de type Lanczos rationnel pour la réduction de modèles sont proposés. Dans un premier temps, nous avons introduit une méthode adaptative de type Lanczos rationnel par block pour réduire l'ordre des systèmes linéaires dynamiques de grande taille, cette méthode est basée sur l'algorithme de Lanczos rationnel par block et une méthode adaptative pour choisir les points d'interpolation. Une généralisation de ce premier algorithme est également donnée, où différentes multiplicités sont considérées pour chaque point d'interpolation. Ensuite, nous avons proposé une autre extension de la méthode du sous-espace de Krylov standard pour les systèmes à plusieurs-entrées plusieurs-sorties, qui est le sous-espace de Krylov global. Nous avons obtenu des équations qui décrivent cette procédure. Finalement, nous avons proposé une méthode de Lanczos étendu par block et nous avons établi de nouvelles propriétés algébriques pour cet algorithme. L'efficacité et la précision de tous les algorithmes proposés, appliqués sur des problèmes de réduction de modèles, sont testées dans plusieurs exemples numériques.
Soutenue en décembre 2016Méthodes de sous-espaces de Krylov rationnellespour le contrôle et la réduction de modèles (⊕ résumé)
Beaucoup de phénomènes physiques sont modélisés par des équations aux dérivées partielles, la discrétisation de ces équations conduit souvent à des systèmes dynamiques (continus ou discrets) dépendant d'un vecteur de contrôle dont le choix permet de stabiliser le système dynamique. Comme ces problèmes sont, dans la pratique, de grandes tailles, il est intéressant de les étudier via un autre problème dérivé réduit et plus proche du modèle initial. Dans cette thèse, on introduit et on étudie de nouvelles méthodes basées sur les processus de type Krylov rationnel afin d'extraire un modèle réduit proche du modèle original. Des applications numériques seront faites à partir de problèmes pratiques. Après un premier chapitre consacré au rappel de quelques outils mathématiques, on s'intéresse aux méthodes basées sur le processus d'Arnoldi rationnel par blocs pour réduire la taille d'un système dynamique de type Multi-Input/Multi-Output (MIMO). On propose une sélection adaptative de choix de certains paramètres qui sont cruciaux pour l'efficacité de la méthode. On introduit aussi un nouvel algorithme adaptatif de type Arnoldi rationnel par blocs afin de fournir une nouvelle relation de type Arnoldi. Dans la deuxième partie de ce travail, on introduit la méthode d'Arnoldi rationnelle globale, comme alternative de la méthode d'Arnoldi rationnel par blocs. On définit la projection au sens global, et on applique cette méthode pour approcher les fonctions de transfert. Dans la troisième partie, on s'intéresse à la méthode d'Arnoldi étendue (qui est un cas particulier de la méthode d'Arnoldi rationnelle) dans les deux cas (global et par blocs), on donnera quelques nouvelles propriétés algébriques qui sont appliquées aux problèmes des moments. On consièdère dans la quatrième partie la méthode de troncature balancée pour la réduction de modèle. Ce procédé consiste à résoudre deux grandes équations algébriques de Lyapunov lorsque le système est stable ou à résoudre deux équations de Riccati lorsque le système est instable. Comme ces équations sont de grandes tailles, on va appliquer la méthode de Krylov rationnel par blocs pour approcher la solution de ces équations. Le travail de cette thèse sera cloturé par une nouvelle idée, dans laquelle on définit un nouvel espace sous le nom de sous-espace de Krylov rationnelle étendue qui sera utilisée pour la réduction du modèle.
Soutenue en décembre 2016Estimation robuste de la fonction de régression pour un modèle tronqué aléatoirement à gauche à co-variables fonctionnelle (⊕ résumé)
La régression robuste est une approche statistique sur la régression qui admet un comportement insensible aux observations aberrantes (atypiques, données tronquées). Nous nous intéressons plus particulièrement dans cette thèse à l'étude de l'estimation robuste de la fonction de régression dans laquelle la variable réponse est tronquée à gauche par une autre variable aléatoire tandis que la variable explicative est fonctionnelle, c'est à dire à valeurs dans un espace de dimension infinie. Notre étude porte sur des données indépendantes identiquement distribuées (i.i.d.) ainsi que sur des données fortement mélangeantes. Nous rappelons certains résultats établis sur le comportement asymptotique de quelques estimateurs non paramétriques robustes de la fonction de régression, dans le cas où les données sont complètement observées, dans le cas de données incomplètes et dans le cas où les co-variables appartiennent à un espace de dimension finie ou infinie. Dans un premier temps, nous supposons que les variables sont i.i.d., et nous présentons des travaux sur la M-estimation de la fonction de régression dans le cas de données tronquées aléatoirement à gauche et dans la présence de co-variables fonctionnelles. Nous illustrons les résultats obtenus (consistance et normalité asymptotique) par des simulations pour montrer les performances des estimateurs proposés. Dans un premier temps, nous supposons que les variables sont i.i.d., et nous présentons des travaux sur la M-estimation de la fonction de régression dans le cas de données tronquées aléatoirement à gauche et dans la présence de co-variables fonctionnelles. Nous illustrons les résultats obtenus (consistance et normalité asymptotique) par des simulations pour montrer les performances des estimateurs proposés. Autant que l'on sache le problème de l'estimation non paramétrique robuste de la régression pour des données fonctionnelles dans la présence de données incomplètes n'a jamais été abordé, d'où l'originalité et la nouveauté de l'étude menée dans cette thèse. MC: Normalité asymptotique , données fonctionnelles, estimateur à noyau, estimateur de Lynden-Bell , estimation robuste, probabilités de petites boules, convergence presque complète, données tronquées. Mots clés: Normalité asymptotique , Données fonctionnelles, Estimateur à noyau, Estimateur de Lynden-Bell, Estimation robuste, Probabilités de petites boules, Convergence presque complète, données tronquées.
Soutenue en octobre 2016Sur les méthodes rapides de résolution de systèmes de Toeplitz bandes (⊕ résumé)
Cette thèse vise à la conception de nouveaux algorithmes rapides en calcul numérique via les matrices de Toeplitz. Tout d'abord, nous avons introduit un algorithme rapide sur le calcul de l'inverse d'une matrice triangulaire de Toeplitz en se basant sur des notions d'interpolation polynomiale. Cet algorithme nécessitant uniquement deux FFT(2n) est manifestement efficace par rapport à ses prédécésseurs. ensuite, nous avons introduit un algorithme rapide pour la résolution d'un système linéaire de Toeplitz bande. Cette approche est basée sur l'extension de la matrice donnée par plusieurs lignes en dessus, de plusieurs colonnes à droite et d'attribuer des zéros et des constantes non nulles dans chacune de ces lignes et de ces colonnes de telle façon que la matrice augmentée à la structure d'une matrice triangulaire inférieure de Toeplitz. La stabilité de l'algorithme a été discutée et son efficacité a été aussi justifiée. Finalement, nous avons abordé la résolution d'un système de Toeplitz bandes par blocs bandes de Toeplitz. Ceci étant primordial pour établir la connexion de nos algorithmes à des applications en restauration d'images, un domaine phare en mathématiques appliquées.
Soutenue en mai 2016Etude de la fonction des quantiles conditionnels pour des variables tronquées aléatoirement à gauche et à covariables fonctionnelles (⊕ résumé)
Dans cette thèse, nous étudions les propriétés asymptotiques de paramètres fonction-nelles en statistique non paramétrique pour des données incomplètes. Plus précise-ment, nous nous intéressons à la fonction quantile conditionnelle pour lesquelles nousconstruisons des estimateurs et nous étudions le comportement asymptotique dans lemodèle tronqué.Dans le premier travail, nous considérons une suite de variable aléatoire ${Y_i,i\geq 1}$ identiquement distribuée, de fonction de repartitionF, tronquée à gauche par uneautre variable ${T_i,i\geq1}$supposée aussi independante identiquement distribuée etindependante de $Y_i$, de telle sorte que l’on observe $(Y_i,T_i)$ seulement lorsque $Yi\geq T_i$,sinon rien n’est observé. Nous proposons un estimateur du quantile conditionnel etnous prouvons la convergence uniforme avec vitesse sur un sous-ensemble compact.Dans le deuxieme travail, nous établissons la normalité asymptotique de l’estimateurà noyau du quantile conditionnel. Nos résultats sont illustrés par des simulations.
Soutenue en février 2016Analyse numérique d'une approximation élément fini pour un modèle d'intrusion saline dans les aquifères côtiers (⊕ résumé)
Dans ce travail, nous étudions un schéma élément fini que nous appliquons à un modèle décrivant l'intrusion saline dans les aquifères côtiers confinés et libres. Le modèle est basé sur l'approche hydraulique qui consiste à moyenner verticalement le problème initial 3D, cette approximation repose sur une hypothèse d'écoulement quasi-hydrostatique qui, loin des épontes et des sources, est vérifiée. Pour modéliser les interfaces entre l'eau douce et l'eau salée (respectivement entre la zone saturée et la zone sèche), nous combinons l'approche 'interface nette' à l'approche avec 'interface diffuse' ; cette approche est déduite de la théorie de champ de phase, introduite par Allen-Cahn, pour décrire les phénomènes de transition entre deux zones. Compte tenu de ces approximations, le problème consiste en un système fortement couplé d'edps quasi-linéaires de type parabolique dans le cas des aquifères libres décrivant l'évolution des profondeurs des 2 surfaces libres et de type elliptique-prabolique dans le cas des aquifères confinés, les inconnues étant alors la profondeur de l'interface eau salée/eau douce et la charge hydraulique de l'eau douce. Dans la première partie de la thèse, nous donnons dans le cas d'un aquifère confiné, des résultats d'estimation d'erreur d'un schéma semi-implicite en temps combiné à une discrétisation en espace de type élément fini Pk Lagrange. Ce résultat utilise entre autre un résultat de régularité du gradient de la solution exacte dans l'espace Lr(ΩT), r > 2, ce qui permet de traiter la non-linéarité et d'établir l'estimation d'erreur sous des hypothèses de régularité raisonnables de la solution exacte. Dans la seconde partie de la thèse, nous généralisons l'étude précédente au cas de l'aquifère libre. La difficulté principale est liée à la complexité du système d'edps paraboliques mais à nouveau, grâce au résultat de régularité Lr(ΩT), r > 2 établi pour les gradients des surfaces libres, nous montrons que le schéma est d'ordre 1 en temps et k en espace pour des solutions suffisamment régulières. Nous concluons ce travail par des simulations numériques dans différents contextes (impact de la porosité et de la conductivité hydraulique sur l'évolution de l'interface, pompage et injection d'eau douce, effet des marées) validant ainsi le modèle et le schéma. Puis nous comparons les résultats à ceux obtenus avec un schéma volume fini construit à partir d'un maillage structuré.
Soutenue en décembre 2015Analyse mathématique de modèles d'intrusion marine dans les aquifères côtiers (⊕ résumé)
The theme of this thesis is the analysis of mathematical models describing saltwater intrusion in coastal aquifers. The simplicity of sharp interface approach is chosen : there is no mass transfer between fresh water and salt water (respectively between the saturated zone and the area dry). We compensate the mathematical difficulty of the analysis of free interfaces by a vertical averaging process allowing us to reduce the 3D problem to system of pde's defined on a 2D domain $\Omega$. A second model is obtained by combining the approach of 'sharp interface' in that with 'diffuse interface' ; this approach is derived from the theory introduced by Allen-Cahn, using phase functions to describe the phenomena of transition between fresh water and salt water (respectively the saturated and unsaturated areas). The 3D problem is then reduced to a strongly coupled system of quasi-linear parabolic equations in the unconfined case describing the evolution of the DEPTHS of two free surfaces and elliptical-parabolic equations in the case of confined aquifer, the unknowns being the depth of salt water/fresh water interface and the fresh water hydraulic head. In the first part of the thesis, the results of global in time existence are demonstrated showing that the sharp-diffuse interface approach is more relevant since it allows to establish a mor physical maximum principle (more precisely a hierarchy between the two free surfaces). In contrast, in the case of confined aquifer, we show that both approach leads to similar results. In the second part of the thesis, we prove the uniqueness of the solution in the non-degenerate case. The proof is based on a regularity result of the gradient of the solution in the space $\text{Lr}(\Omega\Gamma)$, $r > 2$, $(\Omega\,T = (0,T) \times \Omega)$. Then we are interest in a problem of identification of hydraulic conductivities in the unsteady case. This problem is formulated by an optimization problem whose cost function measures the squared difference between experimental hydraulic heads and those given by the model.
Soutenue en octobre 2015Nombres de Schur classiques et faibles (⊕ résumé)
Le thème central de cette thèse porte sur des partitions en $n$ parties de l’intervalle entier $[1, N] ={1,2,\ldots , N}$ excluant la présence, dans chaque partie, de solutions de l’équation $x+y=z$ dans le cas classique, ou seulement de telles solutions avec $x\not=y$ dans le cas faible. Pour $n$ donné, le plus grand $N$ admissible dans le cas classique se note $S(n)$ et s’appelle le $n$-ème nombre de Schur; dans le cas faible, ilse note $WS(n)$ et s’appelle le $n$-ème nombre de Schur faible. Bien qu’introduits il y a plusieurs décennies déjà, et même il y a un siècle dans le cas classique, on ne sait encore que très peu de choses au sujet de ces nombres. En particulier, $S(n)$ et $WS(n)$ ne sont exactement connus que pour $n\leq4$. Cette thèse est composée de deux chapitres : le premier revisite des encadrements connus sur les nombres de Schur classiques et faibles, et le second est consacré à la construction de nouveaux minorants des nombres de Schur faibles $WS(n)$ pour $n= 7,8$ et $9$. Nous introduisons, dans le premier chapitre, les ensembles $t$-libres de sommes, $t\in\mathbb{N}$, dont l’utilisation permet de généraliser et d’unifier diverses démonstrations de majorants des $S(n)$ et $WS(n)$. Nous obtenons également une relation entre $WS(n+1)$ et $WS(n)$. Dans le deuxième chapitre, nous initions l’étude de certaines partitions hautement structurées présentant un potentiel intéressant pour le problème de minorer lesnombres $WS(n)$. Effectivement, avec des algorithmes de recherche ne portant que sur ces partitions, nous retrouvons les meilleurs minorants connus sur $WS(n)$ pour $1\leq n\leq 6$, et nous améliorons significativement ceux pour $7\leq n \leq 9$.
Soutenue en juillet 2015Méthodes itératives pour la résolution d'équations matricielles (⊕ résumé)
Nous nous intéressons dans cette thèse, à l’étude des méthodes itératives pour la résolutiond’équations matricielles de grande taille : Lyapunov, Sylvester, Riccati et Riccatinon symétrique.L’objectif est de chercher des méthodes itératives plus efficaces et plus rapides pour résoudreles équations matricielles de grande taille. Nous proposons des méthodes itérativesde type projection sur des sous espaces de Krylov par blocs Km(A, V ) = Image{V,AV, . . . ,Am−1V }, ou des sous espaces de Krylov étendus par blocs Kem(A, V ) = Image{V,A−1V,AV,A−2V,A2V, · · · ,Am−1V,A−m+1V } . Ces méthodes sont généralement plus efficaces et rapides pour les problèmes de grande dimension. Nous avons traité d'abord la résolution numérique des équations matricielles linéaires : Lyapunov, Sylvester, Stein. Nous avons proposé une nouvelle méthode itérative basée sur la minimisation de résidu MR et la projection sur des sous espaces de Krylov étendus par blocs Kem(A, V ). L'algorithme d'Arnoldi étendu par blocs permet de donner un problème de minimisation projeté de petite taille. Le problème de minimisation de taille réduit est résolu par différentes méthodes directes ou itératives. Nous avons présenté ainsi la méthode de minimisation de résidu basée sur l'approche global à la place de l'approche bloc. Nous projetons sur des sous espaces de Krylov étendus Global Kem(A, V ) = sev{V,A−1V,AV,A−2V,A2V, · · · ,Am−1V,A−m+1V }. Nous nous sommes intéressés en deuxième lieu à des équations matricielles non linéaires, et tout particulièrement l'équation matricielle de Riccati dans le cas continu et dans le cas non symétrique appliquée dans les problèmes de transport. Nous avons utilisé la méthode de Newtown et l'algorithme MINRES pour résoudre le problème de minimisation projeté. Enfin, nous avons proposé deux nouvelles méthodes itératives pour résoudre les équations de Riccati non symétriques de grande taille : la première basée sur l'algorithme d'Arnoldi étendu par bloc et la condition d'orthogonalité de Galerkin, la deuxième est de type Newton-Krylov, basée sur la méthode de Newton et la résolution d'une équation de Sylvester de grande taille par une méthode de type Krylov par blocs. Pour toutes ces méthodes, les approximations sont données sous la forme factorisée, ce qui nous permet d'économiser la place mémoire en programmation. Nous avons donné des exemples numériques qui montrent bien l'efficacité des méthodes proposées dans le cas de grandes tailles.
Soutenue en mai 2015KdV-burgers equation with indefinite damping and numerical analysis of a 2D wave equation with nonlinear dissipation,
Soutenue en mars 2014