Show item record

dc.contributor.advisorBédard, Mylène
dc.contributor.advisorDesgagné, Alain
dc.contributor.authorGagnon, Philippe
dc.date.accessioned2018-06-13T13:35:21Z
dc.date.availableNO_RESTRICTIONfr
dc.date.available2018-06-13T13:35:21Z
dc.date.issued2018-03-21
dc.date.submitted2017-10
dc.identifier.urihttp://hdl.handle.net/1866/20583
dc.subjectalgorithme Metropolis de type marche aléatoirefr
dc.subjectanalyse en composantes principalesfr
dc.subjectdistributions à ailes extrêmement relevéesfr
dc.subjectinférence bayésiennefr
dc.subjectméthodes de Monte Carlo par chaînes de Markovfr
dc.subjectrobustessefr
dc.subjectvaleurs aberrantesfr
dc.subjectBayesian inferencefr
dc.subjectMarkov chain Monte Carlo methodsfr
dc.subjectOutliersfr
dc.subjectPrincipal component analysisfr
dc.subjectRandom walk Metropolis algorithmfr
dc.subjectRobustnessfr
dc.subjectSuper heavy-tailed distributionsfr
dc.subject.otherMathematics / Mathématiques (UMI : 0405)fr
dc.titleSélection de modèles robuste : régression linéaire et algorithme à sauts réversiblesfr
dc.typeThèse ou mémoire / Thesis or Dissertation
etd.degree.disciplineStatistiquefr
etd.degree.grantorUniversité de Montréalfr
etd.degree.levelDoctorat / Doctoralfr
etd.degree.namePh. D.fr
dcterms.abstractDans cette thèse, deux aspects incontournables de l’analyse statistique sont traités, soient la sélection de modèles et l’estimation des paramètres. Ceci est effectué dans un contexte bayésien par l’intermédiaire de trois articles. Dans le premier, ces aspects sont traités d’un point de vue computationnel. L’algorithme à sauts réversibles, une méthode Monte Carlo par chaînes de Markov permettant simultanément la sélection de modèles et l’estimation des paramètres, est analysé dans l’objectif d’indiquer à l’utilisateur la façon optimale de l’implémenter. Un algorithme implémenté optimalement correspond à un algorithme engendrant des chaînes de Markov qui explorent leur espace d’états de façon optimale. L’objectif est atteint par l’intermédiaire de l’optimisation d’un processus stochastique correspondant à la limite (en distribution) de la suite des processus stochastiques engendrés par cet algorithme. Dans le deuxième article, une stratégie menant à l’estimation robuste des paramètres d’un modèle de régression linéaire en présence de valeurs aberrantes est présentée. La stratégie consiste à poser des hypothèses plus adaptées à cette éventualité de présence de valeurs aberrantes, comparativement au modèle traditionnel basé sur l’hypothèse de normalité des erreurs. Il s’agit de remplacer cette hypothèse de normalité par une hypothèse de distribution à ailes extrêmement relevées. La robustesse, se traduisant par la convergence de la distribution a posteriori des paramètres (basée sur l’échantillon entier) vers celle excluant les valeurs aberrantes, est garantie lorsque le nombre de valeurs aberrantes ne dépasse pas un certain seuil. Finalement, les résultats présentés dans les deux premiers articles sont combinés afin d’introduire une approche bayésienne de régression robuste sur composantes principales faisant intervenir la sélection de modèles dans le processus de prédiction. Ces caractéristiques de robustesse et d’incorporation de la sélection de modèles dans l’analyse contribuent à l’amélioration de la précision des prédictions produites.fr
dcterms.abstractModel selection and parameter estimation are two main aspects of statistical analysis. This thesis discusses these aspects from a Bayesian point of view via three papers. The first one deals with a computational procedure, named the reversible jump algorithm, that allows to simultaneously select models and estimate parameters. This sampler being difficult to tune in practice, we aim at providing guidelines to users for an optimal implementation. An optimally tuned sampler corresponds to a sampler that generates Markov chains that optimally explore their state space. Our goal is achieved through the optimisation of a stochastic process that corresponds to the limit (in distribution) of the sequence of stochastic processes engendered by the algorithm. In the second paper, a strategy leading to robust estimation of the parameters of a linear regression model in presence of outliers is presented. The strategy is to make assumptions that are more adapted to the eventual presence of outliers, compared with the traditional model assuming normality of errors. This normality assumption is indeed replaced by a super heavy-tailed distribution assumption. Robustness, which is represented by the convergence of the posterior distribution of the parameters (based on the whole sample) towards that arising from the nonoutliers only, is guaranteed when the number of outliers does not exceed a given threshold. Finally, the results presented in the first two papers are combined to introduce a Bayesian robust principal component regression approach that involves model selection in the prediction process. The characteristics of this approach contribute to increase the accuracy of the predictions produced.fr
dcterms.descriptionCette thèse est rédigée par articles. Les articles sont rédigés en anglais et le reste de la thèse est rédigée en français.fr
dcterms.languagefrafr


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show item record

This document disseminated on Papyrus is the exclusive property of the copyright holders and is protected by the Copyright Act (R.S.C. 1985, c. C-42). It may be used for fair dealing and non-commercial purposes, for private study or research, criticism and review as provided by law. For any other use, written authorization from the copyright holders is required.