Show item record

dc.contributor.advisorBédard, Mylène
dc.contributor.authorLalancette, Michaël
dc.date.accessioned2017-10-23T16:01:42Z
dc.date.availableNO_RESTRICTIONfr
dc.date.available2017-10-23T16:01:42Z
dc.date.issued2017-09-27
dc.date.submitted2017-07
dc.identifier.urihttp://hdl.handle.net/1866/19376
dc.subjectMCMCfr
dc.subjectAlgorithme Metropolis de type marche aléatoirefr
dc.subjectDistribution bimodalefr
dc.subjectConvergence faiblefr
dc.subjectÉchelonnage optimalfr
dc.subjectRandom walk Metropolis algorithmfr
dc.subjectBimodal distributionfr
dc.subjectWeak convergencefr
dc.subjectOptimal scalingfr
dc.subject.otherPhysical Sciences - Statistics / Sciences physiques - Statistiques (UMI : 0463)fr
dc.titleConvergence d’un algorithme de type Metropolis pour une distribution cible bimodalefr
dc.typeThèse ou mémoire / Thesis or Dissertation
etd.degree.disciplineStatistiquefr
etd.degree.grantorUniversité de Montréal (Faculté des arts et des sciences)fr
etd.degree.levelMaîtrise / Master'sfr
etd.degree.nameM. Sc.fr
dcterms.abstractNous présentons dans ce mémoire un nouvel algorithme de type Metropolis-Hastings dans lequel la distribution instrumentale a été conçue pour l'estimation de distributions cibles bimodales. En fait, cet algorithme peut être vu comme une modification de l'algorithme Metropolis de type marche aléatoire habituel auquel on ajoute quelques incréments de grande envergure à des moments aléatoires à travers la simulation. Le but de ces grands incréments est de quitter le mode de la distribution cible où l'on se trouve et de trouver l'autre mode. Par la suite, nous présentons puis démontrons un résultat de convergence faible qui nous assure que, lorsque la dimension de la distribution cible croît vers l'infini, la chaîne de Markov engendrée par l'algorithme converge vers un certain processus stochastique qui est continu presque partout. L'idée est similaire à ce qui a été fait par Roberts et al. (1997), mais la technique utilisée pour la démonstration des résultats est basée sur ce qui a été fait par Bédard (2006). Nous proposons enfin une stratégie pour trouver la paramétrisation optimale de notre nouvel algorithme afin de maximiser la vitesse d'exploration locale des modes d'une distribution cible donnée tout en estimant bien la pondération relative de chaque mode. Tel que dans l'approche traditionnellement utilisée pour ce genre d'analyse, notre stratégie passe par l'optimisation de la vitesse d'exploration du processus limite. Finalement, nous présentons des exemples numériques d'implémentation de l'algorithme sur certaines distributions cibles, dont une ne respecte pas les conditions du résultat théorique présenté.fr
dcterms.abstractIn this thesis, we present a new Metropolis-Hastings algorithm whose proposal distribution has been designed to successfully estimate bimodal target distributions. This sampler may be seen as a variant of the usual random walk Metropolis sampler in which we propose large candidate steps at random times. The goal of these large candidate steps is to leave the actual mode of the target distribution in order to find the second one. We then state and prove a weak convergence result stipulating that if we let the dimension of the target distribution increase to infinity, the Markov chain yielded by the algorithm converges to a certain stochastic process that is almost everywhere continuous. The theoretical result is in the flavour of Roberts et al. (1997), while the method of proof is similar to that found in Bédard (2006). We propose a strategy for optimally parameterizing our new sampler. This strategy aims at optimizing local exploration of the target modes, while correctly estimating the relative weight of each mode. As is traditionally done in the statistical literature, our approach consists of optimizing the limiting process rather than the finite-dimensional Markov chain. Finally, we illustrate our method via numerical examples on some target distributions, one of which violates the regularity conditions of the theoretical result.fr
dcterms.languagefrafr


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show item record