Show item record

dc.contributor.advisorCourville, Aaron
dc.contributor.authorZumer, Jeremie
dc.date.accessioned2017-05-26T14:44:05Z
dc.date.availableNO_RESTRICTIONfr
dc.date.available2017-05-26T14:44:05Z
dc.date.issued2017-03-28
dc.date.submitted2016-08
dc.identifier.urihttp://hdl.handle.net/1866/18767
dc.subjectApprentissage automatiquefr
dc.subjectApprentissage profondfr
dc.subjectVision par ordinateurfr
dc.subjectNon-supervisefr
dc.subjectAutoencodeurfr
dc.subjectRéseau de neuronefr
dc.subjectMachine learningfr
dc.subjectDeep learningfr
dc.subjectComputer visionfr
dc.subjectUnsupervisedfr
dc.subjectAutoencoderfr
dc.subjectNeural networkfr
dc.subject.otherApplied Sciences - Artificial Intelligence / Sciences appliqués et technologie - Intelligence artificielle (UMI : 0800)fr
dc.titleInfluencing the Properties of Latent Spacesfr
dc.typeThèse ou mémoire / Thesis or Dissertation
etd.degree.disciplineInformatiquefr
etd.degree.grantorUniversité de Montréalfr
etd.degree.levelMaîtrise / Master'sfr
etd.degree.nameM. Sc.fr
dcterms.abstractL'apprentissage automatique repose sur l'étude des méthodes de détermination de paramètres de modélisation de données a n d'accomplir une tâche, telle que la classification d'image ou la génération de phrases, pour un jeu de données. Ces paramètres forment des espaces latents qui peuvent démontrer diverses propriétés impactant la performance du modèle d'apprentissage sur la tâche visée. Permettre a un modèle d'adapter son espace latent avec plus de liberté peut amener à l'amélioration de la performance de ce modèle. Un indicateur valide de la qualité de l'espace latent engendre par un modèle est la collection des propriétés exprimées par cet espace latent, par exemple en ce qui a trait aux aspects topologiques de la représentation apprise par le modèle. Nous montrons des résultats appliqués dans des régimes supervisés et non supervisés, et nous augmentons des modèles par plusieurs modes d'interactions inter-couches, comme des connections entre les couches d'un codeur au décodeur analogue dans un modèle auto encodeur, l'application de transformations a nes à la suite de couches, et l'addition de réseaux de neurones auxiliaires connectés en parallèle. L'e et des méthodes proposés est évalué en mesurant soit la performance de classification ou la qualité des échantillons génères par ces modèles, ainsi qu'en comparant les courbes d'entrainement des algorithmes. Les modèles et méthodes sont évalués sur des jeux de données d'images populaires, comme MNIST et CIFAR10, et sont comparés aux méthodes à l' état de l'art pour les tâches accomplies. Nous développons un modèle qui utilise la puissance générative des auto encodeurs variationnels, enrichi par des connections latérales dans le style des réseaux escaliers pour application en classification. Nous proposons une méthode qui permet d'isoler les tâches réalisées par les couches convolutionnelles (soit l'apprentissage de ltres pour l'extraction de traits et l'agencement topologique nécessaire pour l'apprentissage par les couches subséquentes) en utilisant des couches complètement connectées intercalées avec les couches convolutionnelles. En n, nous appliquons la technique de normalisation par groupe aux couches du réseau récurrent à l' état de l'art (pixel-rnn) et nous démontrons que cela permet une augmentation prononcée du taux de convergence du modèle, ainsi qu'une amélioration notable de sa performance totale.fr
dcterms.abstractMachine learning models rely on learned parameters adapted to a given set of data to perform a task, such as classifying images or generating sentences. These learned parameters form latent spaces which can adapt various properties, to impact how well the model performs. Enabling a model to better fit properties of the data in its latent space can improve the performance of the model. One criteria for quality is the set of properties expressed by the latent space - that is, for example, topological properties of the learned representation. We develop a model which leverages a variational autoencoder’s generative ability and augments it with the ladder network’s lateral connections for discrimination. We propose a method to decouple two tasks perfomed by convolutional layers (that of learning useful filters for feature extraction, and that of arranging the learned filters such that the next layer may train eff ectively) by using interspersed fully-connected layers. Finally, we apply batch normalization to the recurrent state of the pixel-rnn layer and show that it significantly improves convergence speed as well as slightly improving overall performance. We show results applied in unsupervised and supervised settings, and augment models with various inter-layer interractions, such as encoder-to-decoder connections, affine post-layer transformations, and side-network connections. The effects of the proposed methods are assessed by measuring supervised performance or the quality of samples produced by the model and training curves. Models and methods are tested on popular image datasets such as MNIST and CIFAR10 and are compared to the state-of-the-art on the task they are applied to.fr
dcterms.languageengfr


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show item record

This document disseminated on Papyrus is the exclusive property of the copyright holders and is protected by the Copyright Act (R.S.C. 1985, c. C-42). It may be used for fair dealing and non-commercial purposes, for private study or research, criticism and review as provided by law. For any other use, written authorization from the copyright holders is required.