Afficher la notice

dc.contributor.advisorPal, Christopher
dc.contributor.authorXu, Ge Ya
dc.date.accessioned2020-07-10T15:08:04Z
dc.date.availableNO_RESTRICTIONfr
dc.date.available2020-07-10T15:08:04Z
dc.date.issued2020-03-25
dc.date.submitted2019-12
dc.identifier.urihttp://hdl.handle.net/1866/23792
dc.subjectAuxiliary Learningfr
dc.subjectDeep Learningfr
dc.subjectSequence Learningfr
dc.subjectSemi-supervised Learningfr
dc.subjectMachine Learningfr
dc.subjectApprentissage automatiquefr
dc.subjectApprentissage semi-superviséfr
dc.subjectFormation auxiliairefr
dc.subject.otherCommunications and the Arts - Information Science / Communications et les arts - Sciences de l’information (UMI : 0723)fr
dc.titleBalancing signals for semi-supervised sequence learningfr
dc.typeThèse ou mémoire / Thesis or Dissertation
etd.degree.disciplineInformatiquefr
etd.degree.grantorUniversité de Montréalfr
etd.degree.levelMaîtrise / Master'sfr
etd.degree.nameM. Sc.fr
dcterms.abstractRecurrent Neural Networks(RNNs) are powerful models that have obtained outstanding achievements in many sequence learning tasks. Despite their accomplishments, RNN models still suffer with long sequences during training. It is because error propagate backwards from output to input layers carrying gradient signals, and with long input sequence, issues like vanishing and exploding gradients can arise. This thesis reviews many current studies and existing architectures designed to circumvent the long-term dependency problems in backpropagation through time (BPTT). Mainly, we focus on the method proposed by Trinh et al. (2018) which uses semi- supervised learning method to alleviate the long-term dependency problems in BPTT. Despite the good results Trinh et al. (2018)’s model achieved, we suggest that the model can be further improved with a more systematic way of balancing auxiliary signals. In this thesis, we present our paper – RNNs with Private and Shared Representations for Semi-Supervised Learning – which is currently under review for AAAI-2019. We propose a semi-supervised RNN architecture with explicitly designed private and shared representations that regulates the gradient flow from auxiliary task to main task.fr
dcterms.abstractLes réseaux neuronaux récurrents (RNN) sont des modèles puissants qui ont obtenu des réalisations exceptionnelles dans de nombreuses tâches d’apprentissage séquentiel. Malgré leurs réalisations, les modèles RNN sou˙rent encore de longues séquences pendant l’entraî-nement. C’est parce que l’erreur se propage en arrière de la sortie vers les couches d’entrée transportant des signaux de gradient, et avec une longue séquence d’entrée, des problèmes comme la disparition et l’explosion des gradients peuvent survenir. Cette thèse passe en revue de nombreuses études actuelles et architectures existantes conçues pour contour-ner les problèmes de dépendance à long terme de la rétropropagation dans le temps (BPTT). Nous nous concentrons principalement sur la méthode proposée par cite Trinh2018 qui utilise une méthode d’apprentissage semi-supervisée pour atténuer les problèmes de dépendance à long terme dans BPTT. Malgré les bons résultats obtenus avec le modèle de cite Trinh2018, nous suggérons que le modèle peut être encore amélioré avec une manière plus systématique d’équilibrer les signaux auxiliaires. Dans cette thèse, nous présentons notre article - emph RNNs with Private and Shared Representations for Semi-Supervised Learning - qui est actuellement en cours de révision pour AAAI-2019. Nous propo-sons une architecture RNN semi-supervisée avec des représentations privées et partagées explicitement conçues qui régule le flux de gradient de la tâche auxiliaire à la tâche principale.fr
dcterms.languageengfr
dcterms.relationhttp://yann.lecun.com/exdb/mnist/fr
dcterms.relationhttps://www.cs.toronto.edu/~kriz/cifar.htmlfr
dcterms.relationhttps://github.com/zalandoresearch/fashion-mnistfr
dcterms.relationhttps://www.kaggle.com/lakshmi25npathi/imdb-dataset-of-50k-movie-reviewsfr
dcterms.relationhttps://wiki.dbpedia.org/data-set-37fr


Fichier·s constituant ce document

Vignette

Ce document figure dans la ou les collections suivantes

Afficher la notice

Ce document diffusé sur Papyrus est la propriété exclusive des titulaires des droits d'auteur et est protégé par la Loi sur le droit d'auteur (L.R.C. (1985), ch. C-42). Il peut être utilisé dans le cadre d'une utilisation équitable et non commerciale, à des fins d'étude privée ou de recherche, de critique ou de compte-rendu comme le prévoit la Loi. Pour toute autre utilisation, une autorisation écrite des titulaires des droits d'auteur sera nécessaire.