Show item record

dc.contributor.advisorBengio, Yoshua
dc.contributor.authorSankar, Chinnadhurai
dc.date.accessioned2021-02-11T19:55:46Z
dc.date.availableNO_RESTRICTIONfr
dc.date.available2021-02-11T19:55:46Z
dc.date.issued2020-12-16
dc.date.submitted2020-08
dc.identifier.urihttp://hdl.handle.net/1866/24802
dc.subjecttask-oriented dialog systemsfr
dc.subjectdialog-actsfr
dc.subjectmultiwozfr
dc.subjectlocality sensitive hashingfr
dc.subjectself-attentionfr
dc.subjectrecurrent networksfr
dc.subjectneural networksfr
dc.subjectdeep learningfr
dc.subjectnatural language processingfr
dc.subjectreinforcement learningfr
dc.subjectmachine learningfr
dc.subjectSystèmes de dialogue axés sur les tâchesfr
dc.subjectActes de dialoguefr
dc.subjectHachage sensible àla localitéfr
dc.subjectAuto-attentionfr
dc.subjectInférence en langage naturelfr
dc.subjectAnalyse dessentimentsfr
dc.subjectGraphique de calcul dynamiquefr
dc.subjectRéseaux récurrentsfr
dc.subjectRéseaux récursifsfr
dc.subjectRéseaux de neuronesfr
dc.subjectApprentissage profondfr
dc.subjectNaturel traitement du langagefr
dc.subjectApprentissage par renforcementfr
dc.subjectApprentissage automatiquefr
dc.subjectDynamic computational graphfr
dc.subjectRecursive networksfr
dc.subjectWizard-of-ozfr
dc.subjectNatural language inferencefr
dc.subjectSentiment analysisfr
dc.subject.otherCommunications and the Arts - Information Science / Communications et les arts - Sciences de l’information (UMI : 0723)fr
dc.titleNeural approaches to dialog modelingfr
dc.typeThèse ou mémoire / Thesis or Dissertation
etd.degree.disciplineInformatiquefr
etd.degree.grantorUniversité de Montréalfr
etd.degree.levelDoctorat / Doctoralfr
etd.degree.namePh. D.fr
dcterms.abstractCette thèse par article se compose de quatre articles qui contribuent au domaine de l’apprentissage profond, en particulier dans la compréhension et l’apprentissage des ap- proches neuronales des systèmes de dialogue. Le premier article fait un pas vers la compréhension si les architectures de dialogue neuronal couramment utilisées capturent efficacement les informations présentes dans l’historique des conversations. Grâce à une série d’expériences de perturbation sur des ensembles de données de dialogue populaires, nous constatons que les architectures de dialogue neuronal couramment utilisées comme les modèles seq2seq récurrents et basés sur des transformateurs sont rarement sensibles à la plupart des perturbations du contexte d’entrée telles que les énoncés manquants ou réorganisés, les mots mélangés, etc. Le deuxième article propose d’améliorer la qualité de génération de réponse dans les systèmes de dialogue de domaine ouvert en modélisant conjointement les énoncés avec les attributs de dialogue de chaque énoncé. Les attributs de dialogue d’un énoncé se réfèrent à des caractéristiques ou des aspects discrets associés à un énoncé comme les actes de dialogue, le sentiment, l’émotion, l’identité du locuteur, la personnalité du locuteur, etc. Le troisième article présente un moyen simple et économique de collecter des ensembles de données à grande échelle pour modéliser des systèmes de dialogue orientés tâche. Cette approche évite l’exigence d’un schéma d’annotation d’arguments complexes. La version initiale de l’ensemble de données comprend 13 215 dialogues basés sur des tâches comprenant six domaines et environ 8 000 entités nommées uniques, presque 8 fois plus que l’ensemble de données MultiWOZ populaire.fr
dcterms.abstractThis thesis by article consists of four articles which contribute to the field of deep learning, specifically in understanding and learning neural approaches to dialog systems. The first article takes a step towards understanding if commonly used neural dialog architectures effectively capture the information present in the conversation history. Through a series of perturbation experiments on popular dialog datasets, wefindthatcommonly used neural dialog architectures like recurrent and transformer-based seq2seq models are rarely sensitive to most input context perturbations such as missing or reordering utterances, shuffling words, etc. The second article introduces a simple and cost-effective way to collect large scale datasets for modeling task-oriented dialog systems. This approach avoids the requirement of a com-plex argument annotation schema. The initial release of the dataset includes 13,215 task-based dialogs comprising six domains and around 8k unique named entities, almost 8 times more than the popular MultiWOZ dataset. The third article proposes to improve response generation quality in open domain dialog systems by jointly modeling the utterances with the dialog attributes of each utterance. Dialog attributes of an utterance refer to discrete features or aspects associated with an utterance like dialog-acts, sentiment, emotion, speaker identity, speaker personality, etc. The final article introduces an embedding-free method to compute word representations on-the-fly. This approach significantly reduces the memory footprint which facilitates de-ployment in on-device (memory constraints) devices. Apart from being independent of the vocabulary size, we find this approach to be inherently resilient to common misspellings.fr
dcterms.languageengfr


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show item record

This document disseminated on Papyrus is the exclusive property of the copyright holders and is protected by the Copyright Act (R.S.C. 1985, c. C-42). It may be used for fair dealing and non-commercial purposes, for private study or research, criticism and review as provided by law. For any other use, written authorization from the copyright holders is required.