Afficher la notice

dc.contributor.advisorBengio, Yoshua
dc.contributor.authorSankar, Chinnadhurai
dc.date.accessioned2021-02-11T19:55:46Z
dc.date.availableNO_RESTRICTIONfr
dc.date.available2021-02-11T19:55:46Z
dc.date.issued2020-12-16
dc.date.submitted2020-08
dc.identifier.urihttp://hdl.handle.net/1866/24802
dc.subjecttask-oriented dialog systemsfr
dc.subjectdialog-actsfr
dc.subjectmultiwozfr
dc.subjectlocality sensitive hashingfr
dc.subjectself-attentionfr
dc.subjectrecurrent networksfr
dc.subjectneural networksfr
dc.subjectdeep learningfr
dc.subjectnatural language processingfr
dc.subjectreinforcement learningfr
dc.subjectmachine learningfr
dc.subjectSystèmes de dialogue axés sur les tâchesfr
dc.subjectActes de dialoguefr
dc.subjectHachage sensible àla localitéfr
dc.subjectAuto-attentionfr
dc.subjectInférence en langage naturelfr
dc.subjectAnalyse dessentimentsfr
dc.subjectGraphique de calcul dynamiquefr
dc.subjectRéseaux récurrentsfr
dc.subjectRéseaux récursifsfr
dc.subjectRéseaux de neuronesfr
dc.subjectApprentissage profondfr
dc.subjectNaturel traitement du langagefr
dc.subjectApprentissage par renforcementfr
dc.subjectApprentissage automatiquefr
dc.subjectDynamic computational graphfr
dc.subjectRecursive networksfr
dc.subjectWizard-of-ozfr
dc.subjectNatural language inferencefr
dc.subjectSentiment analysisfr
dc.subject.otherCommunications and the Arts - Information Science / Communications et les arts - Sciences de l’information (UMI : 0723)fr
dc.titleNeural approaches to dialog modelingfr
dc.typeThèse ou mémoire / Thesis or Dissertation
etd.degree.disciplineInformatiquefr
etd.degree.grantorUniversité de Montréalfr
etd.degree.levelDoctorat / Doctoralfr
etd.degree.namePh. D.fr
dcterms.abstractCette thèse par article se compose de quatre articles qui contribuent au domaine de l’apprentissage profond, en particulier dans la compréhension et l’apprentissage des ap- proches neuronales des systèmes de dialogue. Le premier article fait un pas vers la compréhension si les architectures de dialogue neuronal couramment utilisées capturent efficacement les informations présentes dans l’historique des conversations. Grâce à une série d’expériences de perturbation sur des ensembles de données de dialogue populaires, nous constatons que les architectures de dialogue neuronal couramment utilisées comme les modèles seq2seq récurrents et basés sur des transformateurs sont rarement sensibles à la plupart des perturbations du contexte d’entrée telles que les énoncés manquants ou réorganisés, les mots mélangés, etc. Le deuxième article propose d’améliorer la qualité de génération de réponse dans les systèmes de dialogue de domaine ouvert en modélisant conjointement les énoncés avec les attributs de dialogue de chaque énoncé. Les attributs de dialogue d’un énoncé se réfèrent à des caractéristiques ou des aspects discrets associés à un énoncé comme les actes de dialogue, le sentiment, l’émotion, l’identité du locuteur, la personnalité du locuteur, etc. Le troisième article présente un moyen simple et économique de collecter des ensembles de données à grande échelle pour modéliser des systèmes de dialogue orientés tâche. Cette approche évite l’exigence d’un schéma d’annotation d’arguments complexes. La version initiale de l’ensemble de données comprend 13 215 dialogues basés sur des tâches comprenant six domaines et environ 8 000 entités nommées uniques, presque 8 fois plus que l’ensemble de données MultiWOZ populaire.fr
dcterms.abstractThis thesis by article consists of four articles which contribute to the field of deep learning, specifically in understanding and learning neural approaches to dialog systems. The first article takes a step towards understanding if commonly used neural dialog architectures effectively capture the information present in the conversation history. Through a series of perturbation experiments on popular dialog datasets, wefindthatcommonly used neural dialog architectures like recurrent and transformer-based seq2seq models are rarely sensitive to most input context perturbations such as missing or reordering utterances, shuffling words, etc. The second article introduces a simple and cost-effective way to collect large scale datasets for modeling task-oriented dialog systems. This approach avoids the requirement of a com-plex argument annotation schema. The initial release of the dataset includes 13,215 task-based dialogs comprising six domains and around 8k unique named entities, almost 8 times more than the popular MultiWOZ dataset. The third article proposes to improve response generation quality in open domain dialog systems by jointly modeling the utterances with the dialog attributes of each utterance. Dialog attributes of an utterance refer to discrete features or aspects associated with an utterance like dialog-acts, sentiment, emotion, speaker identity, speaker personality, etc. The final article introduces an embedding-free method to compute word representations on-the-fly. This approach significantly reduces the memory footprint which facilitates de-ployment in on-device (memory constraints) devices. Apart from being independent of the vocabulary size, we find this approach to be inherently resilient to common misspellings.fr
dcterms.languageengfr


Fichier·s constituant ce document

Vignette

Ce document figure dans la ou les collections suivantes

Afficher la notice

Ce document diffusé sur Papyrus est la propriété exclusive des titulaires des droits d'auteur et est protégé par la Loi sur le droit d'auteur (L.R.C. (1985), ch. C-42). Il peut être utilisé dans le cadre d'une utilisation équitable et non commerciale, à des fins d'étude privée ou de recherche, de critique ou de compte-rendu comme le prévoit la Loi. Pour toute autre utilisation, une autorisation écrite des titulaires des droits d'auteur sera nécessaire.