Neural approaches to dialog modeling
dc.contributor.advisor | Bengio, Yoshua | |
dc.contributor.author | Sankar, Chinnadhurai | |
dc.date.accessioned | 2021-02-11T19:55:46Z | |
dc.date.available | NO_RESTRICTION | fr |
dc.date.available | 2021-02-11T19:55:46Z | |
dc.date.issued | 2020-12-16 | |
dc.date.submitted | 2020-08 | |
dc.identifier.uri | http://hdl.handle.net/1866/24802 | |
dc.subject | task-oriented dialog systems | fr |
dc.subject | dialog-acts | fr |
dc.subject | multiwoz | fr |
dc.subject | locality sensitive hashing | fr |
dc.subject | self-attention | fr |
dc.subject | recurrent networks | fr |
dc.subject | neural networks | fr |
dc.subject | deep learning | fr |
dc.subject | natural language processing | fr |
dc.subject | reinforcement learning | fr |
dc.subject | machine learning | fr |
dc.subject | Systèmes de dialogue axés sur les tâches | fr |
dc.subject | Actes de dialogue | fr |
dc.subject | Hachage sensible àla localité | fr |
dc.subject | Auto-attention | fr |
dc.subject | Inférence en langage naturel | fr |
dc.subject | Analyse dessentiments | fr |
dc.subject | Graphique de calcul dynamique | fr |
dc.subject | Réseaux récurrents | fr |
dc.subject | Réseaux récursifs | fr |
dc.subject | Réseaux de neurones | fr |
dc.subject | Apprentissage profond | fr |
dc.subject | Naturel traitement du langage | fr |
dc.subject | Apprentissage par renforcement | fr |
dc.subject | Apprentissage automatique | fr |
dc.subject | Dynamic computational graph | fr |
dc.subject | Recursive networks | fr |
dc.subject | Wizard-of-oz | fr |
dc.subject | Natural language inference | fr |
dc.subject | Sentiment analysis | fr |
dc.subject.other | Communications and the Arts - Information Science / Communications et les arts - Sciences de l’information (UMI : 0723) | fr |
dc.title | Neural approaches to dialog modeling | fr |
dc.type | Thèse ou mémoire / Thesis or Dissertation | |
etd.degree.discipline | Informatique | fr |
etd.degree.grantor | Université de Montréal | fr |
etd.degree.level | Doctorat / Doctoral | fr |
etd.degree.name | Ph. D. | fr |
dcterms.abstract | Cette thèse par article se compose de quatre articles qui contribuent au domaine de l’apprentissage profond, en particulier dans la compréhension et l’apprentissage des ap- proches neuronales des systèmes de dialogue. Le premier article fait un pas vers la compréhension si les architectures de dialogue neuronal couramment utilisées capturent efficacement les informations présentes dans l’historique des conversations. Grâce à une série d’expériences de perturbation sur des ensembles de données de dialogue populaires, nous constatons que les architectures de dialogue neuronal couramment utilisées comme les modèles seq2seq récurrents et basés sur des transformateurs sont rarement sensibles à la plupart des perturbations du contexte d’entrée telles que les énoncés manquants ou réorganisés, les mots mélangés, etc. Le deuxième article propose d’améliorer la qualité de génération de réponse dans les systèmes de dialogue de domaine ouvert en modélisant conjointement les énoncés avec les attributs de dialogue de chaque énoncé. Les attributs de dialogue d’un énoncé se réfèrent à des caractéristiques ou des aspects discrets associés à un énoncé comme les actes de dialogue, le sentiment, l’émotion, l’identité du locuteur, la personnalité du locuteur, etc. Le troisième article présente un moyen simple et économique de collecter des ensembles de données à grande échelle pour modéliser des systèmes de dialogue orientés tâche. Cette approche évite l’exigence d’un schéma d’annotation d’arguments complexes. La version initiale de l’ensemble de données comprend 13 215 dialogues basés sur des tâches comprenant six domaines et environ 8 000 entités nommées uniques, presque 8 fois plus que l’ensemble de données MultiWOZ populaire. | fr |
dcterms.abstract | This thesis by article consists of four articles which contribute to the field of deep learning, specifically in understanding and learning neural approaches to dialog systems. The first article takes a step towards understanding if commonly used neural dialog architectures effectively capture the information present in the conversation history. Through a series of perturbation experiments on popular dialog datasets, wefindthatcommonly used neural dialog architectures like recurrent and transformer-based seq2seq models are rarely sensitive to most input context perturbations such as missing or reordering utterances, shuffling words, etc. The second article introduces a simple and cost-effective way to collect large scale datasets for modeling task-oriented dialog systems. This approach avoids the requirement of a com-plex argument annotation schema. The initial release of the dataset includes 13,215 task-based dialogs comprising six domains and around 8k unique named entities, almost 8 times more than the popular MultiWOZ dataset. The third article proposes to improve response generation quality in open domain dialog systems by jointly modeling the utterances with the dialog attributes of each utterance. Dialog attributes of an utterance refer to discrete features or aspects associated with an utterance like dialog-acts, sentiment, emotion, speaker identity, speaker personality, etc. The final article introduces an embedding-free method to compute word representations on-the-fly. This approach significantly reduces the memory footprint which facilitates de-ployment in on-device (memory constraints) devices. Apart from being independent of the vocabulary size, we find this approach to be inherently resilient to common misspellings. | fr |
dcterms.language | eng | fr |
Fichier·s constituant ce document
Ce document figure dans la ou les collections suivantes
Ce document diffusé sur Papyrus est la propriété exclusive des titulaires des droits d'auteur et est protégé par la Loi sur le droit d'auteur (L.R.C. (1985), ch. C-42). Il peut être utilisé dans le cadre d'une utilisation équitable et non commerciale, à des fins d'étude privée ou de recherche, de critique ou de compte-rendu comme le prévoit la Loi. Pour toute autre utilisation, une autorisation écrite des titulaires des droits d'auteur sera nécessaire.