Un système de question-réponse simple appliqué à SQuAD
Thèse ou mémoire
2020-03 (octroi du grade: 2020-07-22)
Auteur·e·s
Directeur·trice·s de recherche
Cycle d'études
MaîtriseProgramme
InformatiqueRésumé·s
La tâche de question-réponse (Question-Answering, QA) est bien ancrée dans la communauté
de Traitement Automatique du Langage Naturel (TALN) depuis de nombreuses années. De
manière générale, celle-ci consiste à répondre à des questions données à l’aide de documents
(textuels ou autres) ou de conversations en faisant au besoin usage de connaissances et en
mettant en oeuvre des mécanismes d’inférence. Ainsi, dépendamment du jeu de données
et de la tâche lui étant associée, il faut que le système puisse détecter et comprendre les
éléments utiles pour répondre correctement à chacune des questions posées. De nombreux
progrès ont été réalisés depuis quelques années avec des modèles neuronaux de plus en plus
complexes, ces derniers sont cependant coûteux en production, et relativement opaques. Du
à leur opacité, il est difficile d’anticiper avec précision le comportement de certains modèles et
d’ainsi prévoir quand ces systèmes vont retourner de mauvaises réponses. Contrairement à la
très grande majorité des systèmes proposés actuellement, nous allons dans ce mémoire tenter
de résoudre cette tâche avec des modèles de taille contrôlable, on s’intéressera principalement
aux approches basées sur les traits (features). Le but visé en restreignant la taille des
modèles est qu’ils généralisent mieux. On pourra alors mesurer ce que ces modèles capturent
afin d’évaluer la granularité de leur "compréhension" de la langue. Aussi, en analysant les
lacunes de modèles de taille contrôlable, on pourra mettre en valeur ce que des modèles plus
complexes ont capturé. Pour réaliser notre étude, on s’évalue ici sur SQuAD: un jeu de
données populaire proposé par l’Université Standford. The Question-Answering task (QA) is a well established Natural Language Processing (NLP) task. Generally speaking, it consists in answering questions using documents (textual or otherwise) or conversations, making use of knowledge if necessary and implementing inference mechanisms. Thus, depending on the data set and the task associated with it, the system must be able to detect and understand the useful elements to correctly answer each of the questions asked. A lot of progress has been made in recent years with increasingly complex neural models. They are however expensive in production, and relatively opaque. Due to this opacity, it is diÿcult to accurately predict the behavior of some models and thus, to predict when these systems will return wrong answers. Unlike the vast majority of systems currently proposed, in this thesis we will try to solve this task with models with controllable size. We will focus mainly on feature-based approaches. The goal in restricting the size of the models is that they generalize better. So we will measure what these models capture in order to assess the granularity of their "understanding" of the language. Also, by analyzing the gaps of controllable size models, we will be able to highlight what more complex models have captured. To carry out our study, we evaluate ourselves here on SQuAD: a popular data set o˙ered by Standford University.
Ce document diffusé sur Papyrus est la propriété exclusive des titulaires des droits d'auteur et est protégé par la Loi sur le droit d'auteur (L.R.C. (1985), ch. C-42). Il peut être utilisé dans le cadre d'une utilisation équitable et non commerciale, à des fins d'étude privée ou de recherche, de critique ou de compte-rendu comme le prévoit la Loi. Pour toute autre utilisation, une autorisation écrite des titulaires des droits d'auteur sera nécessaire.