Show item record

dc.contributor.advisorFrasson, Claude
dc.contributor.authorKibbanahalli Shivalingappa, Marulasidda Swamy
dc.date.accessioned2021-01-22T14:04:16Z
dc.date.availableNO_RESTRICTIONfr
dc.date.available2021-01-22T14:04:16Z
dc.date.issued2020-12-16
dc.date.submitted2020-09
dc.identifier.urihttp://hdl.handle.net/1866/24320
dc.subjectAction humaine dans un environnement virtuelfr
dc.subjectDétection des gestesfr
dc.subjectInformatique médicalefr
dc.subjectSystèmes de réalité virtuellefr
dc.subjectApprentissage profondfr
dc.subjectSolution de RV pour la maladie d’Alzheimerfr
dc.subjectFacteurs humains pour le traitement médicalfr
dc.subjectHuman action in Virtual Environmentfr
dc.subjectGesture detectionfr
dc.subjectMedical informaticsfr
dc.subjectVirtual Reality Systemsfr
dc.subjectDeep learningfr
dc.subjectVR solution for Alzheimer’sfr
dc.subjectHuman factors for medical treatmentfr
dc.subject.otherApplied Sciences - Artificial Intelligence / Sciences appliqués et technologie - Intelligence artificielle (UMI : 0800)fr
dc.titleReal-time human action and gesture recognition using skeleton joints information towards medical applicationsfr
dc.typeThèse ou mémoire / Thesis or Dissertation
etd.degree.disciplineInformatiquefr
etd.degree.grantorUniversité de Montréalfr
etd.degree.levelMaîtrise / Master'sfr
etd.degree.nameM. Sc.fr
dcterms.abstractDes efforts importants ont été faits pour améliorer la précision de la détection des actions humaines à l’aide des articulations du squelette. Déterminer les actions dans un environnement bruyant reste une tâche difficile, car les coordonnées cartésiennes des articulations du squelette fournies par la caméra de détection à profondeur dépendent de la position de la caméra et de la position du squelette. Dans certaines applications d’interaction homme-machine, la position du squelette et la position de la caméra ne cessent de changer. La méthode proposée recommande d’utiliser des valeurs de position relatives plutôt que des valeurs de coordonnées cartésiennes réelles. Les récents progrès des réseaux de neurones à convolution (RNC) nous aident à obtenir une plus grande précision de prédiction en utilisant des entrées sous forme d’images. Pour représenter les articulations du squelette sous forme d’image, nous devons représenter les informations du squelette sous forme de matrice avec une hauteur et une largeur égale. Le nombre d’articulations du squelette fournit par certaines caméras de détection à profondeur est limité, et nous devons dépendre des valeurs de position relatives pour avoir une représentation matricielle des articulations du squelette. Avec la nouvelle représentation des articulations du squelette et le jeu de données MSR, nous pouvons obtenir des performances semblables à celles de l’état de l’art. Nous avons utilisé le décalage d’image au lieu de l’interpolation entre les images, ce qui nous aide également à obtenir des performances similaires à celle de l’état de l’art.fr
dcterms.abstractThere have been significant efforts in the direction of improving accuracy in detecting human action using skeleton joints. Recognizing human activities in a noisy environment is still challenging since the cartesian coordinate of the skeleton joints provided by depth camera depends on camera position and skeleton position. In a few of the human-computer interaction applications, skeleton position, and camera position keep changing. The proposed method recommends using relative positional values instead of actual cartesian coordinate values. Recent advancements in CNN help us to achieve higher prediction accuracy using input in image format. To represent skeleton joints in image format, we need to represent skeleton information in matrix form with equal height and width. With some depth cameras, the number of skeleton joints provided is limited, and we need to depend on relative positional values to have a matrix representation of skeleton joints. We can show the state-of-the-art prediction accuracy on MSR data with the help of the new representation of skeleton joints. We have used frames shifting instead of interpolation between frames, which helps us achieve state-of-the-art performance.fr
dcterms.languageengfr
dcterms.relationhttps://github.com/creative-swamy/IntelRealSenseData/fr
dcterms.relationhttps://github.com/creative-swamy/LeapMotionDatafr
UdeM.ORCIDAuteurThese0000-0002-3103-6618fr


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show item record

This document disseminated on Papyrus is the exclusive property of the copyright holders and is protected by the Copyright Act (R.S.C. 1985, c. C-42). It may be used for fair dealing and non-commercial purposes, for private study or research, criticism and review as provided by law. For any other use, written authorization from the copyright holders is required.