Search
Now showing items 1-10 of 26
Difference target propagation
(2018-10-18)
Backpropagation has been the workhorse of recent successes of deep learning but it relies on infinitesimal effects (partial derivatives) in order to perform credit assignment. This could become a serious issue as one ...
Feedforward deep architectures for classification and synthesis
(2018-03-21)
Cette thèse par article présente plusieurs contributions au domaine de l'apprentissage de représentations profondes, avec des applications aux problèmes de classification et de synthèse d'images naturelles. Plus spécifiquement, ...
Apprentissage de représentations musicales à l'aide d'architectures profondes et multiéchelles
(2012-10-11)
L'apprentissage machine (AM) est un outil important dans le domaine de la recherche d'information musicale (Music Information Retrieval ou MIR). De nombreuses tâches de MIR peuvent être résolues en entraînant un classifieur ...
Generative models : a critical review
(2018-10-18)
Dans cette thèse, nous introduisons et motivons la modélisation générative comme une tâche centrale pour l’apprentissage automatique et fournissons une vue critique des algorithmes qui ont été proposés pour résoudre cette ...
Influencing the Properties of Latent Spaces
(2017-03-28)
L'apprentissage automatique repose sur l'étude des méthodes de détermination de paramètres de modélisation de données a n d'accomplir une tâche, telle que la classification d'image ou la génération de phrases, pour un jeu ...
Reparametrization in deep learning
(2018-10-18)
L'apprentissage profond est une approche connectioniste à l'apprentissage automatique. Elle a pu exploiter la récente production massive de données numériques et l'explosion de la quantité de ressources computationelles ...
Factorized second order methods in neural networks
(2018-03-21)
Les méthodes d'optimisation de premier ordre (descente de gradient) ont permis d'obtenir des succès impressionnants pour entrainer des réseaux de neurones artificiels. Les méthodes de second ordre permettent en théorie ...
Extraction de phrases parallèles à partir d’un corpus comparable avec des réseaux de neurones récurrents bidirectionnels
(2018-05-10)
Les corpus parallèles sont cruciaux pour le bon fonctionnement des applications multilingues du traitement automatique du langage naturel. Comme ils sont des ressources essentielles, le nombre limité de corpus parallèles, ...
Sequence to sequence learning and its speech applications
(2018-10-18)
Recurrent Neural Networks (RNNs), which has the attractive properties of modelling sequences, has been dominant in speech field in the recent decades. Convolutional Neural Networks (CNNs) has been shown as an alternative ...
Training deep convolutional architectures for vision
(2010-02-04)
Les tâches de vision artificielle telles que la reconnaissance d’objets demeurent irrésolues à ce jour. Les algorithmes d’apprentissage tels que les Réseaux de Neurones Artificiels (RNA), représentent une approche prometteuse ...