Browsing Faculté des arts et des sciences – Département d'informatique et de recherche opérationnelle - Thèses et mémoires by Advisor "Lajoie, Guillaume"
Now showing items 1-6 of 6
-
Deep networks training and generalization: insights from linearization
(2023-06-19)Bien qu'ils soient capables de représenter des fonctions très complexes, les réseaux de neurones profonds sont entraînés à l'aide de variations autour de la descente de gradient, un algorithme qui est basé sur une simple linéarisation de la fonction ... -
Dynamics of learning and generalization in neural networks
(2022-10-26)Les réseaux neuronaux sont remarquablement performants pour une grande variété de tâches d'apprentissage automatique et ont eu un impact profond sur la définition même de l'intelligence artificielle (IA). Cependant, malgré leur rôle important dans ... -
Hierarchical Bayesian optimization of targeted motor outputs with spatiotemporal neurostimulation
(2020-03-25)Ce mémoire par article part de la question suivante: pouvons-nous utiliser des prothèses neurales afin d’activer artificiellement certain muscles dans le but d’accélérer la guérison et le réapprentissage du contrôle moteur après un AVC ou un traumatisme ... -
Inductive biases for efficient information transfer in artificial networks
(2023-03-22)Malgré des progrès remarquables dans une grande variété de sujets, les réseaux de neurones éprouvent toujours des difficultés à exécuter certaines tâches simples pour lesquelles les humains excellent. Comme indiqué dans des travaux récents, nous émettons ... -
Modeling functional brain activity of human working memory using deep recurrent neural networks
(2021-07-14)Dans les systèmes cognitifs, le rôle de la mémoire de travail est crucial pour le raisonnement visuel et la prise de décision. D’énormes progrès ont été réalisés dans la compréhension des mécanismes de la mémoire de travail humain/animal, ainsi que ... -
Towards better understanding and improving optimization in recurrent neural networks
(2020-12-16)Recurrent neural networks (RNN) are known for their notorious exploding and vanishing gradient problem (EVGP). This problem becomes more evident in tasks where the information needed to correctly solve them exist over long time scales, because it ...