Now showing items 1-10 of 10

  • Dynamics of learning and generalization in neural networks 

    Pezeshki, Mohammad (2022-10-26)
    Les réseaux neuronaux sont remarquablement performants pour une grande variété de tâches d'apprentissage automatique et ont eu un impact profond sur la définition même de l'intelligence artificielle (IA). Cependant, malgré leur rôle important dans ...
  • Learning and planning with noise in optimization and reinforcement learning 

    Thomas, Valentin (2023-11-01)
    La plupart des algorithmes modernes d'apprentissage automatique intègrent un certain degré d'aléatoire dans leurs processus, que nous appellerons le bruit, qui peut finalement avoir un impact sur les prédictions du modèle. Dans cette thèse, nous ...
  • Leveraging distant supervision for improved named entity recognition 

    Ghaddar, Abbas (2020-12-16)
    Les techniques d'apprentissage profond ont fait un bond au cours des dernières années, et ont considérablement changé la manière dont les tâches de traitement automatique du langage naturel (TALN) sont traitées. En quelques années, les réseaux de ...
  • On the bias-variance tradeoff : textbooks need an update 

    Neal, Brayden (2020-03-25)
    L’objectif principal de cette thèse est de souligner que le compromis biais-variance n’est pas toujours vrai (p. ex. dans les réseaux neuronaux). Nous plaidons pour que ce manque d’universalité soit reconnu dans les manuels scolaires et enseigné dans ...
  • (Out-of-distribution?) : generalization in deep learning 

    Caballero, Ethan (2022-10-26)
    Le principe d’invariance par rapport à la causalité est au coeur d’approches notables telles que la minimisation du risque invariant (IRM) qui cherchent à résoudre les échecs de généralisation hors distribution (OOD). Malgré la théorie prometteuse, les ...
  • PatchUp : a feature-space block-level regularization technique for convolutional neural networks 

    Faramarzi, Mojtaba (2021-10-21)
    Les modèles d’apprentissage profond à large capacité ont souvent tendance à présenter de hauts écarts de généralisation lorsqu’ils sont entrainés avec une quantité limitée de données étiquetées. Dans ce cas, des réseaux de neurones très profonds et ...
  • Reparametrization in deep learning 

    Dinh, Laurent (2018-10-18)
    L'apprentissage profond est une approche connectioniste à l'apprentissage automatique. Elle a pu exploiter la récente production massive de données numériques et l'explosion de la quantité de ressources computationelles qu'a amené ces dernières décennies. ...
  • Rethinking continual learning approach and study out-of-distribution generalization algorithms 

    Laleh, Touraj (2023-09-13)
    L'un des défis des systèmes d'apprentissage automatique actuels est que les paradigmes d'IA standard ne sont pas doués pour transférer (ou exploiter) les connaissances entre les tâches. Alors que de nombreux systèmes ont été formés et ont obtenu des ...
  • Towards causal federated learning : a federated approach to learning representations using causal invariance 

    Francis, Sreya (2022-03-16)
    Federated Learning is an emerging privacy-preserving distributed machine learning approach to building a shared model by performing distributed training locally on participating devices (clients) and aggregating the local models into a global one. As ...
  • Towards Understanding Generalization in Gradient-Based Meta-Learning 

    Guiroy, Simon (2020-03-25)
    Dans ce mémoire, nous étudions la généralisation des réseaux de neurones dans le contexte du méta-apprentissage, en analysant divers propriétés des surface leurs fonctions objectifs. La recherche en apprentissage automatique portant sur les surfaces ...