🎄 ☃ ❄ 🎅 🎁 🎄 ☃ ❄ 🎅 🎁 🎄 ☃ ❄ 🎅 🎁 🎄 ☃ ❄ 🎅 🎁 CONGÉ DES FÊTES 2022 : Veuillez noter qu'il n'y aura pas de suivi des dépôts des thèses, mémoires et travaux étudiants après le 22 décembre 2022. Retour aux délais réguliers dès le 9 janvier 2023.

Show item record

dc.contributor.advisorRish, Irina
dc.contributor.authorFrancis, Sreya
dc.date.accessioned2022-04-12T16:30:59Z
dc.date.availableNO_RESTRICTIONfr
dc.date.available2022-04-12T16:30:59Z
dc.date.issued2022-03-16
dc.date.submitted2021-10
dc.identifier.urihttp://hdl.handle.net/1866/26527
dc.subjectFederated Learningfr
dc.subjectCausal Machine Learningfr
dc.subjectFairnessfr
dc.subjectOut-of-distribution generalizationfr
dc.subjectRobustnessfr
dc.subjectApprentissage fédéréfr
dc.subjectApprentissage automatique causalfr
dc.subjectBlockchainfr
dc.subjectGénéralisation hors distributionfr
dc.subjectApprentissage automatique préservant la confidentialitéfr
dc.subjectRobustessefr
dc.subjectÉquitéfr
dc.subjectPrivacy preserving machine learningfr
dc.subjectGeneralizationfr
dc.subject.otherApplied Sciences - Artificial Intelligence / Sciences appliqués et technologie - Intelligence artificielle (UMI : 0800)fr
dc.titleTowards causal federated learning : a federated approach to learning representations using causal invariancefr
dc.typeThèse ou mémoire / Thesis or Dissertation
etd.degree.disciplineInformatiquefr
etd.degree.grantorUniversité de Montréalfr
etd.degree.levelMaîtrise / Master'sfr
etd.degree.nameM. Sc.fr
dcterms.abstractFederated Learning is an emerging privacy-preserving distributed machine learning approach to building a shared model by performing distributed training locally on participating devices (clients) and aggregating the local models into a global one. As this approach prevents data collection and aggregation, it helps in reducing associated privacy risks to a great extent. However, the data samples across all participating clients are usually not independent and identically distributed (non-i.i.d.), and Out of Distribution (OOD) generalization for the learned models can be poor. Besides this challenge, federated learning also remains vulnerable to various attacks on security wherein a few malicious participating entities work towards inserting backdoors, degrading the generated aggregated model as well as inferring the data owned by participating entities. In this work, we propose an approach for learning invariant (causal) features common to all participating clients in a federated learning setup and analyse empirically how it enhances the Out of Distribution (OOD) accuracy as well as the privacy of the final learned model. Although Federated Learning allows for participants to contribute their local data without revealing it, it faces issues in data security and in accurately paying participants for quality data contributions. In this report, we also propose an EOS Blockchain design and workflow to establish data security, a novel validation error based metric upon which we qualify gradient uploads for payment, and implement a small example of our Blockchain Causal Federated Learning model to analyze its performance with respect to robustness, privacy and fairness in incentivization.fr
dcterms.abstractL’apprentissage fédéré est une approche émergente d’apprentissage automatique distribué préservant la confidentialité pour créer un modèle partagé en effectuant une formation distribuée localement sur les appareils participants (clients) et en agrégeant les modèles locaux en un modèle global. Comme cette approche empêche la collecte et l’agrégation de données, elle contribue à réduire dans une large mesure les risques associés à la vie privée. Cependant, les échantillons de données de tous les clients participants sont généralement pas indépendante et distribuée de manière identique (non-i.i.d.), et la généralisation hors distribution (OOD) pour les modèles appris peut être médiocre. Outre ce défi, l’apprentissage fédéré reste également vulnérable à diverses attaques contre la sécurité dans lesquelles quelques entités participantes malveillantes s’efforcent d’insérer des portes dérobées, dégradant le modèle agrégé généré ainsi que d’inférer les données détenues par les entités participantes. Dans cet article, nous proposons une approche pour l’apprentissage des caractéristiques invariantes (causales) communes à tous les clients participants dans une configuration d’apprentissage fédérée et analysons empiriquement comment elle améliore la précision hors distribution (OOD) ainsi que la confidentialité du modèle appris final. Bien que l’apprentissage fédéré permette aux participants de contribuer leurs données locales sans les révéler, il se heurte à des problèmes de sécurité des données et de paiement précis des participants pour des contributions de données de qualité. Dans ce rapport, nous proposons également une conception et un flux de travail EOS Blockchain pour établir la sécurité des données, une nouvelle métrique basée sur les erreurs de validation sur laquelle nous qualifions les téléchargements de gradient pour le paiement, et implémentons un petit exemple de notre modèle d’apprentissage fédéré blockchain pour analyser ses performances.fr
dcterms.languageengfr
UdeM.ORCIDAuteurThese0000-0001-7980-4260fr


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show item record


DSpace software [version 5.8 XMLUI], copyright © 2002-2015  DuraSpace