Afficher la notice

dc.contributor.advisorBengio, Yoshua
dc.contributor.authorSenécal, Jean-Sébastien
dc.date.accessioned2016-09-21T14:28:52Z
dc.date.available2016-09-21T14:28:52Z
dc.date.issued2003
dc.date.submitted2003
dc.identifier.urihttp://hdl.handle.net/1866/14518
dc.subjectApprentissage-machine
dc.subjectModèles non-paramétriques de densité non normalisée
dc.subjectMéthodes de Monte Carlo
dc.subjectProduits d'experts
dc.subjectRéseaux de neurones artificiels
dc.subjectModélisation de la langue naturelle
dc.titleAccélérer l'entraînement d'un modèle non-paramétrique de densité non normalisée par échantillonnage aléatoire
dc.typeThèse ou mémoire / Thesis or Dissertation
etd.degree.disciplineInformatiquefr
etd.degree.grantorUniversité de Montréalfr
etd.degree.levelMaîtrise / Master's
etd.degree.nameM. Sc.
dcterms.descriptionMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.fr
dcterms.languagefra


Fichier·s constituant ce document

Vignette

Ce document figure dans la ou les collections suivantes

Afficher la notice

Ce document diffusé sur Papyrus est la propriété exclusive des titulaires des droits d'auteur et est protégé par la Loi sur le droit d'auteur (L.R.C. (1985), ch. C-42). Il peut être utilisé dans le cadre d'une utilisation équitable et non commerciale, à des fins d'étude privée ou de recherche, de critique ou de compte-rendu comme le prévoit la Loi. Pour toute autre utilisation, une autorisation écrite des titulaires des droits d'auteur sera nécessaire.