Références

Bandyopadhyay, S., and S. Saha. 2013. Unsupervised Classification. Berlin: Springer-Verlag.

Bishop, Christopher M. 2006. Pattern Recognition and Machine Learning. New York: Wiley.

Breiman, Leo. 2001. “Random Forests.” Machine Learning 45 (1): 5–32.

Fisher, Ronald A. 1936. “The Use of Multiple Measurements in Taxonomic Problems.” Annals of Eugenics 7 (2): 179–88.

Harville, David A. 2008. Matrix Algebra from a Statistician’s Perspective. New York: Springer.

Hastie, T., R. Tibshirani, and J. Friedman. 2009. The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Second Edition. Springer Series in Statistics. Springer New York. https://books.google.ca/books?id=tVIjmNS3Ob8C.

Hotelling, Harold. 1933. “Analysis of a Complex of Statistical Variables into Principal Components.” Journal of Educational Psychology 24 (6): 417.

James, G., D. Witten, T. Hastie, and R. Tibshirani. 2014. An Introduction to Statistical Learning: With Applications in R. Springer Texts in Statistics. Springer New York. https://books.google.ca/books?id=at1bmAEACAAJ.

Kass, Gordon V. 1980. “An Exploratory Technique for Investigating Large Quantities of Categorical Data.” Applied Statistics, 119–27.

Kuhn, M., and K. Johnson. 2013. Applied Predictive Modeling. SpringerLink : Bücher. Springer New York. https://books.google.ca/books?id=xYRDAAAAQBAJ.

Lê, Sébastien, Julie Josse, and François Husson. 2008. “FactoMineR: A Package for Multivariate Analysis.” Journal of Statistical Software 25 (1): 1–18. https://doi.org/10.18637/jss.v025.i01.

Pearson, Karl. 1901. “LIII. On Lines and Planes of Closest Fit to Systems of Points in Space.” The London, Edinburgh, and Dublin Philosophical Magazine and Journal of Science 2 (11): 559–72.

Pyle, Dorian. 1999. Data Preparation for Data Mining. morgan kaufmann.

Snee, Ronald D. 1974. “Graphical Display of Two-Way Contingency Tables.” The American Statistician 28 (1): 9–12.

Tufféry, Stéphane. 2017. Data Mining et Statistique Décisionnelle: La Science Des Données. 5e ed. Éditions Technip.

Weiss, S. M. Weiss, N. Indurkhya, and T. Zhang. 2015. Fundamentals of Predictive Text Mining. 2nd Edition. New York: Springer.


  1. Le lecteur qui n’est plus familier avec la notion de multiplicateur de Lagrange trouvera un excellent rappel sur le sujet dans l’annexe du livre de Bishop (2006).↩︎

  2. Il existe une relation quasi barycentrique lorsque les coordonnées des points d’un espace sont proportionnelles aux composantes du facteur de l’autre espace correspondant à la même valeur propre.↩︎

  3. Notez que les matrices \(S\) et \(T\) ne sont pas des matrices symétriques.↩︎

  4. Il s’agit ici de la définition utilisée par la procédure DISTANCE de SAS et la fonction daisy de la librairie cluster de R, avec la nuance que la fonction R calcule la dissimilarité de Gower.↩︎

  5. Il est d’usage d’éliminer des mots qui ne contiennent pas d’information (stopwords) comme les articles, les prépositions, les conjonctions, les pronoms, etc. et de ne conserver que la racine des mots, par exemple seulement météo pour météorologie et météorologique et d’effectuer quelques autres opérations pour diminuer le nombre de colonnes et ne se limiter qu’à l’information utile. Il est donc recommandé de consulter des ouvrages sur l’analyse automatisée de textes, par exemple Weiss, Indurkhya, and Zhang (2015), afin de bien comprendre les étapes préliminaires à la création d’une matrice de documents par termes.↩︎

  6. La majorité des algorithmes procèdent plutôt en sélectionnant aléatoirement les centroïdes initiaux.↩︎

  7. Vous pouvez consulter la loi sur le site de l’Union européenne, mais l’article qui la vulgarise sur Wikipédia (https://fr.wikipedia.org/wiki/R%C3%A8glement_g%C3%A9n%C3%A9ral_sur_la_protection_des_donn%C3%A9es) est nettement plus accessible.↩︎

  8. Le vocabulaire utilisé est similaire à celui utilisé par Hastie, Tibshirani, and Friedman (2009) et est probablement le plus répandu. L’ouvrage de Tufféry (2017) inverse le nom des deux dernières phases.↩︎

  9. Fonction qui retourne un 1 lorsque ce qu’il y a à l’intérieur de la parenthèse est vrai, 0 sinon↩︎

  10. Si \(X_i\) est continue et prend \(v\) valeurs différentes, il y aura \(v-1\) séparation possible de \(X_i\). Si \(X_i\) est nominale, il y aura [à calculer???] séparations possibles↩︎

  11. Une matrice triangulaire est dite unitaire lorsque les éléments sur sa diagonale principale sont tous égaux à 1.↩︎

Références

Bishop, Christopher M. 2006. Pattern Recognition and Machine Learning. New York: Wiley.

Hastie, T., R. Tibshirani, and J. Friedman. 2009. The Elements of Statistical Learning: Data Mining, Inference, and Prediction, Second Edition. Springer Series in Statistics. Springer New York. https://books.google.ca/books?id=tVIjmNS3Ob8C.

Tufféry, Stéphane. 2017. Data Mining et Statistique Décisionnelle: La Science Des Données. 5e ed. Éditions Technip.

Weiss, S. M. Weiss, N. Indurkhya, and T. Zhang. 2015. Fundamentals of Predictive Text Mining. 2nd Edition. New York: Springer.