Contenu du cours
Voici la liste des sujets et concepts qui pourront faire l'objet de questions
dans l'examen final.
Pour toute question concernant ces sujets, n'hésitez pas à poser une question
sur le forum de discussion du cours!
Tous les sujets avant l'intra
Voir la liste
ici
Concepts fondamentaux (3)
- Définition des valeurs / vecteurs propres d'une matrice.
- Définition de la décomposition en valeurs / vecteurs propres d'une matrice symétrique.
- Lien entre les valeurs / vecteurs propres et le déterminant, la trace, le rang, l'inverse
et la propriété "définie positive" d'une matrice.
Formulation probabiliste (2,3)
- Lien entre les valeurs / vecteurs propres d'une matrice de covariance et
la forme de la fonction de densité d'une loi gaussienne.
- Obtention de la loi marginale d'une gaussienne.
- Calcul de la loi conditionnelle d'une gaussienne.
Mélange de gaussiennes
- Définition du modèle de mélange de gaussiennes
- Explication de comment on suppose que les données ont été générées dans un mélange de gaussiennes.
- Lien entre le mélange de gaussiennes et l'approche probabiliste générative en classification.
- Description du problème de partitionnement en général.
- Utilisation d'un mélange de gaussiennes pour le partitionnement.
- Probabilité marginale de l'entrée dans un mélange de gaussiennes.
- Description des étapes E et M pour un mélange de gaussiennes.
- Description générale du fonctionnement de l'algorithme EM, dans sa
façon d'optimiser la log-vraisemblance des données.
- Lien entre les hyper-paramètres du mélange de gaussiennes et sa capacité.
- Problèmes possibles avec l'algorithme EM (optima locaux, problème mal défini).
- Définition de la fenêtre de Parzen.
Réduction de dimensionnalité
- Définition du problème de la réduction de dimensionnalité.
- Motivation pour faire de la réduction de dimensionnalité (visualisation de données, combattre la malédiction de la dimensionnalité).
- Description des concepts de dimensionnalité intrinsèque et de variété.
- Calcul d'une réduction de dimensionnalité basée sur l'ACP (versions de base, centrée ou centrée et normalisée).
- Lien entre les valeurs / vecteurs propres de la matrice de covariance et la variance d'une projection.
- Calcul de la reconstruction (ou décompression) d'un vecteur sous l'ACP.
- Lien entre les valeurs propres de la matrice de covariance et l'erreur de reconstruction.
- Description des étapes de l'ACP à noyau.
- Calcul du centrage d'un noyau.
- Sélection d'hyper-paramètres pour la réduction de dimensionnalité.
Combinaison de modèles
- Description de la combinaison de différents algorithmes d'apprentissage (en régression et en classification).
- Description du bagging.
- Description de la génération d'un ensemble de données bootstrap.
- Description générale des propriétés du bagging (condition pour que le bagging aide de façon optimale).
- Description général du concept du boosting.
- Calcul des étapes de l'algorithme AdaBoost.
- Identification de la perte optimisée par AdaBoost et description générale de comment AdaBoost l'optimise.
- Distinction entre les cas où le bagging est plus prometteur
de ceux où le boosting est plus approprié.
Apprentissage bayésien
- Description générale de l'approche par apprentissage bayésien et lien avec
les concepts de :
- Probabilités a priori sur les modèles.
- Probabilités des données étant donné un modèle.
- Probabilités a posteriori des modèles.
- Avantages de l'apprentissage bayésien.
- Définition de la régression linéaire bayésienne.
- Progression des probabilités a posteriori des modéles lorsque
la quantité de données augmente.
- Définition générale de la loi prédicitve a posteriori.
- Propriété d'un processus gaussien.
- Prédiction et variance prédictive de la régression basée sur un processus gaussien.