Voici la liste des sujets traités durant le cours, accompagnés de vidéos explicatives.
Pour toute question concernant le contenu, n'hésitez pas à poser une question sur le forum de discussion du cours!
Date | Contenu | Sections du livre |
LU 05/01 MA 06/01 |
Présentation du cours [pdf] Mise à niveau • Tutoriel Python • Dérivées • Dérivées partielles • Algèbre linéaire (Bishop : Appendix C) |
|
LU 12/01 MA 13/01 |
Concepts fondamentaux [pdf] • Motivation (3:48) • Notation et nomenclature (3:41) • Types d'apprentissage (10:45) • Exemple : régression polynomiale (11:07) • Sur-apprentissage / sous-apprentissage (9:45) • Régularisation (8:05) • Sélection de modèle (11:23) • Malédiction de la dimensionnalité (9:47) • Résumé (2:38) |
1.0 | | 1.1 | | 1.3 1.4 x |
LU 19/01 MA 20/01 |
Formulation probabiliste [pdf] [ipython notebook] • Rappel de la théorie des probabilités (14:47) • Variable aléatoire continue (9:15) • Espérance, variance et covariance (12:59) • Loi gaussienne / normale (10:01) • Régression polynomiale revisitée (12:00) • Maximum a posteriori (7:17) • Théorie de l'information (16:47) • Divergence de Kullback-Leibler (5:05) |
1.2 1.2.1 1.2.2 1.2.4 1.2.5 | 1.6 1.6.1 |
LU 26/01 MA 27/01 |
Régression linéaire [pdf] [ipython notebook] • Modèle (4:57) • Fonction de bases (8:58) • Maximum de vraisemblance (11:57) • Régularisation (4:22) • Prédictions multiples (5:37) • Théorie de la décision (16:37) • Décomposition biais-variance (11:38) • Résumé (1:41) |
3.1 | 3.1.1 3.1.4 3.1.5 1.5 3.2 x |
LU 02/02 MA 03/02 |
Classification linéaire [pdf] [ipython notebook] • Fonction discriminante (17:17) • Méthode des moindres carrés (4:53) • Analyse discriminante linéaire (12:43) • Approche probabiliste générative (24:02) • Approche probabiliste discriminante (17:12) • Classificiation à multiples classes (6:23) • Résumé (8:05) |
4.1 4.1.3 4.1.4 4.2 4.3 4.1.2 x |
LU 09/02 MA 10/02 |
Concepts fondamentaux (2) [pdf] [ipython notebook] • Prétraitement de données (10:55) • Comparaison d'algorithmes (7:43) Méthodes à noyau [pdf] [ipython notebook] • Motivation (4:30) • Représentation duale (régression) (15:48) • Astuce du noyau (12:38) • Construction de noyaux (12:43) • Résumé (6:40) |
x x x 6.1 6.2 | x |
LU 16/02 MA 17/02 |
Machine à vecteurs de support [pdf] • Motivation (4:41) • Marge (6:13) • Classifieur à marge maximale (9:55) • Représentation duale (15:33) • Chevauchement de classes (10:26) • Lien avec la régression logistique (11:22) • Résumé (7:05) |
7.0 7.1 | | 7.1.1 7.1.2 x |
LU 23/02 VE 27/02 |
Semaine d'examens périodiques Date de l'examen intra à déterminer Examen intra: 26 février, D3-2029, 8h30-10h20 • Sujets de l'examen |
|
LU 2/03 VE 6/03 |
Semaine de lecture | |
LU 09/03 MA 10/03 |
Mélange de gaussiennes [pdf] • Motivation (3:04) • Modèle (13:24) • Partitionnement de données (9:20) • Maximum de vraisemblance (EM) (21:08) • Dérivation générale de EM (25:49) • Résumé (12:14) |
x 9.2 | | 9.4 x |
LU 16/03 MA 17/03 |
Concepts fondamentaux (3) [pdf] • Décomposition en valeurs propres (11:31) Formulation probabiliste (2) [pdf] • Loi normale / gaussienne (2) (17:20) Réduction de dimensionnalité [pdf] [ipython notebook] • Motivation (12:36) • Analyse en composantes principales (11:48) • ACP en pratique (14:57) • ACP à noyau (23:47) • Centrage du noyau (5:07) • Résumé (9:36) |
x 2.3 12.0 12.1 | 12.3 | x |
LU 23/03 MA 24/03 |
Combinaison de modèles [pdf] [ipython notebook] • Motivation (4:45) • Bagging (6:41) • Propriétés du bagging (7:18) • Boosting (17:34) • Propriétés du boosting (13:39) • Résumé (4:35) |
14.0 14.2 | 14.3 14.3.1 x |
LU 30/03 MA 31/03 |
Formulation probabiliste (3) [pdf] • Loi marginale d'une gaussienne (7:37) • Loi conditionnelle d'une gaussienne (9:51) Apprentissage bayésien [pdf] [ipython notebook] • Motivation (8:17) • Régression linéaire bayésienne (13:01) • Exemple : régression linéaire bayésienne (6:31) • Loi prédictive a posteriori (11:27) • Régression bayésienne à noyau (7:19) • Processus gaussien (16:51) • Résumé (6:06) |
2.3.1 2.3.2 1.2.6 3.3.1 | 3.3.2 x 6.4.2 x |
LU 06/04 MA 07/04 |
Méthodes d'échantillonnage [pdf] • Motivation (7:17) • Variable aléatoire discrète scalaire (5:24) • Variable aléatoire continue scalaire (5:06) • Variable aléatoire gaussienne vectorielle (6:04) • Méthode de rejet (8:22) • Échantillonnage préférentiel (6:31) • Metropolis-Hastings (11:45) • Échantillonnage de Gibbs (7:07) • Résumé (5:25) |
11.0 11.1.1 | | 11.1.2 11.1.4 11.2 11.3 x |
LU 13/04 |
Révision | |
MA 14/04 |
Période des examens finaux Examen final: 22 avril, 9h00-12h00 • Sujets de l'examen |