Contenu du cours

Voici la liste des sujets traités durant le cours, accompagnés de vidéos explicatives.

Pour toute question concernant le contenu, n'hésitez pas à poser une question sur le forum de discussion du cours!

Date Contenu Sections
du livre
LU 05/01
MA 06/01
Présentation du cours [pdf]
Mise à niveau
 • Tutoriel Python
 • Dérivées
 • Dérivées partielles
 • Algèbre linéaire (Bishop : Appendix C)
LU 12/01
MA 13/01
Concepts fondamentaux [pdf]
 • Motivation (3:48)
 • Notation et nomenclature (3:41)
 • Types d'apprentissage (10:45)
 • Exemple : régression polynomiale (11:07)
 • Sur-apprentissage / sous-apprentissage (9:45)
 • Régularisation (8:05)
 • Sélection de modèle (11:23)
 • Malédiction de la dimensionnalité (9:47)
 • Résumé (2:38)

1.0
|
|
1.1
|
|
1.3
1.4
x
LU 19/01
MA 20/01
Formulation probabiliste [pdf] [ipython notebook]
 • Rappel de la théorie des probabilités (14:47)
 • Variable aléatoire continue (9:15)
 • Espérance, variance et covariance (12:59)
 • Loi gaussienne / normale (10:01)
 • Régression polynomiale revisitée (12:00)
 • Maximum a posteriori (7:17)
 • Théorie de l'information (16:47)
 • Divergence de Kullback-Leibler (5:05)

1.2
1.2.1
1.2.2
1.2.4
1.2.5
|
1.6
1.6.1
LU 26/01
MA 27/01
Régression linéaire [pdf] [ipython notebook]
 • Modèle (4:57)
 • Fonction de bases (8:58)
 • Maximum de vraisemblance (11:57)
 • Régularisation (4:22)
 • Prédictions multiples (5:37)
 • Théorie de la décision (16:37)
 • Décomposition biais-variance (11:38)
 • Résumé (1:41)

3.1
|
3.1.1
3.1.4
3.1.5
1.5
3.2
x
LU 02/02
MA 03/02
Classification linéaire [pdf] [ipython notebook]
 • Fonction discriminante (17:17)
 • Méthode des moindres carrés (4:53)
 • Analyse discriminante linéaire (12:43)
 • Approche probabiliste générative (24:02)
 • Approche probabiliste discriminante (17:12)
 • Classificiation à multiples classes (6:23)
 • Résumé (8:05)

4.1
4.1.3
4.1.4
4.2
4.3
4.1.2
x
LU 09/02
MA 10/02
Concepts fondamentaux (2) [pdf] [ipython notebook]
 • Prétraitement de données (10:55)
 • Comparaison d'algorithmes (7:43)

Méthodes à noyau [pdf] [ipython notebook]
 • Motivation (4:30)
 • Représentation duale (régression) (15:48)
 • Astuce du noyau (12:38)
 • Construction de noyaux (12:43)
 • Résumé (6:40)

x
x


x
6.1
6.2
|
x
LU 16/02
MA 17/02
Machine à vecteurs de support [pdf]
 • Motivation (4:41)
 • Marge (6:13)
 • Classifieur à marge maximale (9:55)
 • Représentation duale (15:33)
 • Chevauchement de classes (10:26)
 • Lien avec la régression logistique (11:22)
 • Résumé (7:05)

7.0
7.1
|
|
7.1.1
7.1.2
x
LU 23/02
VE 27/02
Semaine d'examens périodiques
Date de l'examen intra à déterminer Examen intra: 26 février, D3-2029, 8h30-10h20
 • Sujets de l'examen
LU 2/03
VE 6/03
Semaine de lecture
LU 09/03
MA 10/03
Mélange de gaussiennes [pdf]
 • Motivation (3:04)
 • Modèle (13:24)
 • Partitionnement de données (9:20)
 • Maximum de vraisemblance (EM) (21:08)
 • Dérivation générale de EM (25:49)
 • Résumé (12:14)

x
9.2
|
|
9.4
x
LU 16/03
MA 17/03
Concepts fondamentaux (3) [pdf]
 • Décomposition en valeurs propres (11:31)

Formulation probabiliste (2) [pdf]
 • Loi normale / gaussienne (2) (17:20)

Réduction de dimensionnalité [pdf] [ipython notebook]
 • Motivation (12:36)
 • Analyse en composantes principales (11:48)
 • ACP en pratique (14:57)
 • ACP à noyau (23:47)
 • Centrage du noyau (5:07)
 • Résumé (9:36)

x


2.3


12.0
12.1
|
12.3
|
x
LU 23/03
MA 24/03
Combinaison de modèles [pdf] [ipython notebook]
 • Motivation (4:45)
 • Bagging (6:41)
 • Propriétés du bagging (7:18)
 • Boosting (17:34)
 • Propriétés du boosting (13:39)
 • Résumé (4:35)

14.0
14.2
|
14.3
14.3.1
x
LU 30/03
MA 31/03
Formulation probabiliste (3) [pdf]
 • Loi marginale d'une gaussienne (7:37)
 • Loi conditionnelle d'une gaussienne (9:51)

Apprentissage bayésien [pdf] [ipython notebook]
 • Motivation (8:17)
 • Régression linéaire bayésienne (13:01)
 • Exemple : régression linéaire bayésienne (6:31)
 • Loi prédictive a posteriori (11:27)
 • Régression bayésienne à noyau (7:19)
 • Processus gaussien (16:51)
 • Résumé (6:06)

2.3.1
2.3.2


1.2.6
3.3.1
|
3.3.2
x
6.4.2
x
LU 06/04
MA 07/04
Méthodes d'échantillonnage [pdf]
 • Motivation (7:17)
 • Variable aléatoire discrète scalaire (5:24)
 • Variable aléatoire continue scalaire (5:06)
 • Variable aléatoire gaussienne vectorielle (6:04)
 • Méthode de rejet (8:22)
 • Échantillonnage préférentiel (6:31)
 • Metropolis-Hastings (11:45)
 • Échantillonnage de Gibbs (7:07)
 • Résumé (5:25)

11.0
11.1.1
|
|
11.1.2
11.1.4
11.2
11.3
x
LU 13/04
Révision
MA 14/04
Période des examens finaux
Examen final: 22 avril, 9h00-12h00
 • Sujets de l'examen