Apprentissage statistique : modélisation descriptive et introduction aux réseaux de neurones (RCP208)¶
Ce site regroupe les supports écrits du cours « RCP208 – Apprentissage statistique : modélisation descriptive et introduction aux réseaux de neurones » (ou, en version abrégée, Apprentissage statistique 1) du Cnam Paris. Cette unité d’enseignement présente les méthodes d’analyse de données qualitatives et quantitatives telles que l’analyse en composantes principales, le clustering ou la sélection de variables. Elle présente également une introduction aux réseaux de neurones artificiels. Les prérequis du cours et les modalités d’enseignement sont détaillés dans le préambule.
- Préambule
- Installation de scikit-learn
- Cours - Introduction
- Travaux pratiques - Introduction à Python
- Travaux pratiques - Introduction à Scikit-learn
- Cours - Méthodes factorielles
- Analyse en composantes principales
- Un exemple : feuilles d’arbres
- Analyse en composantes principales : données, objectifs
- ACP : solution
- ACP : relations entre les deux analyses
- ACP : aides à l’interprétation
- ACP : règles d’interprétation
- ACP : choix du nombre d’axes
- ACP : observations et variables supplémentaires
- Exemple : données « textures »
- Analyse des correspondances
- Un exemple : notes élevées ou faibles à deux matières
- Analyse factorielle des correspondances
- Un autre exemple : l’utilisation d’Internet
- Analyse factorielle des correspondances binaires (AFCB)
- AFCB : analyse des profils-lignes et des profils-colonnes
- AFCB : relation entre analyses, interprétation
- Analyse des correspondances multiples (ACM)
- ACM : exemple
- ACM : solution et interprétation
- ACM : inclusion de variables quantitatives
- Analyse factorielle discriminante (AFD)
- Analyse en composantes principales
- Travaux pratiques - Analyse en composantes principales
- Travaux pratiques - Analyse factorielle discriminante
- Cours - Classification automatique
- Travaux pratiques - K-means
- Travaux pratiques - DBSCAN
- Cours - Estimation de densité
- Estimation non paramétrique
- Estimation paramétrique
- Estimation par une loi normale unidimensionnelle
- Estimation par une loi normale multidimensionnelle
- Modèles de mélange
- Algorithme EM
- EM pour modèle de mélange
- EM pour mélange gaussien
- Choix du nombre de composantes
- Critère d’information d’Akaike
- Critère d’information bayésien
- Paramétrique ou non paramétrique ?
- Travaux pratiques - Estimation de densité par noyaux
- Travaux pratiques - Modèles de mélange
- Cours - Réduction de dimension
- Travaux pratiques - t-SNE
- Travaux pratiques - UMAP
- Cours - Données manquantes
- Travaux pratiques - Données manquantes
- L’imputation dans Scikit-learn
- Imputation par une valeur unique, pour des données générées
- Imputation par le centre du groupe, pour des données générées
- Imputation par les k plus proches voisins, pour des données générées
- Imputation itérative
- Imputation pour les données « textures » projetées sur les 2 premiers axes principaux
- Cours - Sélection de variables
- Travaux pratiques - Sélection de variables
- Cours - Réseaux de neurones multicouches
- Travaux pratiques - Réseaux de neurones multicouches (1)
- Travaux pratiques - Réseaux de neurones multicouches (2)
- Travaux pratiques - Réseaux de neurones multicouches (3)