Formation en 2 jours
- S’approprier un cadre théorique pour la réduction de dimension simple, supervisée et non linéaire.
- Comprendre les algorithmes de l’analyse en composantes principales,de la régression inverse par tranches et des modèles auto-associatifs.
TARIFS*
- Industriel : 1500 €
- Chercheur : 1275 €
- Étudiant : 750 €
- Bonnes connaissances en algèbre
PUBLIC
- Ingénieur
- Chercheur
Modalités d’évaluation
- Questionnaire et exercices sur papier.
- 8 au 9 octobre 2024
- 18 au 19 décembre 2024
LIEU
Paris, Salle Solferino
RESPONSABLE
Sylvain GIRARD
*Retrouvez toutes les informations dans le catalogue des formations disponible ici. En cas de formation en présentiel, le déjeuner est compris dans le tarif.
Programme
- Étape 1 [Matinée 1] : Motiver la démarche et poser le cadre
- La grande dimension provient de la complexité ou du caractère fonctionnelle
- Problèmes directs, inverses et «locaux»
- Qu’est-ce au juste que la dimension d’un ensemble ? Distinguer la dimension «linéaire» de la dimension topologique.
- Rudiments sur les variétés différentielles
- Étape 2 [Matinée 1] : S’approprier les outils fondamentaux
- Recherche de direction optimale ou préservant une propriété
- Décomposition aux valeurs singulières (SVD, pour *singular value decomposition*)
- Métriques et voisins
- Étape 3 [Matinée et après-midi 1] : Maîtriser la réduction de dimension linéaire simple
- Analyse en composante principales (*proper orthogonal decomposition*, décomposition de Karuhnen-Loève…)
- Comparer les différents points de vue : statistique, algébrique, analytique, géométrique, topologique.
- Exercices pratiques
- Cerner les limites de réduction de dimension linéaire simple
- Étape 4 [Après-midi 1 et Matinée 2] : Comprendre la supervision de la réduction de dimension
- Compression de donnée et régression : des finalités (et des moyens) différents
- Régression inverse par tranche (SIR, pour *sliced inverse regression*)
- Exercices pratiques
- Projection préservant une topologie (TIP, pour *Topology Invariant Projection*)
- Réduction «auto-supervisée»
- Étape 5 [Matinée 2] : Introduire la non-linéarité par des fonctions de rattrapage
- Modèle auto-associatif (AAM)
- État de l’art et limites connues
- Exercices pratiques
- Étape 6 [Après-midi 2] : Introduire la non-linéarité par le «tranchage»
- Retour sur la SIR, parallèle avec les splines
- Un tranchage supervisé : les arbres et forêt aléatoires
- Forêt de réduction de dimension
- Étape 7 [Après-midi 2] : Situer la réduction de dimension par rapport aux réseaux de neurones
- Similitude de raisonnement d’ensemble et différences fondamentales
- Parallèle avec les auto-encodeurs
- Vers des méthodes hybrides ?
Demande d'inscription
Contactez-nous via le formulaire ou par mail à formations@phimeca.com. Des formations personnalisées peuvent également être proposées. Le lieu de la formation est susceptible d'être modifié. Nos formations peuvent, pour la plupart, être réalisées à distance. Une fois votre demande d'inscription envoyée, l'un de nos formateurs vous recontactera pour préciser vos besoins et adapter la formation. Nos formations sont accessibles aux personnes en situation de handicap. N'hésitez pas à nous faire part de votre situation dans le formulaire ci-dessous.