Formation en 2 jours

Objectifs

  • S’approprier un cadre théorique pour la réduction de dimension simple, supervisée et non linéaire.
  • Comprendre les algorithmes de l’analyse en composantes principales,de la régression inverse par tranches et des modèles auto-associatifs.

TARIFS*

  • Industriel : 1500 €
  • Chercheur : 1275 €
  • Étudiant : 750 €

 

Pré-requis

  • Bonnes connaissances en algèbre

PUBLIC

  • Ingénieur
  • Chercheur

Modalités d’évaluation

  • Questionnaire et exercices sur papier.

 

Prochaines sessions

  • 8 au 9 octobre 2024
  • 18 au 19 décembre 2024

LIEU

Paris, Salle Solferino


RESPONSABLE

Sylvain GIRARD

*Retrouvez toutes les informations dans le catalogue des formations disponible ici. En cas de formation en présentiel, le déjeuner est compris dans le tarif.

 

Programme

  • Étape 1 [Matinée 1] : Motiver la démarche et poser le cadre
    • La grande dimension provient de la complexité ou du caractère fonctionnelle
    • Problèmes directs, inverses et «locaux»
    • Qu’est-ce au juste que la dimension d’un ensemble ? Distinguer la dimension «linéaire» de la dimension topologique.
    • Rudiments sur les variétés différentielles
  • Étape 2 [Matinée 1] : S’approprier les outils fondamentaux
    • Recherche de direction optimale ou préservant une propriété
    • Décomposition aux valeurs singulières (SVD, pour *singular value decomposition*)
    • Métriques et voisins
  • Étape 3 [Matinée et après-midi 1] : Maîtriser la réduction de dimension linéaire simple
    • Analyse en composante principales (*proper orthogonal decomposition*, décomposition de Karuhnen-Loève…)
    • Comparer les différents points de vue : statistique, algébrique, analytique, géométrique, topologique.
    • Exercices pratiques
    • Cerner les limites de réduction de dimension linéaire simple
  • Étape 4 [Après-midi 1 et Matinée 2] : Comprendre la supervision de la réduction de dimension
    • Compression de donnée et régression : des finalités (et des moyens) différents
    • Régression inverse par tranche (SIR, pour *sliced inverse regression*)
    • Exercices pratiques
    • Projection préservant une topologie (TIP, pour *Topology Invariant Projection*)
    • Réduction «auto-supervisée»
  • Étape 5 [Matinée 2] : Introduire la non-linéarité par des fonctions de rattrapage
    • Modèle auto-associatif (AAM)
    • État de l’art et limites connues
    • Exercices pratiques
  • Étape 6 [Après-midi 2] : Introduire la non-linéarité par le «tranchage»
    • Retour sur la SIR, parallèle avec les splines
    • Un tranchage supervisé : les arbres et forêt aléatoires
    • Forêt de réduction de dimension
  • Étape 7 [Après-midi 2] : Situer la réduction de dimension par rapport aux réseaux de neurones
    • Similitude de raisonnement d’ensemble et différences fondamentales
    • Parallèle avec les auto-encodeurs
    • Vers des méthodes hybrides ?

Demande d'inscription

Contactez-nous via le formulaire ou par mail à formations@phimeca.com. Des formations personnalisées peuvent également être proposées. Le lieu de la formation est susceptible d'être modifié. Nos formations peuvent, pour la plupart, être réalisées à distance. Une fois votre demande d'inscription envoyée, l'un de nos formateurs vous recontactera pour préciser vos besoins et adapter la formation. Nos formations sont accessibles aux personnes en situation de handicap. N'hésitez pas à nous faire part de votre situation dans le formulaire ci-dessous.



    ou





    Les informations suivantes sont récupérées dans la finalité suivante : gestion de la relation commerciale.
    Phimeca s’engage à respecter la réglementation en vigueur applicable au traitement de données à caractère personnel et, en particulier, le règlement (UE) 2016/679 du Parlement européen du 27 avril 2016 applicable à compter du 25 mai 2018 (« le règlement européen sur la protection des données » ou RGPD).
    Vous avez un droit de rétraction et vous pouvez écrire à dpo@phimeca.com