Interprétabilité des modèles de machine learning (en Python ou R)

D. Hainaut, PhD

Description

Les modèles de machine learning sont de puissants outils de prédiction mais sont perçus comme des boîtes noires souffrant d’un déficit d’interprétabilité. L’objectif de ce cours est de couvrir les techniques d’interprétabilité permettant de comprendre les relations entre les entrées et sorties de ces algorithmes.

La formation débute par une présentation des outils d’analyse globales tels que les graphes de dépendance, les permutations et les interactions. Nous enchaînons ensuite avec les méthodes locales par modèle agnostique et concluons avec l’approche de Shapley, basée sur la théorie des jeux. Le module peut être illustré soit en R (IML) ou en Python (Scikit learn). L’ensemble des codes étant fournis aux participants.

L’ensemble des codes étant fournis aux participants.

Programme

  1. Graphes de dépendance partielle

  2. Importance par permutation des caractéristiques

  3. Interactions de Friedman

  4. Modèle de substitution globale

  5. Explication locale par modèle agnostique (LIME)

  6. Valeurs de Shapley (SHAP)

Orateur

Donatien Hainaut

Donatien Hainaut

Conseiller Scientifique, Detralytics
Professeur, UCLouvain

Date : À la demande

Durée : 3h

Accréditation : 3CPD | 18PPC

Niveau : Tout

Compétences acquises

À l’issue de cette formation, les participants seront capables de :

  • Programmer et analyser des graphes de dépendance partielle;
  • De quantifier l’importance de chacune des variables;
  • De déterminer les facteurs significatifs conduisant une prédiction unique.

À propos de notre orateur

Donatien Hainaut

Dernière chance

Ne manquez pas notre prochain Lunch & Learn