Les modèles de machine learning sont de puissants outils de prédiction mais sont perçus comme des boîtes noires souffrant d’un déficit d’interprétabilité. L’objectif de ce cours est de couvrir les techniques d’interprétabilité permettant de comprendre les relations entre les entrées et sorties de ces algorithmes.
La formation débute par une présentation des outils d’analyse globales tels que les graphes de dépendance, les permutations et les interactions. Nous enchaînons ensuite avec les méthodes locales par modèle agnostique et concluons avec l’approche de Shapley, basée sur la théorie des jeux. Le module peut être illustré soit en R (IML) ou en Python (Scikit learn). L’ensemble des codes étant fournis aux participants.
L’ensemble des codes étant fournis aux participants.
Graphes de dépendance partielle
Importance par permutation des caractéristiques
Interactions de Friedman
Modèle de substitution globale
Explication locale par modèle agnostique (LIME)
Valeurs de Shapley (SHAP)
Conseiller Scientifique, Detralytics
Professeur, UCLouvain
Date : À la demande
Durée : 3h
Accréditation : 3CPD | 18PPC
Niveau : Tout
À l’issue de cette formation, les participants seront capables de :
Donatien Hainaut est Conseiller Scientifique chez Detralytics et Professeur à l’UCLouvain (Belgique), où il dirige le Master en Data Science à orientation statistique. Auparavant, il a occupé plusieurs postes académiques, notamment en tant que Professeur Associé à la Rennes School of Business et à l’ENSAE à Paris. Il possède également une solide expérience en entreprise, ayant travaillé comme Risk Officer, Quantitative Analyst et ALM Officer.
Actuaire qualifié et titulaire d’un doctorat en Asset and Liability Management, ses recherches actuelles portent sur les mécanismes de contagion dans les processus stochastiques ainsi que sur les applications des réseaux de neurones en assurance.