Comment expliquer que l’IA vient de refuser un prêt à mon client ? 🤔

Comment éviter de se retrouver à justifier la décision faite par un modèle par « c’est impossible, l’ordinateur ne veut pas » ?

Certains modèles de Machine Learning, by design, sont des « boîtes noires ». C’est le cas notamment des réseaux de neurones 🧠
Il n’est donc pas possible d’expliquer, à partir de leur conception, le résultat qu’ils ont fourni.

Cependant, que ce soit d’un point de vue humain, business ou même réglementaire (RGPD oblige), nous avons l’obligation
d’expliquer comment le modèle a pris une décision ! Mais comment expliquer un modèle qui par conception n’est pas explicable ? 🤷‍♂️

Dans cette vidéo, deux Data Scientists de DataFab apportent des réponses à cette question.
  • Qu’est-ce qu’un modèle et pourquoi en avons-nous besoin ?
  • Qu’est-ce que l’interprétabilité des modèles ?
  • Quelles sont les différentes méthodes d’explicatibilité ?

 

Qu’en pensez-vous ? Quels sont vos besoins ou vos autres propositions pour expliquer les modèles ?

Posez vos questions ou ajoutez vos commentaires 💬