Une note sur l'interprétabilité des algorithmes d'apprentissage automatique.

Auteurs Date de publication
2020
Type de publication
Autre
Résumé Nous nous intéressons à l'analyse du concept d'interprétabilité associé à un algorithme ML. Nous distinguons le "Comment", c'est-à-dire comment fonctionne une boîte noire ou un algorithme très complexe, du "Pourquoi", c'est-à-dire pourquoi un algorithme produit tel résultat. Ces questions intéressent de nombreux acteurs, utilisateurs, professions, régulateurs, entre autres. En utilisant un cadre formel standardisé, nous indiquons les solutions qui existent en précisant quels éléments de la chaîne d'approvisionnement sont impactés lorsque nous apportons des réponses aux questions précédentes. Cette présentation, en standardisant les notations, permet de comparer les différentes approches et de mettre en évidence les spécificités de chacune d'entre elles : tant leur objectif que leur processus. L'étude n'est pas exhaustive et le sujet est loin d'être clos.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr