Une méthode d'ensemble basée sur MOM pour la robustesse, le sous-échantillonnage et le réglage des hyperparamètres.

Auteurs
Date de publication
2020
Type de publication
Autre
Résumé Le réglage des hyperparamètres et la sélection de modèles sont des étapes importantes de l'apprentissage automatique. Malheureusement, les procédures classiques de calibration des hyperparamètres et de sélection des modèles sont sensibles aux valeurs aberrantes et aux données à forte queue. Dans ce travail, nous construisons une procédure de sélection qui peut être considérée comme une alternative robuste à la validation croisée et qui est basée sur le principe de la médiane des moyennes. En utilisant cette procédure, nous construisons également une méthode d'ensemble qui, entraînée avec des algorithmes et des données corrompues à queue lourde, sélectionne un algorithme, l'entraîne avec un grand sous-échantillon non corrompu et règle automatiquement ses hyperparamètres. La construction s'appuie sur une méthodologie de division et de conquête, ce qui rend cette méthode facilement extensible pour l'autoML étant donné une base de données corrompue. Cette méthode est testée avec le LASSO qui est connu pour être très sensible aux valeurs aberrantes.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr