Classification robuste via la minimisation de la MOM.

Auteurs
Date de publication
2018
Type de publication
Autre
Résumé Nous présentons une extension du classique minimiseur de risque empirique (ERM) de Vapnik où le risque empirique est remplacé par un estimateur de la médiane des moyennes (MOM), les nouveaux estimateurs sont appelés minimiseurs MOM. Alors que l'ERM est sensible à la corruption de l'ensemble de données pour de nombreuses fonctions de perte classiques utilisées dans la classification, nous montrons que les minimiseurs MOM se comportent bien en théorie, en ce sens qu'ils atteignent les taux de convergence (lents) de Vapnik sous de faibles hypothèses : les données doivent seulement avoir un second moment fini et certaines valeurs aberrantes peuvent également avoir corrompu l'ensemble de données. Nous proposons un algorithme inspiré des minimiseurs MOM. Ces algorithmes peuvent être analysés à l'aide d'arguments assez similaires à ceux utilisés pour la descente de gradient en bloc stochastique. Comme preuve de concept, nous montrons comment modifier une preuve de cohérence pour un algorithme de descente afin de prouver la cohérence de sa version MOM. Comme les algorithmes MOM effectuent un sous-échantillonnage intelligent, notre procédure peut également aider à réduire considérablement le temps de calcul et les ressources mémoire lorsqu'elle est appliquée à des algorithmes non linéaires. Ces performances empiriques sont illustrées sur des jeux de données simulés et réels.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr