Apprentissage statistique robuste avec fonctions de perte Lipschitz et convexes.

Auteurs
Date de publication
2019
Type de publication
Article de journal
Résumé Nous obtenons des limites de risque pour les estimateurs Empirical Risk Minimizers (ERM) et Median-Of-Means (MOM) minmax basés sur des fonctions de perte qui sont à la fois Lipschitz et convexes. Les résultats pour l'ERM sont dérivés sans hypothèses sur les sorties et sous des hypothèses subgaussiennes sur le plan et une nouvelle "hypothèse locale de Bernstein" sur la classe de prédicteurs. Des résultats similaires sont montrés pour les estimateurs MOM minmax dans un cadre proche où le plan est seulement supposé satisfaire les hypothèses de moment, relaxant l'hypothèse subgaussienne nécessaire pour l'ERM. L'analyse des estimateurs MOM minmax n'est pas basée sur l'hypothèse de la petite boule (SBA) comme c'était le cas dans la première analyse des estimateurs MOM minmax. En particulier, l'exemple de base des statistiques non paramétriques où la classe d'apprentissage est l'étendue linéaire des bases localisées, qui ne satisfait pas l'hypothèse de la petite boule, peut maintenant être traité. Enfin, les estimateurs MOM minmax sont analysés dans un cadre où la condition locale de Bernstein est également abandonnée. On montre qu'il est possible d'obtenir une inégalité d'oracle avec une probabilité exponentiellement grande sous des hypothèses minimales assurant l'existence de tous les objets.
Éditeur
Springer Verlag
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr