Apprentissage actif basé sur la discrépance pour l'adaptation au domaine.

Auteurs
Date de publication
2021
Type de publication
Autre
Résumé L'objectif de cet article est de concevoir des stratégies d'apprentissage actif qui conduisent à une adaptation au domaine sous l'hypothèse d'un changement de domaine dans le cas d'une fonction d'étiquetage Lipschitz. En s'appuyant sur les travaux antérieurs de Mansour et al. (2009), nous adaptons le concept de distance de divergence entre les distributions source et cible pour restreindre la maximisation sur la classe d'hypothèses à une classe localisée de fonctions qui effectuent un étiquetage précis sur le domaine source. Nous dérivons des limites d'erreur de généralisation pour de telles stratégies d'apprentissage actif en termes de moyenne de Rademacher et de divergence localisée pour des fonctions de perte générales qui satisfont une condition de régularité. Des algorithmes pratiques sont déduits des limites théoriques, l'un est basé sur l'optimisation gloutonne et l'autre est un algorithme K-medoids. Nous fournissons également des versions améliorées des algorithmes pour traiter le cas des grands ensembles de données. Ces algorithmes sont compétitifs par rapport aux autres techniques d'apprentissage actif de pointe dans le contexte de l'adaptation au domaine, comme le montrent nos expériences numériques, en particulier sur de grands ensembles de données d'environ cent mille images.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr