Sur l'approximation des quantiles extrêmes avec les réseaux neuronaux ReLU.

Auteurs
Date de publication
2021
Type de publication
Article de conférence
Résumé Les réseaux de neurones à action directe basés sur des unités linéaires rectifiées (ReLU) ne peuvent pas approximer efficacement les fonctions quantiles qui ne sont pas limitées dans le domaine d'attraction du maximum de Fréchet. Nous proposons donc une nouvelle paramétrisation pour le générateur d'un réseau adversarial génératif (GAN) adapté à ce cadre de distributions à queue lourde. Nous fournissons une analyse de l'erreur uniforme entre le quantile extrême et son approximation GAN. Il apparaît que le taux de convergence de l'erreur est principalement déterminé par le paramètre de second ordre de la distribution des données. Les résultats ci-dessus sont illustrés sur des données simulées et des données financières réelles.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr