Bornes de généralisation pour la régression non paramétrique avec des échantillons β-mixtes.

Auteurs
Date de publication
2021
Type de publication
Autre
Résumé Dans cet article, nous présentons une série de résultats qui permettent d'étendre de manière directe les inégalités de déviation uniformes du processus empirique du cas indépendant au cas dépendant caractérisant l'erreur supplémentaire en termes de coefficients de mélange bêta associés à l'échantillon d'apprentissage. Nous appliquons ensuite ces résultats à certaines inégalités obtenues précédemment pour les échantillons indépendants associés à la déviation de l'erreur des moindres carrés dans la régression non paramétrique afin de dériver des limites de généralisation correspondantes pour les schémas de régression dans lesquels l'échantillon d'apprentissage peut ne pas être indépendant. Ces résultats fournissent un cadre pour analyser l'erreur associée aux schémas de régression dont l'échantillon d'entraînement provient d'une grande classe de séquences β-mixtes, y compris les échantillons de Markov géométriquement ergodiques, en utilisant uniquement le cas indépendant. Plus généralement, ils permettent une extension significative de la théorie de Vapnik-Chervonenkis et des théories similaires pour les échantillons d'entraînement indépendants à cette classe d'échantillons β-mixtes.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr