Quelques propriétés de la variance d'un échantillon.

Auteurs Date de publication
2019
Type de publication
Autre
Résumé Un résultat fondamental est que la variance d'échantillon pour des observations i.i.d. est un estimateur sans biais de la variance de la distribution sous-jacente (voir par exemple Casella et Berger (2002)). Un autre résultat est que la variance de la variance de l'échantillon est minimale par rapport à tout autre estimateur sans biais (voir Halmos (1946)). Mais que se passe-t-il si les observations ne sont ni indépendantes ni identiquement distribuées. Que pouvons-nous dire ? Pouvons-nous en particulier calculer explicitement les deux premiers moments de la moyenne de l'échantillon et donc généraliser les formules fournies dans Tukey (1957a), Tukey (1957b) pour les deux premiers moments de la variance de l'échantillon ? Nous savons également que la moyenne et la variance de l'échantillon sont indépendantes si elles sont calculées sur une distribution normale i.i.d.. C'est l'une des hypothèses sous-jacentes à la distribution de Student alias W. S. Gosset (1908). Mais ce résultat est-il valable pour toute autre distribution sous-jacente ? Peut-on encore avoir une moyenne et une variance d'échantillon indépendantes si la distribution n'est pas normale ? Cet article répond précisément à ces questions et étend les travaux précédents de Cho, Cho et Eltinge (2004). Nous sommes en mesure de dériver une formule générale pour les deux premiers moments et la variance de la variance d'échantillon sans hypothèses spécifiques. Nous fournissons également une preuve plus rapide d'un résultat fondamental de Lukacs (1942) en utilisant la fonction caractéristique logarithmique de l'estimateur sans biais de la variance d'échantillon.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr