Mesures de la dépendance entre les vecteurs aléatoires et tests d'indépendance.

Auteurs
Date de publication
2013
Type de publication
Autre
Résumé Le simple coefficient de corrélation entre deux variables a été plusieurs fois généralisé aux mesures d'association entre deux matrices. Des coefficients tels que le coefficient RV, le coefficient de covariance de distance (dCov) ou le critère d'information de Hilbert Schmidt (HSIC) ont tous été adoptés par différentes communautés. Les scientifiques utilisent également des tests pour mesurer si deux variables aléatoires sont liées et interprètent ensuite les coefficients dans leur contexte. De nombreuses branches de la science ont actuellement besoin de mesures d'association multivoie. L'objectif de cet article est de fournir un petit état de l'art sur le sujet des mesures de dépendance entre les vecteurs aléatoires et les tests d'indépendance et de montrer les liens entre les différentes approches. Nous documentons certaines des redécouvertes intéressantes et le manque d'interconnexion entre les corps de la littérature. Cette revue commence par un bref historique des tests de randomisation utilisant des matrices de distance et quelques exemples motivants. Nous donnons ensuite une définition des coefficients et des tests associés. Enfin, nous passons en revue quelques-unes des modifications récentes qui ont été proposées et qui offrent des propriétés améliorées et facilitent l'interprétation, ainsi que certaines orientations prospectives pour les recherches futures.
Thématiques de la publication
  • ...
  • Pas de thématiques identifiées
Thématiques détectées par scanR à partir des publications retrouvées. Pour plus d’informations, voir https://scanr.enseignementsup-recherche.gouv.fr