Corrélation de Spearman

Cet article est une ébauche concernant les mathématiques.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Corrélation de Spearman
Relation parfaitement monotone mais non linéaire. Dans ce cas la corrélation de Spearman est de 1 mais la corrélation de Pearson (linéaire) n'est pas parfaite.
Type
Coefficient de corrélation (en), statistiqueVoir et modifier les données sur Wikidata
Nommé en référence à
Charles SpearmanVoir et modifier les données sur Wikidata
Formule
r s = ρ rg X , rg Y = cov ( rg X , rg Y ) σ rg X σ rg Y {\displaystyle r_{s}=\rho _{\operatorname {rg} _{X},\operatorname {rg} _{Y}}={\frac {\operatorname {cov} (\operatorname {rg} _{X},\operatorname {rg} _{Y})}{\sigma _{\operatorname {rg} _{X}}\sigma _{\operatorname {rg} _{Y}}}}} Voir et modifier les données sur Wikidata

modifier - modifier le code - modifier WikidataDocumentation du modèle

En statistique, la corrélation de Spearman ou rho de Spearman, nommée d'après Charles Spearman (1863-1945) et souvent notée par la lettre grecque ρ {\displaystyle \rho } (rho) ou r s {\displaystyle r_{s}} est une mesure de dépendance statistique non paramétrique entre deux variables.

La corrélation de Spearman est étudiée lorsque deux variables statistiques semblent corrélées sans que la relation entre les deux variables soit de type affine. Elle consiste à trouver un coefficient de corrélation, non pas entre les valeurs prises par les deux variables mais entre les rangs de ces valeurs. Elle estime à quel point la relation entre deux variables peut être décrite par une fonction monotone. S'il n'y a pas de données répétées, une corrélation de Spearman parfaite de +1 ou -1 est obtenue quand l'une des variables est une fonction monotone parfaite de l'autre.

Définition

Pour un échantillon de taille n, les variables de rang rg X i , rg Y i {\displaystyle \operatorname {rg} X_{i},\operatorname {rg} Y_{i}} sont calculées à partir des données X i , Y i {\displaystyle X_{i},Y_{i}} .

La corrélation de Spearman est définie par :

r s = cov ( rg X , rg Y ) σ rg X σ r g Y {\displaystyle r_{s}={\frac {\operatorname {cov} (\operatorname {rg} _{X},\operatorname {rg} _{Y})}{\sigma _{\operatorname {rg} _{X}}\sigma _{rg_{Y}}}}}

  • cov ( rg X , rg Y ) {\displaystyle \operatorname {cov} (\operatorname {rg} _{X},\operatorname {rg} _{Y})} est la covariance de variables de rang,
  • σ rg X {\displaystyle \sigma _{\operatorname {rg} _{X}}} et σ rg Y {\displaystyle \sigma _{\operatorname {rg} _{Y}}} sont les écarts-types des variables de rang.

On constate que cette définition correspond à la corrélation de Pearson des variables de rang.

Interprétation

Le coefficient de Spearman permet de détecter des tendances monotones. Lorsque la tendance est affine, il se comporte de façon similaire au coefficient de Pearson. En revanche, il sera plus élevé que la corrélation de Pearson si la tendance est monotone mais non affine. Plus la tendance monotone est marquée, plus la valeur du coefficient est proche de 1 ou -1.

De façon similaire au coefficient de Pearson, le coefficient de Spearman aura une valeur positive lorsque la tendance est croissante et négative lorsqu'elle est décroissante.

Lorsque la tendance n'est pas monotone, il aura une valeur proche de 0.

Contrairement au coefficient de Pearson, le coefficient de Spearman est robuste : l'impact d'éventuelles données aberrantes sur sa valeur est limité.

Notes et références

Voir aussi

  • Corrélation (statistiques)
  • Un autre test de corrélation basé sur les rangs est le Tau de Kendall
v · m
Tests statistiques
Tests de comparaison d'une seule variable
Pour un échantillon
Pour deux échantillons
Pour 3 échantillons ou plus
Tests de comparaison de deux variables
Deux variables quantitatives : Tests de corrélation
Deux variables qualitatives
Plus de deux variables
Tests d'adéquation à une loi
Tests d'appartenance à une famille de lois
Autres tests
v · m
Index du projet probabilités et statistiques
Théorie des probabilités
Bases théoriques
Principes généraux
Convergence de lois
Calcul stochastique
Lois de probabilité
Lois continues
Lois discrètes
Mélange entre statistiques et probabilités
Interprétations de la probabilité
Théorie des statistiques
Statistiques descriptives
Bases théoriques
Tableaux
Visualisation de données
Paramètres de position
Paramètres de dispersion
Paramètres de forme
Statistiques inductives
Bases théoriques
Tests paramétriques
Tests non-paramétriques
Application
  • icône décorative Portail des probabilités et de la statistique