Daily Archives: enero 4th, 2016

El Índice de Correlación Intraclase en SPSS (ICC). (Consistencia o Acuerdo Absoluto)

enero 4th, 2016 Posted by Estadística, Qvision Academy 0 comments on “El Índice de Correlación Intraclase en SPSS (ICC). (Consistencia o Acuerdo Absoluto)”

Si recuperamos el concepto de Fiabilidad como ratio entre varianzas que vimos en el artículo «Fiabilidad de Instrumentos. Introducción estadística a las Fuentes de Variabilidad» podemos comprobar la relación que tiene el Índice de Correlación Intraclase (ICC) con este concepto.

R = σp2 [1]

σp2+ σerror2

El ICC mide el grado de acuerdo o consitencia entre medidas cuya varianza puede ser atribuida a:

  • Variaciones entre experimentadores, cuando dos experimentadores realizan medidas sobre una misma muestra.
  • Entre instrumentos, cuando se emplean dos instrumentos de medida sobre una misma muestra.
  • Cuando se realizan medidas con un mismo instrumento en distintos momentos del tiempo.

En la ecuación 2 podemos visualizar una nueva varianza (σo)2 que forma parte del error de varianza (σerror)2 definida en la ecuación 1 y que es atribuible a cualquiera de los casos anteriores dependiendo del experimento que nos encontremos realizando. La varianza del error experimental (σerror)2 ha sido descompuesta en (σo)2 y la varianza residual (σresidual)2 que es debida a la interacción entre (σo)2 y (σp)2. Aplicando el ICC nos encontraremos como resultado un coeficiente que variará entre 0 y 1. Cuando el error debido a la variabilidad entre experimentadores, instrumentos, etc. sea muy pequeño. La variabilidad será atribuida exclusivamente a nuestra población o muestra, con lo cual nos encontraremos con un resultado FIABLE.

ICCacuerdo absoluto = σp2 [2]
σp2+ σo2 + σ2residual
ICCConsistencia = σp2 [3]
σp+ σ2residual

En este punto es importante diferenciar entre el Concepto de CONSISTENCIA y ACUERDO ABSOLUTO del ICC. En la CONSISTENCIA tan solo es considerado el error residual (σresidual)2 como parte del error de varianza. Un ejemplo sería visible si dos instrumentos de evaluación de la presión intraocular (PIO) ordenan de la misma forma a un conjunto de pacientes. Aunque sus valores no sean exactamente idénticos, serán CONSISTENTES si ordenan a la población de la misma forma, es decir, de los que tienen una menor PIO a los que tienen un valor mayor.

El ICC de CONSISTENCIA es el que menos se suele utilizar, generalmente nos interesa saber si dos instrumentos miden exactamente el mismo valor. Este es el denominado ACUERDO ABSOLUTO. En este caso (σerror)2 = (σo)2 + (σresidual)2.

Un aspecto más a tener en cuenta es, si queremos extrapolar nuestros resultados no solo a los examinadores implicados en el experimento «Efectos Mixtos», sino también a cualquier otro examinador «Efectos Aleatorios». Esta opción debe ser seleccionada en SPSS dependiendo de las conclusiones que deseemos obtener en nuestro experimento.

Otra opción que ofrece SPSS y que no es prácticamente utilizada «Un Factor, Efectos Aleatorios». Esta opción se emplea cuando obtenemos resultados de dos procedimientos que son intercambiables. Por ejemplo, tomamos dos medidas sin importar el orden en el cual se han realizado. Bien por que lo desconozcamos o bien porque seamos totalmente conscientes de que no influyen en el resultado de nuestro experimento.

Teniendo en cuenta que la mayoría de la bibliografía no suele describir de manera completa el correcto uso de los ICC para distintos experimentos es aconsejable en nuestra redacción científica reflejar el tipo de ICC utilizado según la clasificación de Shrout & Fleiss:

Tipos de ICC
Clasificación Shrout and Fleiss Nomenclatura en SPSS
ICC(1,1) One-way random single measures
ICC(1,k) One-way random average measures
ICC(2,1) Two-way random single measures (Consistency/Absolute agreement)
ICC(2,k) Two-way random average measures (Consistency/Absolute agreement)
ICC(3,1) Two-way mixed single measures (Consistency/Absolute agreement)
ICC(3,k) Two-way mixed average measures (Consistency/Absolute agreement)

Ejemplo de Papers donde se utiliza el ICC.

Referencias

  • Shrout, P. E., & Fleiss, J. L. (1979). Intraclass correlations: uses in assessing rater reliability. Psychological bulletin, 86(2), 420-8.
  • Weir, J. P. (2005). Quantifying test-retest reliability using the intraclass correlation coefficient and the SEM. Journal of strength and conditioning research / National Strength & Conditioning Association, 19(1), 231-40.

Puedes realizar cualquier consulta a través de nuestro Facebook
Captura de pantalla 2013-07-06 a las 21.31.45