Posts in Qvision Academy

El Índice de Correlación Intraclase en SPSS (ICC). (Consistencia o Acuerdo Absoluto)

enero 4th, 2016 Posted by Estadística, Qvision Academy 0 comments on “El Índice de Correlación Intraclase en SPSS (ICC). (Consistencia o Acuerdo Absoluto)”

Si recuperamos el concepto de Fiabilidad como ratio entre varianzas que vimos en el artículo «Fiabilidad de Instrumentos. Introducción estadística a las Fuentes de Variabilidad» podemos comprobar la relación que tiene el Índice de Correlación Intraclase (ICC) con este concepto.

R = σp2 [1]

σp2+ σerror2

El ICC mide el grado de acuerdo o consitencia entre medidas cuya varianza puede ser atribuida a:

  • Variaciones entre experimentadores, cuando dos experimentadores realizan medidas sobre una misma muestra.
  • Entre instrumentos, cuando se emplean dos instrumentos de medida sobre una misma muestra.
  • Cuando se realizan medidas con un mismo instrumento en distintos momentos del tiempo.

En la ecuación 2 podemos visualizar una nueva varianza (σo)2 que forma parte del error de varianza (σerror)2 definida en la ecuación 1 y que es atribuible a cualquiera de los casos anteriores dependiendo del experimento que nos encontremos realizando. La varianza del error experimental (σerror)2 ha sido descompuesta en (σo)2 y la varianza residual (σresidual)2 que es debida a la interacción entre (σo)2 y (σp)2. Aplicando el ICC nos encontraremos como resultado un coeficiente que variará entre 0 y 1. Cuando el error debido a la variabilidad entre experimentadores, instrumentos, etc. sea muy pequeño. La variabilidad será atribuida exclusivamente a nuestra población o muestra, con lo cual nos encontraremos con un resultado FIABLE.

ICCacuerdo absoluto = σp2 [2]
σp2+ σo2 + σ2residual
ICCConsistencia = σp2 [3]
σp+ σ2residual

En este punto es importante diferenciar entre el Concepto de CONSISTENCIA y ACUERDO ABSOLUTO del ICC. En la CONSISTENCIA tan solo es considerado el error residual (σresidual)2 como parte del error de varianza. Un ejemplo sería visible si dos instrumentos de evaluación de la presión intraocular (PIO) ordenan de la misma forma a un conjunto de pacientes. Aunque sus valores no sean exactamente idénticos, serán CONSISTENTES si ordenan a la población de la misma forma, es decir, de los que tienen una menor PIO a los que tienen un valor mayor.

El ICC de CONSISTENCIA es el que menos se suele utilizar, generalmente nos interesa saber si dos instrumentos miden exactamente el mismo valor. Este es el denominado ACUERDO ABSOLUTO. En este caso (σerror)2 = (σo)2 + (σresidual)2.

Un aspecto más a tener en cuenta es, si queremos extrapolar nuestros resultados no solo a los examinadores implicados en el experimento «Efectos Mixtos», sino también a cualquier otro examinador «Efectos Aleatorios». Esta opción debe ser seleccionada en SPSS dependiendo de las conclusiones que deseemos obtener en nuestro experimento.

Otra opción que ofrece SPSS y que no es prácticamente utilizada «Un Factor, Efectos Aleatorios». Esta opción se emplea cuando obtenemos resultados de dos procedimientos que son intercambiables. Por ejemplo, tomamos dos medidas sin importar el orden en el cual se han realizado. Bien por que lo desconozcamos o bien porque seamos totalmente conscientes de que no influyen en el resultado de nuestro experimento.

Teniendo en cuenta que la mayoría de la bibliografía no suele describir de manera completa el correcto uso de los ICC para distintos experimentos es aconsejable en nuestra redacción científica reflejar el tipo de ICC utilizado según la clasificación de Shrout & Fleiss:

Tipos de ICC
Clasificación Shrout and Fleiss Nomenclatura en SPSS
ICC(1,1) One-way random single measures
ICC(1,k) One-way random average measures
ICC(2,1) Two-way random single measures (Consistency/Absolute agreement)
ICC(2,k) Two-way random average measures (Consistency/Absolute agreement)
ICC(3,1) Two-way mixed single measures (Consistency/Absolute agreement)
ICC(3,k) Two-way mixed average measures (Consistency/Absolute agreement)

Ejemplo de Papers donde se utiliza el ICC.

Referencias

  • Shrout, P. E., & Fleiss, J. L. (1979). Intraclass correlations: uses in assessing rater reliability. Psychological bulletin, 86(2), 420-8.
  • Weir, J. P. (2005). Quantifying test-retest reliability using the intraclass correlation coefficient and the SEM. Journal of strength and conditioning research / National Strength & Conditioning Association, 19(1), 231-40.

Puedes realizar cualquier consulta a través de nuestro Facebook
Captura de pantalla 2013-07-06 a las 21.31.45

Fiabilidad de Instrumentos. Introducción estadística a las Fuentes de Variabilidad

diciembre 21st, 2015 Posted by Estadística 1 comment on “Fiabilidad de Instrumentos. Introducción estadística a las Fuentes de Variabilidad”
Definición de Fiabilidad

Todos los instrumentos de medición con los que habitualmente trabajamos en clínica se encuentran sometidos a varias fuentes de error que engloban la actuación del clínico, la precisión del instrumento de medida, las características biológicas del objeto a medir, etc. La variabilidad se encuentra presente en nuestro día a día y los métodos estadísticos nos ayudan a entender las distintas fuentes de variabilidad tras la medida de cualquier muestra.

En el siguiente artículo vamos a intentar enlazar fórmulas estadísticas con conceptos de la práctica real para que sean fácilmente comprendidos por el lector y que servirán de base para futuros artículos en los que explicaremos qué es el Índice de Correlación Intraclase y como se aplica en Ciencias de la Visión. Partiremos del concepto de Varianza (σ2), que es una medida de dispersión y representa el cuadrado de la desviación de una muestra con respecto a su media. El concepto de varianza será el que emplearemos en la valoración de la Fiabilidad de un instrumento partiendo de la Teoría Clásica de los Test (CTT, Clasical Test Theory) proveniente de la Psicometría. Esta teoría sostiene que cualquier medición (Y) es el resultado de sumar el valor real de aquello que queremos medir (η) y un error aleatorio (ε) (Ecuación 1). La CTT requiere de ciertos axiomas que deben ser tenidos en cuenta.

Y = η * ε

[1]

Midamos lo que midamos siempre vamos a sufrir cierto error que dependerá de forma aleatoria de variables como: el instrumento, la manipulación, el sujeto evaluado, etc. Un instrumento FIABLE será aquel cuyo ERROR ALEATORIO sea lo suficientemente pequeño como para que nos permita diferenciar entre los distintos elementos que componen nuestra muestra. El error aleatorio es todo error que no podemos controlar, por ejemplo puede que estemos midiendo la agudeza visual a un paciente que se encuentra cansado y a otro que se encuentra muy activo y colaborador. Los dos pueden tener la misma agudeza visual y aún así nuestro resultado sea diferente debido al error originado por el cansancio de uno de los pacientes, el cansancio será por lo tanto el error aleatorio. No obstante, nuestro test será adecuado cuando este cansancio no afecte en gran medida a la agudeza visual como para hacernos creer que el paciente tiene una determinada afección visual. No obstante, este error aleatorio (cansancio) puede tener mayor importancia cuando hacemos una campimetría clasificándonos el paciente con la presencia de alguna anomalía que ha sido resultado simplemente de una falta de colaboración.

De manera equivalente podemos decir que la varianza en nuestras medidas será la suma de varianzas propias de nuestra muestra y de las varianzas debidas al error de medida (Ecuación 2). Si nosotros realizamos las medidas un número infinito de veces, llegará un momento que el promedio del error sea 0, siendo el valor medido igual al valor real. Evidentemente, no podemos realizar el experimento un número infinito de veces, por lo que tendremos que emplear estadísticos que nos ayuden a valorar como de Fiables son nuestros test en la Evaluación de una determinada Población.

σY = ση * σε

[2]

A partir de esta base podemos definir la Fiabilidad (Reliability) como un ratio de varianzas. La Fiabilidad (R) es el cociente entre la varianza (σp2) = (σy2) de nuestra muestra que llamaremos varianza poblacional (Ya que en la mayoría de los casos trabajaremos con personas) y la suma de varianzas propias a nuestra población más la varianza del error de medida. (σp22error). Un aspecto importante y que podemos deducir de la fórmula es que la Fiabilidad de nuestro instrumento dependerá de la Muestra que utilicemos, si hay pequeñas diferencias entre sujetos, un pequeño error de medida afectará de mayor forma a la Fiabilidad de nuestro instrumento que si utilizamos una muestra donde hayan mayores diferencias entre la población en tal caso el error del instrumento no afectará tanto a la fiabilidad (Ecuación 3).

R = σp2 [3]

σp2+ σerror2

En Ciencias de la Visión de manera general utilizaremos nuestros instrumentos de medida para diferenciar entre pacientes normales de aquellos que presentan una determinada característica, por ejemplo una patología, anomalía visual, etc. Nuestro instrumento será fiable siempre que el Error de Medida del instrumento no afecte la capacidad de detectar estas anomalías cometiendo errores como diagnosticar una patología cuando esta no esta presente o viceversa.

Puedes realizar cualquier consulta a través de nuestro Facebook

Captura de pantalla 2013-07-06 a las 21.31.45

Importancia de la Fiabilidad en la Práctica Clínica

diciembre 14th, 2015 Posted by Estadística 0 comments on “Importancia de la Fiabilidad en la Práctica Clínica”

En Ciencias de la Visión de manera general utilizaremos nuestros instrumentos de medida clínica para diferenciar entre pacientes normales de aquellos que presentan una determinada característica, por ejemplo una patología, anomalía visual, etc. Nuestro instrumento será fiable siempre que el Error de Medida del instrumento no afecte la capacidad de detectar estas anomalías cometiendo errores como diagnosticar una patología cuando esta no esta presente o viceversa.

Para que un instrumento sea FIABLE tiene que ser REPETIBLE, es decir, si repetimos la prueba en otro momento del tiempo los resultados tienen que ser los mismos o muy similares (variabilidad intra-experimendador). Además, este instrumento también debería dar resultados similares si es utilizado por dos clínicos diferentes que realizan la prueba en las mismas condiciones ambientales (variabilidad entre-experimendador).

En el ámbito de la Investigación Clínica existen casos evidentes de baja fiabilidad que pueden ocasionar errores de interpretación. Vamos a relatar el caso de un tratamiento de ambliopía llevado a cabo en un mismo centro por dos Clínicos que trabajan en diferentes gabinetes (A y B). Dependiendo del ajuste de citas y horarios, el paciente es referido en cada ocasión a uno de los dos Clínicos que aunque poseen el mismo test de gabinete y condiciones de iluminación idénticas, difieren en sus «criterios» de obtención del umbral de agudeza visual. Mientras que el Clínico A intenta motivar insistentemente al paciente a que resuelva los optotipos inclusive mediante intuición, el Clínico B es más conservador y no insiste cuando al paciente «le cuesta» resolver los detalles del test.

Tanto el Clínico A como el B se muestran confusos ante las continuas oscilaciones en la agudeza visual del paciente durante el tratamiento. Algo que parecía «inexplicable» es un error de procedimiento durante la simple valoración de la Agudeza Visual. Estos problemas han sido tratados en multitud de estudios científicos incorporando sistemas automatizados que eliminen los criterios subjetivos del examinador. Centrándose en métodos más repetibles, como en este caso particular, de obtención del umbral de agudeza visual. En conclusión, cualquier test o procedimiento clínico debe ser repetible con pequeños sesgos, bien sea entre Evaluadores, dentro de un mismo Evaluador o propios de un instrumento de medida.

Las fuentes de variabilidad que pueden influir en la fiabilidad son diversas, entre ellas:

  • Consistencia Interna (Internal Consistency). Es la variabilidad producida por el instrumento de medida.
  • Test-retest. Variabilidad aplicada por la medida en diferentes momentos del tiempo.
  • Inter-experimentador (Inter-rater). Realización de las medidas por distintos experimentadores en el mismo momento de tiempo.
  • Intra-experimentador (Intra-rater). El mismo experimentador en distintos momentos de tiempo.

Hemos de tener en cuenta que en la literatura podemos encontrar multitud de referencias para hablar de fiabilidad, como pueden ser: reproductibilidad (reproducibility), repetibilidad (repetibility), precisión (accuracy), variabilidad, consistencia, concordancia, estabilidad, acuerdo, etc.

Cualquier evaluación realizada con un instrumento de medida esta sometida a una fuente de variabilidad que produce que el resultado obtenido no sea el «Verdadero». Siendo este valor el promedio que se obtendría con el instrumento si el experiento se realizase un numero infinito de veces.

Puedes realizar cualquier consulta a través de nuestro Facebook
Captura de pantalla 2013-07-06 a las 21.31.45

Interpretación de los Gráficos de Caja en el Análisis Descriptivo e Inferencial.

marzo 30th, 2015 Posted by Estadística 14 comments on “Interpretación de los Gráficos de Caja en el Análisis Descriptivo e Inferencial.”

Curso Estadística Online en Ciencias de la Salud

Los gráficos de caja (Box Plots) fueron originalmente desarrollados por M.E. Spear, permiten conocer cómo se distribuyen los datos dentro de una variable. A diferencia de los histogramas que requieren un tamaño de muestra de al menos 30 casos para ser útiles, los gráficos de caja pueden ser construidos con tan solo 5 casos y aportan más detalles acerca de las colas de la distribución. Representan la información que se observa en la figura:

Diagrama de Caja (Fuente: Wikipedia)

  1. Mediana. Valor que deja a la mitad de los casos por encima y a la otra mitad por debajo.
  2. Primer Cuartil (Q1). El 25% de los casos se encuentran por debajo de este valor.
  3. Tercer Cuartil (Q3). El 75% de los casos se encuentran por encima de este valor.
  4. Rango Intercuartílico (RIC). Es la diferencia entre el tercer y el primer cuartil.
  5. Límites Superior o Inferior (Ls o Li). Ls contiene los casos por encima de Q3 más 1,5 veces el rango intercuartílico o Li por debajo de Q1 – 1,5xRIC (Estilo de Tukey). Cuando los valores no son posibles en lugar de emplear la aproximación anterior se escogen los valores máximo o mínimo de la muestra (Estilo de Spears).
  6. Los valores atípicos son aquellos que están más a allá de los límites inferior y superior. Cuando los valores atípicos están más allá de 3 veces el RIC en lugar del 1.5 son denominados valores extremos.

Los diagramas de caja son especialmente útiles cuando la distribución de una variable es asimétrica o se aleja de la distribución normal. En este tipo de casos interpretar una variable en función de su media o desviación estándar es un error puesto que estos estimadores no describen fielmente las características de nuestra muestra. En algunas ocasiones, cuando la muestra es lo suficientemente grande, se dibujan unas muescas dentro de los cuadrados que representan los intervalos de confianza al 95% para la mediana. Con estas muescas podemos evaluar si las diferencias entre dos variables son significativas si las muescas no se superponen entre ambas variables.

A la izquierda se muestra un gráfico de caja normal y a la derecha con muescas con las cuales realizar una interpretación inferencial.

A la izquierda se muestra un gráfico de caja normal y a la derecha con muescas con las cuales realizar una interpretación inferencial.

En el siguiente enlace puedes encontrar una herramienta online gratuita para dibujar tus propios diagramas de caja. http://boxplot.tyerslab.com/

Si quieres aprender estadística de forma práctica te aconsejamos nuestro curso online con más de 14 horas de videotutoriales y prácticas con SPSS.

Si tienes alguna pregunta, duda o comentario puedes realizármela en nuestro muro de facebook:

Captura de pantalla 2013-07-06 a las 21.31.45