Tabla de contingencia

El grado de asociación entre las dos variables puede evaluarse mediante una serie de coeficientes. Las siguientes subsecciones describen algunos de ellos. Para una discusión más completa de sus usos, consulte los artículos principales enlazados bajo el título de cada subsección.

Cociente de probabilidadesEditar

Artículo principal: Odds ratio

La medida de asociación más sencilla para una tabla de contingencia 2 × 2 es la odds ratio. Dados dos sucesos, A y B, la razón de probabilidades se define como el cociente de las probabilidades de A en presencia de B y las probabilidades de A en ausencia de B, o, de forma equivalente (debido a la simetría), el cociente de las probabilidades de B en presencia de A y las probabilidades de B en ausencia de A. Dos sucesos son independientes si y sólo si la razón de probabilidades es 1; si la razón de probabilidades es mayor que 1, los sucesos están asociados positivamente; si la razón de probabilidades es menor que 1, los sucesos están asociados negativamente.

La razón de momios tiene una expresión sencilla en términos de probabilidades; dada la distribución de probabilidad conjunta:

B = 1 B = 0 A = 1 p 11 p 10 A = 0 p 01 p 00 {\displaystyle {\begin{array}{c|cc}&B=1&B=0\\hline A=1&p_{11}&p_{10}\\A=0&p_{01}&p_{00}\end{array}}}

{{displaystyle}{c|cc}B=1B=0\\hline A=1p_{11}p_{10}{A=0p_{01}p_{00}{end{array}}

La razón de momios es:

O R = p 11 p 00 p 10 p 01 . {\displaystyle OR={frac {p_{11}p_{00}}{p_{10}p_{01}}.}

{displaystyle OR={frac {p_{11}p_{00}}{p_{10}p_{01}}.}

Coeficiente de PhiEditar

Artículo principal: Coeficiente Phi

Una medida sencilla, aplicable sólo al caso de las tablas de contingencia 2 × 2, es el coeficiente phi (φ) definido por

ϕ = ± χ 2 N , {\displaystyle \phi =\pm {\sqrt {\frac {\chi ^{2}}},

{displaystyle \phi =\pm {\sqrt {\frac {\chi ^{2}},}

donde χ2 se calcula como en la prueba de chi-cuadrado de Pearson, y N es el total general de observaciones. φ varía de 0 (correspondiente a la ausencia de asociación entre las variables) a 1 o -1 (asociación completa o asociación inversa completa), siempre que se base en datos de frecuencia representados en tablas de 2 × 2. Entonces su signo es igual al signo del producto de los elementos diagonales principales de la tabla menos el producto de los elementos no diagonales. φ toma el valor mínimo -1,0 o el valor máximo de +1,0 si y sólo si cada proporción marginal es igual a 0,5 (y dos celdas diagonales están vacías).

V de Cramér y el coeficiente de contingencia CEdit

Artículo principal: V de Cramér

Dos alternativas son el coeficiente de contingencia C, y el V de Cramér.

Las fórmulas de los coeficientes C y V son:

C = χ 2 N + χ 2 {\displaystyle C={sqrt {\frac {\chi ^{2}}{N+\chi ^{2}}}}}

C={sqrt{\frac {\chi^2}{N+\chi^2}

y V = χ 2 N ( k – 1 ) , {\displaystyle V={sqrt {\frac {\chi ^{2}{N(k-1)}},

V={sqrt {{frac {\chi ^{2}}{N(k-1)},

Siendo k el número de filas o el número de columnas, el que sea menor.

C sufre el inconveniente de que no alcanza un máximo de 1,0, en concreto lo más alto que puede alcanzar en una tabla de 2 × 2 es 0,707 . Puede alcanzar valores más cercanos a 1,0 en tablas de contingencia con más categorías; por ejemplo, puede alcanzar un máximo de 0,870 en una tabla de 4 × 4. Por lo tanto, no debe utilizarse para comparar asociaciones en diferentes tablas si tienen un número diferente de categorías.

C puede ajustarse para que alcance un máximo de 1,0 cuando haya una asociación completa en una tabla de cualquier número de filas y columnas dividiendo C por k – 1 k {\displaystyle {\sqrt {\frac {k-1}{k}}}}

\sqrt{\frac{k-1}{k}

donde k es el número de filas o columnas, cuando la tabla es cuadrada, o por r – 1 r × c – 1 c 4 {\displaystyle {\sqrt{r-1 \over r}\times {c-1 \over c}}}}

{displaystyle {\sqrt{r-1\over r}\times {c-1\over c}}}}

donde r es el número de filas y c es el número de columnas.

Coeficiente de correlación tetracóricaEditar

Artículo principal: Correlación policórica

Otra opción es el coeficiente de correlación tetracórica pero sólo es aplicable a tablas de 2 × 2. La correlación policórica es una extensión de la correlación tetracórica a tablas que implican variables con más de dos niveles.

La correlación tetracórica asume que la variable subyacente a cada medida dicotómica se distribuye normalmente. El coeficiente proporciona «una medida conveniente de correlación cuando las medidas graduadas se han reducido a dos categorías».

El coeficiente de correlación tetracórica no debe confundirse con el coeficiente de correlación de Pearson calculado asignando, por ejemplo, valores 0,0 y 1,0 para representar los dos niveles de cada variable (que es matemáticamente equivalente al coeficiente φ).

Coeficiente LambdaEditar

Artículo principal: Lambda de Goodman y Kruskal

El coeficiente lambda es una medida de la fuerza de asociación de las tabulaciones cruzadas cuando las variables se miden en el nivel nominal. Los valores van de 0,0 (ninguna asociación) a 1,0 (la máxima asociación posible).

El lambda asimétrico mide el porcentaje de mejora en la predicción de la variable dependiente. El lambda simétrico mide el porcentaje de mejora cuando la predicción se realiza en ambas direcciones.

Coeficiente de incertidumbreEditar

Artículo principal: Coeficiente de incertidumbre

El coeficiente de incertidumbre, o U de Theil, es otra medida para variables a nivel nominal. Sus valores van de -1,0 (asociación 100% negativa, o inversión perfecta) a +1,0 (asociación 100% positiva, o acuerdo perfecto). Un valor de 0,0 indica la ausencia de asociación.

Además, el coeficiente de incertidumbre es condicional y una medida asimétrica de asociación, que puede expresarse como

U ( X | Y ) ≠ U ( Y | X ) {\displaystyle U(X|Y)\neq U(Y|X)}.

{desde el estilo U(X|Y)\Nhasta U(Y|X)}

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *