Stopień powiązania między dwiema zmiennymi można ocenić za pomocą wielu współczynników. Poniższe podrozdziały opisują kilka z nich. Pełniejsze omówienie ich zastosowań znajduje się w artykułach głównych, do których odnośniki znajdują się pod nagłówkami poszczególnych podrozdziałów.

Współczynnik szansEdit

Main article: Współczynnik szans

Najprostszą miarą asocjacji dla tabeli warunkowej 2 × 2 jest współczynnik szans. Biorąc pod uwagę dwa zdarzenia, A i B, iloraz szans definiuje się jako stosunek szans A w obecności B i szans A w nieobecności B, lub równoważnie (ze względu na symetrię), stosunek szans B w obecności A i szans B w nieobecności A. Dwa zdarzenia są niezależne wtedy i tylko wtedy, gdy iloraz szans wynosi 1; jeśli iloraz szans jest większy niż 1, zdarzenia są powiązane dodatnio; jeśli iloraz szans jest mniejszy niż 1, zdarzenia są powiązane ujemnie.

Współczynnik szans ma proste wyrażenie w kategoriach prawdopodobieństwa; biorąc pod uwagę wspólny rozkład prawdopodobieństwa:

B = 1 B = 0 A = 1 p 11 p 10 A = 0 p 01 p 00 {{begin{array}{c|cc}&B=1&B=0 {{begin{array}{c|cc}}} A=1&p_{11}&p_{10}\\A=0&p_{01}&p_{00}\end{array}}}

{{displaystyle {{begin{array}{c|cc}B=1B=0}}}hline A=1p_{11}p_{10}}}}}}

iloraz szans wynosi:

O R = p 11 p 00 p 10 p 01 . {{displaystyle OR={frac {p_{11}p_{00}}{p_{10}p_{01}}}.}

{displaystyle OR={frac {p_{11}p_{00}}{p_{10}p_{01}}}.}

Współczynnik PhiEdit

Główny artykuł: Współczynnik Phi

Prostą miarą, mającą zastosowanie jedynie w przypadku tablic kontyngencji 2 × 2, jest współczynnik phi (φ) definiowany przez

ϕ = ± χ 2 N , { {{displaystyle \phi = \pm {\sqrt {\frac {\chi ^{2}}{N}}}}

{displaystyle \phi = \pm {{sqrt {\frac {\chi ^{2}}{N}}},}

gdzie χ2 jest obliczane jak w teście chi kwadrat Pearsona, a N jest całkowitą liczbą obserwacji. φ zmienia się od 0 (co odpowiada brakowi asocjacji między zmiennymi) do 1 lub -1 (pełna asocjacja lub pełna odwrotna asocjacja), pod warunkiem że opiera się na danych częstotliwościowych przedstawionych w tabelach 2 × 2. Wówczas jej znak jest równy znakowi iloczynu głównych elementów diagonalnych tabeli minus iloczyn elementów poza diagonalnych. φ przyjmuje wartość minimalną -1,0 lub maksymalną +1,0 wtedy i tylko wtedy, gdy każda proporcja krańcowa jest równa 0,5 (a dwie komórki diagonalne są puste).

V Craméra i współczynnik kontyngencji CEdit

Main article: V Craméra

Dwie alternatywy to współczynnik kontyngencji C i współczynnik V Craméra.

Wzory na współczynniki C i V są następujące:

C = χ 2 N + χ 2 {{displaystyle C={sqrt {{frac {chi ^{2}}}{N+{chi ^{2}}}}}

C= = χ 2 N ( k - 1 ) , {displaystyle V={sqrt {{sqrt {{frac {chi ^{2}}}{N(k-1)}}}V={sqrt {{frac {chi ^{2}}{N(k-1)}} }}}},

k będący liczbą wierszy lub liczbą kolumn, w zależności od tego, która z nich jest mniejsza.

C ma tę wadę, że nie osiąga maksymalnej wartości 1,0, w szczególności najwyższa wartość, jaką może osiągnąć w tabeli 2 × 2 wynosi 0,707 . Może ona osiągnąć wartości bliższe 1,0 w tabelach kontyngencji z większą liczbą kategorii; na przykład może osiągnąć maksimum 0,870 w tabeli 4 × 4. Dlatego nie powinien być używany do porównywania asocjacji w różnych tabelach, jeśli mają one różną liczbę kategorii.

C można dostosować tak, aby osiągnął maksimum 1,0, gdy istnieje pełna asocjacja w tabeli o dowolnej liczbie wierszy i kolumn, dzieląc C przez k – 1 k {displaystyle { {sqrt {frac {k-1}{k}}}}

sqrt{{frac{k-1}{k}}

gdzie k jest liczbą wierszy lub kolumn, gdy tabela jest kwadratowa, lub przez r – 1 r × c – 1 c 4 {displaystyle {{sqrt{{r-1 ≥ r}} razy {c-1 ≥ c}}}}

{displaystyle {{sqrt{{r-1 \over r}times {c-1 \over c}}}}

gdzie r to liczba wierszy, a c to liczba kolumn.

Współczynnik korelacji tetrachorycznejEdit

Main article: Korelacja polichoryczna

Innym wyborem jest współczynnik korelacji tetrachorycznej, ale ma on zastosowanie tylko do tabel 2 × 2. Korelacja polichoryczna jest rozszerzeniem korelacji tetrachorycznej na tabele zawierające zmienne o więcej niż dwóch poziomach.

Korelacja tetrachoryczna zakłada, że zmienna leżąca u podstaw każdej miary dychotomicznej ma rozkład normalny. Współczynnik ten zapewnia „wygodną miarę korelacji, gdy stopniowane miary zostały zredukowane do dwóch kategorii.”

Współczynnika korelacji tetrachorycznej nie należy mylić ze współczynnikiem korelacji Pearsona obliczanym przez przypisanie, powiedzmy, wartości 0,0 i 1,0 do reprezentowania dwóch poziomów każdej zmiennej (co jest matematycznie równoważne współczynnikowi φ).

Współczynnik lambdaEdit

Main article: Lambda Goodmana i Kruskala

Współczynnik lambda jest miarą siły asocjacji tabulacji krzyżowych, gdy zmienne są mierzone na poziomie nominalnym. Wartości wahają się od 0,0 (brak asocjacji) do 1,0 (maksymalna możliwa asocjacja).

Asymetryczna lambda mierzy procentową poprawę w przewidywaniu zmiennej zależnej. Symetryczna lambda mierzy procentową poprawę, gdy przewidywanie odbywa się w obu kierunkach.

Współczynnik niepewnościEdit

Main article: Współczynnik niepewności

Współczynnik niepewności, lub U Theila, jest kolejną miarą dla zmiennych na poziomie nominalnym. Jego wartości wahają się od -1,0 (100% negatywne skojarzenie, lub doskonała inwersja) do +1,0 (100% pozytywne skojarzenie, lub doskonała zgodność). Wartość 0,0 wskazuje na brak asocjacji.

Współczynnik niepewności jest warunkową i asymetryczną miarą asocjacji, którą można wyrazić jako

U ( X | Y ) ≠ U ( Y | X ) {{displaystyle U(X|Y)≠ U(Y|X)}.

{displaystyle U(X|Y)≠ U(Y|X)}

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *