Współliniowość, w statystyce, korelacja pomiędzy zmiennymi predykcyjnymi (lub zmiennymi niezależnymi), taka, że wyrażają one liniową zależność w modelu regresji. Kiedy zmienne predykcyjne w tym samym modelu regresji są skorelowane, nie mogą one niezależnie przewidywać wartości zmiennej zależnej. Innymi słowy, wyjaśniają one część tej samej wariancji w zmiennej zależnej, co z kolei zmniejsza ich istotność statystyczną.

Współliniowość staje się problemem w analizie regresji, gdy istnieje wysoka korelacja lub asocjacja między dwiema potencjalnymi zmiennymi przewidującymi, gdy następuje gwałtowny wzrost wartości p (tj. obniżenie poziomu istotności) jednej zmiennej przewidującej, gdy inny przewidujący jest włączony do modelu regresji, lub gdy określony jest wysoki współczynnik inflacji wariancji. Współczynnik inflacji wariancji stanowi miarę stopnia współliniowości, tak że współczynnik inflacji wariancji równy 1 lub 2 wskazuje na zasadniczo brak współliniowości, a miara równa 20 lub wyższa wskazuje na skrajną współliniowość.

Multikolinearność opisuje sytuację, w której więcej niż dwie zmienne predykcyjne są powiązane w taki sposób, że gdy wszystkie są włączone do modelu, obserwuje się spadek istotności statystycznej. Podobnie jak w przypadku diagnozy nieliniowości, nieliniowość można ocenić za pomocą współczynników inflacji wariancji, przy czym należy pamiętać, że wartości większe niż 10 sugerują wysoki stopień nieliniowości. W przeciwieństwie do diagnozy współliniowości, może jednak nie być możliwe przewidzenie wieloliniowości przed zaobserwowaniem jej wpływu na model regresji wielorakiej, ponieważ dowolne dwie zmienne predykcyjne mogą mieć jedynie niski stopień korelacji lub powiązania.

.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *