Kollinearität, in der Statistik, Korrelation zwischen Prädiktorvariablen (oder unabhängigen Variablen), so dass sie eine lineare Beziehung in einem Regressionsmodell ausdrücken. Wenn Prädiktorvariablen in demselben Regressionsmodell korreliert sind, können sie den Wert der abhängigen Variable nicht unabhängig voneinander vorhersagen. Mit anderen Worten, sie erklären einen Teil derselben Varianz in der abhängigen Variable, was wiederum ihre statistische Signifikanz verringert.
Kollinearität wird bei der Regressionsanalyse zu einem Problem, wenn eine hohe Korrelation oder ein Zusammenhang zwischen zwei potenziellen Prädiktorvariablen besteht, wenn es einen dramatischen Anstieg des p-Wertes (d. h. eine Verringerung des Signifikanzniveaus) einer Prädiktorvariable gibt, wenn ein anderer Prädiktor in das Regressionsmodell aufgenommen wird, oder wenn ein hoher Varianzinflationsfaktor ermittelt wird. Der Varianzinflationsfaktor stellt ein Maß für den Grad der Kollinearität dar, so dass ein Varianzinflationsfaktor von 1 oder 2 im Wesentlichen keine Kollinearität anzeigt und ein Maß von 20 oder höher extreme Kollinearität anzeigt.
Multikollinearität beschreibt eine Situation, in der mehr als zwei Prädiktorvariablen miteinander assoziiert sind, so dass, wenn alle in das Modell aufgenommen werden, eine Abnahme der statistischen Signifikanz beobachtet wird. Ähnlich wie die Diagnose für Kollinearität kann Multikollinearität mit Hilfe von Varianzinflationsfaktoren beurteilt werden, wobei Werte größer als 10 auf ein hohes Maß an Multikollinearität hinweisen. Anders als bei der Diagnose für Kollinearität ist es jedoch möglicherweise nicht möglich, Multikollinearität vorherzusagen, bevor ihre Auswirkungen auf das multiple Regressionsmodell beobachtet werden, da zwei der Prädiktorvariablen möglicherweise nur einen geringen Grad an Korrelation oder Assoziation aufweisen.