Prüfer für Regressionsannahmen
Überprüfen Sie alle vier linearen Regressionsannahmen für Ihre Daten. Testen Sie Linearität, Unabhängigkeit, Homoskedastizität und Normalität mit...
Prüfer für Regressionsannahmen
Überprüfen Sie alle vier linearen Regressionsannahmen für Ihre Daten. Testen Sie Linearität, Unabhängigkeit, Homoskedastizität und Normalität mit...
Geben Sie Ihre Datenpunkte ein
| # | X-Werte | Y-Werte |
|---|
Ergebnisse
Zusammenfassung
1. Linearität
2. Unabhängigkeit von Fehlern
3. Homoskedastizität
4. Normalität der Residuen
Datenpunkte (n)
R²
Gleichung
Schritt-für-Schritt-Details
So verwenden Sie dies Prüfer für Regressionsannahmen
Model Validity
Ensure your regression results are reliable and your p-values are accurate.
Automated Tests
Runs statistical tests for linearity, normality, and homoscedasticity.
Remediation
Get expert advice on how to fix violated assumptions in your dataset.
Violating assumptions can lead to biased estimates and incorrect scientific conclusions.
Warum Regressionsannahmen überprüfen?
📐 Bei der linearen Regression werden vier Schlüsselannahmen über Ihre Daten getroffen, die zusammen als Gauss-Markov-Bedingungen bezeichnet werden. Wenn alle vier erfüllt sind, ist der OLS-Schätzer (Ordinary Least Squares) der beste lineare erwartungstreue Schätzer (BLAU) – das heißt, er weist die kleinste Varianz unter allen erwartungstreuen linearen Schätzern auf. Die Verletzung einer Annahme gefährdet diese Garantie und führt möglicherweise zu verzerrten Koeffizienten, unzuverlässigen Standardfehlern, ungültigen p-Werten und ungenauen Konfidenzintervallen. Die vier OLS-Annahmen sind: (1) Linearität – die Beziehung zwischen der unabhängigen Variablen X und der abhängigen Variablen Y ist wirklich linear. Wenn die tatsächliche Beziehung gekrümmt ist, stellt die angepasste Linie die Daten systematisch falsch dar und sowohl die Steigungs- als auch die Achsenabschnittsschätzungen sind verzerrt. Sie können dies visuell mit einem Streudiagramm oder einem Residuen-gegen-angepassten Diagramm und formal mit einem RESET-Test überprüfen.
📊 (2) Unabhängigkeit – die Residuen (Fehler) sind unabhängig voneinander. Dies wird am häufigsten bei Zeitreihendaten verletzt, bei denen aufeinanderfolgende Beobachtungen tendenziell korreliert sind – ein Phänomen, das als Autokorrelation bezeichnet wird. Autokorrelation erhöht die scheinbare Bedeutung und lässt Beziehungen stärker erscheinen, als sie tatsächlich sind. Der Durbin-Watson-Test erkennt Autokorrelation erster Ordnung.
📊 (3) Homoskedastizität – die Varianz der Residuen ist über alle Ebenen der vorhergesagten Werte hinweg konstant. Wenn sich die Varianz ändert (Heteroskedastizität), werden Standardfehler unzuverlässig, was Konfidenzintervalle und Hypothesentests ungültig macht. Eine Trichterform im Restdiagramm ist der klassische visuelle Indikator. Der Breusch-Pagan-Test prüft offiziell, ob dieser Verstoß vorliegt.
❌ (4) Normalität – die Residuen sind annähernd normalverteilt. Diese Annahme ist entscheidend für die Gültigkeit von T-Tests, F-Tests und Konfidenzintervallen in kleinen Stichproben. Bei großen Stichproben (n> 30) bietet der zentrale Grenzwertsatz einen gewissen Schutz, bei kleinen Datensätzen kann die Nichtnormalität jedoch zu dramatisch falschen p-Werten führen. Der Shapiro-Wilk-Test und die Q-Q-Diagramme sind die Standarddiagnosewerkzeuge. Annahmen zu überprüfen, bevor Sie Ihrem Modell vertrauen, ist ein entscheidender Schritt, den viele Analysten überspringen – was zu fehlerhaften Schlussfolgerungen, fehlgeschlagenen Replikationen und schlechten Entscheidungen führt.