Regression Antaganden Checker
Kontrollera alla fyra linjära regressionsantaganden för dina data. Testa för linjäritet, oberoende, homoskedasticitet och normalitet med detaljerad...
Regression Antaganden Checker
Kontrollera alla fyra linjära regressionsantaganden för dina data. Testa för linjäritet, oberoende, homoskedasticitet och normalitet med detaljerad...
Ange dina datapunkter
| # | X-värden | Y-värden |
|---|
Resultat
Sammanfattning
1. Linjäritet
2. Oberoende av fel
3. Homoskedasticitet
4. Normalitet av rester
Datapunkter (n)
R²
Ekvation
Steg-för-steg detaljer
Hur man använder detta Regression Antaganden Checker
Model Validity
Ensure your regression results are reliable and your p-values are accurate.
Automated Tests
Runs statistical tests for linearity, normality, and homoscedasticity.
Remediation
Get expert advice on how to fix violated assumptions in your dataset.
Violating assumptions can lead to biased estimates and incorrect scientific conclusions.
Varför kontrollera regressionsantaganden?
📐 Linjär regression gör fyra viktiga antaganden om dina data, gemensamt kända som Gauss-Markov-villkoren. När alla fyra är uppfyllda är den vanliga minsta kvadraters (OLS)-estimatorn den bästa linjära opartiska skattaren (BLÅ) – vilket betyder att den har den minsta variansen bland alla opartiska linjära skattare. Att bryta mot något antagande äventyrar denna garanti, vilket kan leda till partiska koefficienter, opålitliga standardfel, ogiltiga p-värden och felaktiga konfidensintervall. De fyra OLS-antagandena är: (1) Linjäritet — förhållandet mellan den oberoende variabeln X och den beroende variabeln Y är verkligen linjär. Om det faktiska förhållandet är krökt, kommer den anpassade linjen systematiskt att ge en felaktig bild av data, och både lutnings- och skärningsuppskattningarna kommer att vara partiska. Du kan kontrollera detta visuellt med en scatterplot eller en rest-mot-passad plot, och formellt med ett RESET-test.
📊 (2) Oberoende — residualerna (felen) är oberoende av varandra. Detta bryts oftast i tidsseriedata, där på varandra följande observationer tenderar att vara korrelerade - ett fenomen som kallas autokorrelation. Autokorrelation blåser upp skenbar betydelse, vilket gör att relationer verkar starkare än de verkligen är. Durbin-Watson-testet detekterar första ordningens autokorrelation.
📊 (3) Homoscedasticitet — variansen av residualerna är konstant över alla nivåer av de förutsagda värdena. När variansen ändras (heteroscedasticitet) blir standardfel opålitliga, vilket ogiltigförklarar konfidensintervall och hypotestest. En trattform i restdiagrammet är den klassiska visuella indikatorn. Breusch-Pagan-testet kontrollerar formellt efter denna överträdelse.
❌ (4) Normalitet — resterna är ungefär normalfördelade. Detta antagande är avgörande för validiteten av t-tester, F-tester och konfidensintervall i små urval. Med stora sampel (n> 30) ger den centrala gränssatsen ett visst skydd, men i små datamängder kan icke-normalitet leda till dramatiskt felaktiga p-värden. Shapiro-Wilk-testet och Q-Q-plotterna är standardverktygen för diagnostik. Att kontrollera antaganden innan man litar på din modell är ett kritiskt steg som många analytiker hoppar över – vilket leder till felaktiga slutsatser, misslyckade replikeringar och dåliga beslut.