Controllo delle ipotesi di regressione
Controlla tutte e quattro le ipotesi di regressione lineare per i tuoi dati. Test di linearità, indipendenza, omoschedasticità e normalità con diagnostica...
Controllo delle ipotesi di regressione
Controlla tutte e quattro le ipotesi di regressione lineare per i tuoi dati. Test di linearità, indipendenza, omoschedasticità e normalità con diagnostica...
Inserisci i tuoi punti dati
| # | Valori X | Valori Y |
|---|
Risultati
Riepilogo
1. Linearità
2. Indipendenza dagli errori
3. Omoschedasticità
4. Normalità dei residui
Punti dati (n)
R²
Equazione
Dettagli passo dopo passo
Come usare questo Controllo delle ipotesi di regressione
Model Validity
Ensure your regression results are reliable and your p-values are accurate.
Automated Tests
Runs statistical tests for linearity, normality, and homoscedasticity.
Remediation
Get expert advice on how to fix violated assumptions in your dataset.
Violating assumptions can lead to biased estimates and incorrect scientific conclusions.
Perché verificare le ipotesi di regressione?
📐 La regressione lineare fa quattro presupposti chiave sui dati, noti collettivamente come condizioni di Gauss-Markov. Quando tutti e quattro sono soddisfatti, lo stimatore dei minimi quadrati ordinari (OLS) è il miglior stimatore lineare imparziale (BLU), ovvero ha la varianza più piccola tra tutti gli stimatori lineari imparziali. La violazione di qualsiasi presupposto compromette questa garanzia, producendo potenzialmente coefficienti distorti, errori standard inaffidabili, valori p non validi e intervalli di confidenza imprecisi. Le quattro ipotesi OLS sono: (1) Linearità: la relazione tra la variabile indipendente X e la variabile dipendente Y è veramente lineare. Se la relazione effettiva è curva, la linea adattata rappresenterà sistematicamente in modo errato i dati e sia le stime della pendenza che quelle dell'intercetta saranno distorte. Puoi verificarlo visivamente con un grafico a dispersione o un grafico residui rispetto a quelli adattati e formalmente con un test RESET.
📊 (2) Indipendenza: i residui (errori) sono indipendenti l'uno dall'altro. Ciò viene spesso violato nei dati di serie temporali, dove osservazioni consecutive tendono a essere correlate, un fenomeno chiamato autocorrelazione. L’autocorrelazione gonfia il significato apparente, facendo apparire le relazioni più forti di quanto non siano in realtà. Il test di Durbin-Watson rileva l'autocorrelazione del primo ordine.
📊 (3) Omoschedasticità: la varianza dei residui è costante su tutti i livelli dei valori previsti. Quando la varianza cambia (eteroschedasticità), gli errori standard diventano inaffidabili, il che invalida gli intervalli di confidenza e i test di ipotesi. Una forma a imbuto nel grafico dei residui è il classico indicatore visivo. Il test di Breusch-Pagan verifica formalmente questa violazione.
❌ (4) Normalità: i residui sono distribuiti approssimativamente normalmente. Questa ipotesi è fondamentale per la validità dei test t, dei test F e degli intervalli di confidenza in piccoli campioni. Con campioni di grandi dimensioni (n> 30), il teorema del limite centrale fornisce una certa protezione, ma in piccoli set di dati la non normalità può portare a valori p drammaticamente errati. Il test di Shapiro-Wilk e i grafici Q-Q sono gli strumenti diagnostici standard. Controllare le ipotesi prima di fidarsi del tuo modello è un passaggio fondamentale che molti analisti saltano, poiché porta a conclusioni errate, repliche fallite e decisioni sbagliate.