Controllo delle ipotesi di regressione

Controlla tutte e quattro le ipotesi di regressione lineare per i tuoi dati. Test di linearità, indipendenza, omoschedasticità e normalità con diagnostica...

Regression Assumptions Diagnostics Visualization

Controllo delle ipotesi di regressione

Controlla tutte e quattro le ipotesi di regressione lineare per i tuoi dati. Test di linearità, indipendenza, omoschedasticità e normalità con diagnostica...

Inserisci i tuoi punti dati

# Valori X Valori Y

Come usare questo Controllo delle ipotesi di regressione

Model Validity

Ensure your regression results are reliable and your p-values are accurate.

Automated Tests

Runs statistical tests for linearity, normality, and homoscedasticity.

Remediation

Get expert advice on how to fix violated assumptions in your dataset.

Violating assumptions can lead to biased estimates and incorrect scientific conclusions.

Perché verificare le ipotesi di regressione?

📐 La regressione lineare fa quattro presupposti chiave sui dati, noti collettivamente come condizioni di Gauss-Markov. Quando tutti e quattro sono soddisfatti, lo stimatore dei minimi quadrati ordinari (OLS) è il miglior stimatore lineare imparziale (BLU), ovvero ha la varianza più piccola tra tutti gli stimatori lineari imparziali. La violazione di qualsiasi presupposto compromette questa garanzia, producendo potenzialmente coefficienti distorti, errori standard inaffidabili, valori p non validi e intervalli di confidenza imprecisi. Le quattro ipotesi OLS sono: (1) Linearità: la relazione tra la variabile indipendente X e la variabile dipendente Y è veramente lineare. Se la relazione effettiva è curva, la linea adattata rappresenterà sistematicamente in modo errato i dati e sia le stime della pendenza che quelle dell'intercetta saranno distorte. Puoi verificarlo visivamente con un grafico a dispersione o un grafico residui rispetto a quelli adattati e formalmente con un test RESET.

📊 (2) Indipendenza: i residui (errori) sono indipendenti l'uno dall'altro. Ciò viene spesso violato nei dati di serie temporali, dove osservazioni consecutive tendono a essere correlate, un fenomeno chiamato autocorrelazione. L’autocorrelazione gonfia il significato apparente, facendo apparire le relazioni più forti di quanto non siano in realtà. Il test di Durbin-Watson rileva l'autocorrelazione del primo ordine.

📊 (3) Omoschedasticità: la varianza dei residui è costante su tutti i livelli dei valori previsti. Quando la varianza cambia (eteroschedasticità), gli errori standard diventano inaffidabili, il che invalida gli intervalli di confidenza e i test di ipotesi. Una forma a imbuto nel grafico dei residui è il classico indicatore visivo. Il test di Breusch-Pagan verifica formalmente questa violazione.

(4) Normalità: i residui sono distribuiti approssimativamente normalmente. Questa ipotesi è fondamentale per la validità dei test t, dei test F e degli intervalli di confidenza in piccoli campioni. Con campioni di grandi dimensioni (n> 30), il teorema del limite centrale fornisce una certa protezione, ma in piccoli set di dati la non normalità può portare a valori p drammaticamente errati. Il test di Shapiro-Wilk e i grafici Q-Q sono gli strumenti diagnostici standard. Controllare le ipotesi prima di fidarsi del tuo modello è un passaggio fondamentale che molti analisti saltano, poiché porta a conclusioni errate, repliche fallite e decisioni sbagliate.

Why Check Regression Assumptions?