Verificador de suposições de regressão
Verifique todas as quatro suposições de regressão linear para seus dados. Teste de linearidade, independência, homocedasticidade e normalidade com...
Verificador de suposições de regressão
Verifique todas as quatro suposições de regressão linear para seus dados. Teste de linearidade, independência, homocedasticidade e normalidade com...
Insira seus pontos de dados
| # | Valores X | Valores Y |
|---|
Resultados
Resumo
1. Linearidade
2. Independência de Erros
3. Homocedasticidade
4. Normalidade dos Resíduos
Pontos de dados (n)
R²
Equação
Detalhes passo a passo
Como usar isto Verificador de suposições de regressão
Model Validity
Ensure your regression results are reliable and your p-values are accurate.
Automated Tests
Runs statistical tests for linearity, normality, and homoscedasticity.
Remediation
Get expert advice on how to fix violated assumptions in your dataset.
Violating assumptions can lead to biased estimates and incorrect scientific conclusions.
Por que verificar as suposições de regressão?
📐 A regressão linear faz quatro suposições principais sobre seus dados, conhecidas coletivamente como condições de Gauss-Markov. Quando todos os quatro são satisfeitos, o estimador de mínimos quadrados ordinários (OLS) é o melhor estimador linear imparcial (AZUL) - o que significa que tem a menor variância entre todos os estimadores lineares imparciais. A violação de qualquer suposição compromete esta garantia, produzindo potencialmente coeficientes tendenciosos, erros padrão não confiáveis, valores p inválidos e intervalos de confiança imprecisos. As quatro suposições de MQO são: (1) Linearidade — a relação entre a variável independente X e a variável dependente Y é verdadeiramente linear. Se a relação real for curva, a linha ajustada irá sistematicamente deturpar os dados, e tanto a inclinação como as estimativas de interceptação serão tendenciosas. Você pode verificar isso visualmente com um gráfico de dispersão ou um gráfico de resíduos versus ajustados, e formalmente com um teste RESET.
📊 (2) Independência — os resíduos (erros) são independentes uns dos outros. Isso é mais frequentemente violado em dados de séries temporais, onde observações consecutivas tendem a ser correlacionadas – um fenômeno chamado autocorrelação. A autocorrelação aumenta a importância aparente, fazendo com que os relacionamentos pareçam mais fortes do que realmente são. O teste Durbin-Watson detecta autocorrelação de primeira ordem.
📊 (3) Homocedasticidade — a variância dos resíduos é constante em todos os níveis dos valores previstos. Quando a variância muda (heterocedasticidade), os erros padrão tornam-se não confiáveis, o que invalida os intervalos de confiança e os testes de hipóteses. Um formato de funil no gráfico residual é o indicador visual clássico. O teste Breusch-Pagan verifica formalmente essa violação.
❌ (4) Normalidade — os resíduos são distribuídos aproximadamente normalmente. Essa suposição é crítica para a validade dos testes t, testes F e intervalos de confiança em amostras pequenas. Com amostras grandes (n> 30), o teorema do limite central fornece alguma proteção, mas em conjuntos de dados pequenos a não normalidade pode levar a valores de p dramaticamente errados. O teste de Shapiro-Wilk e os gráficos QQ são as ferramentas de diagnóstico padrão. Verificar as suposições antes de confiar em seu modelo é uma etapa crítica que muitos analistas ignoram — levando a conclusões erradas, replicações fracassadas e decisões erradas.