Comprobador de supuestos de regresión
Verifique los cuatro supuestos de regresión lineal para sus datos. Pruebe linealidad, independencia, homocedasticidad y normalidad con diagnósticos...
Comprobador de supuestos de regresión
Verifique los cuatro supuestos de regresión lineal para sus datos. Pruebe linealidad, independencia, homocedasticidad y normalidad con diagnósticos...
Ingrese sus puntos de datos
| # | Valores X | Valores Y |
|---|
Resultados
Resumen
1. Linealidad
2. Independencia de los errores
3. Homocedasticidad
4. Normalidad de los residuos
Puntos de datos (n)
R²
Ecuación
Detalles paso a paso
Cómo usar esto Comprobador de supuestos de regresión
Model Validity
Ensure your regression results are reliable and your p-values are accurate.
Automated Tests
Runs statistical tests for linearity, normality, and homoscedasticity.
Remediation
Get expert advice on how to fix violated assumptions in your dataset.
Violating assumptions can lead to biased estimates and incorrect scientific conclusions.
¿Por qué comprobar los supuestos de regresión?
📐 La regresión lineal parte de cuatro suposiciones clave sobre sus datos, conocidas colectivamente como condiciones de Gauss-Markov. Cuando se satisfacen los cuatro, el estimador de mínimos cuadrados ordinarios (MCO) es el mejor estimador lineal insesgado (BLUE), lo que significa que tiene la varianza más pequeña entre todos los estimadores lineales insesgados. La violación de cualquier suposición compromete esta garantía, lo que puede producir coeficientes sesgados, errores estándar no confiables, valores p no válidos e intervalos de confianza inexactos. Los cuatro supuestos de MCO son: (1) Linealidad: la relación entre la variable independiente X y la variable dependiente Y es verdaderamente lineal. Si la relación real es curva, la línea ajustada tergiversará sistemáticamente los datos y tanto las estimaciones de la pendiente como de la intersección estarán sesgadas. Puedes comprobar esto visualmente con un diagrama de dispersión o un diagrama de residuos versus ajustado, y formalmente con una prueba RESET.
📊 (2) Independencia: los residuos (errores) son independientes entre sí. Esto se viola con mayor frecuencia en datos de series temporales, donde las observaciones consecutivas tienden a estar correlacionadas, un fenómeno llamado autocorrelación. La autocorrelación infla la importancia aparente, haciendo que las relaciones parezcan más fuertes de lo que realmente son. La prueba de Durbin-Watson detecta autocorrelación de primer orden.
📊 (3) Homoscedasticidad: la varianza de los residuos es constante en todos los niveles de los valores predichos. Cuando la varianza cambia (heteroscedasticidad), los errores estándar se vuelven poco confiables, lo que invalida los intervalos de confianza y las pruebas de hipótesis. Una forma de embudo en el gráfico residual es el indicador visual clásico. La prueba de Breusch-Pagan verifica formalmente esta violación.
❌ (4) Normalidad: los residuos se distribuyen aproximadamente normalmente. Este supuesto es fundamental para la validez de las pruebas t, las pruebas F y los intervalos de confianza en muestras pequeñas. Con muestras grandes (n> 30), el teorema del límite central proporciona cierta protección, pero en conjuntos de datos pequeños la no normalidad puede conducir a valores p dramáticamente incorrectos. La prueba de Shapiro-Wilk y los gráficos Q-Q son las herramientas de diagnóstico estándar. Verificar las suposiciones antes de confiar en su modelo es un paso crítico que muchos analistas omiten, lo que lleva a conclusiones erróneas, replicaciones fallidas y malas decisiones.