Calculadora de regressão múltipla

Calcule múltiplas equações de regressão com dois ou mais preditores. Encontre o melhor modelo para seus dados usando nossa ferramenta de análise...

Multiple Regression Visualization

Calculadora de regressão múltipla

Calcule múltiplas equações de regressão com dois ou mais preditores. Encontre o melhor modelo para seus dados usando nossa ferramenta de análise...

Insira seus pontos de dados

Como usar isto Calculadora de regressão múltipla

Complex Modeling

Analyze how multiple factors simultaneously influence your dependent variable.

Saída estatística

Calculate partial coefficients, standard errors, and adjusted R-squared values.

Diagnostics

Built-in checks for multicollinearity and model significance.

Multiple regression helps isolate the effect of one variable while controlling for others.

Como calcular a regressão múltipla

📐 A regressão múltipla estende a regressão linear simples para duas ou mais variáveis preditoras, produzindo a equação y = b₀ + b₁x₁ + b₂x₂ + … + bₚxₚ, onde cada coeficiente bᵢ representa o efeito do preditor xᵢ em y enquanto mantém todos os outros preditores constantes.

❌ Isso A propriedade "manter constante" é o que torna a regressão múltipla tão poderosa - ela permite isolar a contribuição exclusiva de cada preditor, controlando fatores de confusão que, de outra forma, distorceriam seus resultados. Por exemplo, se você quiser estudar o efeito da educação sobre a renda, simplesmente regredir a renda sobre a educação combinaria o efeito da educação com o efeito da experiência, porque pessoas mais instruídas também tendem a ter mais experiência.

📐 A regressão múltipla resolve isso incluindo a educação e a experiência como preditores, de modo que cada coeficiente reflita o efeito genuíno daquela variável sozinha. A regressão múltipla é a técnica de regressão mais amplamente usada em pesquisa, análise de negócios, ciências sociais, medicina e aprendizado de máquina porque os resultados do mundo real quase sempre dependem de vários fatores simultaneamente.

📊 Um modelo de preditor único raramente captura variação suficiente para ser útil – adicionar preditores relevantes quase sempre aumenta o poder explicativo e melhora a precisão da previsão. As principais estatísticas relatadas incluem R² (a proporção de variância explicada por todos os preditores juntos), R² ajustado (que penaliza a adição de preditores que não melhoram genuinamente o modelo), a estatística F (que testa se o modelo geral é estatisticamente significativo) e o erro padrão da estimativa (que mede a distância média dos pontos de dados do hiperplano de regressão).

📊 Compreender essas métricas é essencial para construir modelos confiáveis e evitar overfitting, o que ocorre quando muitos preditores são incluídos em relação ao tamanho da amostra.

How Multiple Regression Works

Suposições de regressão múltipla

1. Linearidade: Cada preditor deve ter um relacionamento linear com Y quando outros preditores são mantidos constantes. Verifique com gráficos de regressão parcial (também chamados de gráficos de variáveis ​​adicionadas) e gráficos residuais. Padrões curvos indicam a necessidade de termos polinomiais ou transformações de variáveis.
2. Independência: Os resíduos devem ser independentes — sem autocorrelação. Verifique com o teste Durbin-Watson (d ≈ 2 significa sem autocorrelação). Os dados de séries temporais frequentemente violam essa suposição; considere adicionar termos de atraso ou usar modelos ARIMA se a autocorrelação for detectada.
3. Homocedasticidade: a variância residual deve ser constante em todos os valores previstos. Verifique com um gráfico residual (a dispersão deve ser aproximadamente igual) ou com o teste de Breusch-Pagan. Um formato de funil indica heterocedasticidade, que pode ser resolvida com mínimos quadrados ponderados ou erros padrão robustos.
4. Normalidade: Os resíduos devem ter distribuição aproximadamente normal. Verifique com um histograma, gráfico QQ ou teste Jarque-Bera. Amostras grandes (n> 30) são mais robustas a violações devido ao teorema do limite central.
5. Sem multicolinearidade: Os preditores não devem ser altamente correlacionados entre si. Verifique com fatores de inflação de variância (VIF> 5 indica um problema) ou uma matriz de correlação entre preditores. As soluções incluem eliminar um preditor correlacionado, combinar preditores via PCA ou usar regressão de crista.
6. Amostra representativa: Os dados devem ser uma amostra representativa da população de interesse. Amostras de conveniência, intervalos truncados ou variáveis ​​omitidas podem produzir resultados de regressão enganosos que não generalizam.