Rechner für multiple Regression

Berechnen Sie mehrere Regressionsgleichungen mit zwei oder mehr Prädiktoren. Finden Sie mit unserem kostenlosen Online-Tool zur statistischen Analyse das...

Multiple Regression Visualization

Rechner für multiple Regression

Berechnen Sie mehrere Regressionsgleichungen mit zwei oder mehr Prädiktoren. Finden Sie mit unserem kostenlosen Online-Tool zur statistischen Analyse das...

Geben Sie Ihre Datenpunkte ein

So verwenden Sie dies Rechner für multiple Regression

Complex Modeling

Analyze how multiple factors simultaneously influence your dependent variable.

Statistische Ausgabe

Calculate partial coefficients, standard errors, and adjusted R-squared values.

Diagnostics

Built-in checks for multicollinearity and model significance.

Multiple regression helps isolate the effect of one variable while controlling for others.

So berechnen Sie die multiple Regression

📐 Multiple Regression erweitert die einfache lineare Regression auf zwei oder mehr Prädiktorvariablen und erzeugt die Gleichung y = b₀ + b₁x₁ + b₂x₂ + … + bₚxₚ, wobei jeder Koeffizient bᵢ die Wirkung des Prädiktors xᵢ auf y darstellt während alle anderen Prädiktoren beibehalten werden konstant.

❌ Diese „Konstanthalten“-Eigenschaft macht die multiple Regression so leistungsstark – sie ermöglicht es Ihnen, den einzigartigen Beitrag jedes Prädiktors zu isolieren und Störfaktoren zu kontrollieren, die andernfalls Ihre Ergebnisse verzerren würden. Wenn Sie beispielsweise die Auswirkung von Bildung auf das Einkommen untersuchen möchten, würde eine einfache Regression des Einkommens auf die Bildung die Auswirkung von Bildung mit der Auswirkung von Erfahrung vermischen, da gebildetere Menschen tendenziell auch über mehr Erfahrung verfügen.

📐 Multiple Regression löst dieses Problem, indem sie sowohl Bildung als auch Erfahrung als Prädiktoren einbezieht, sodass jeder Koeffizient die tatsächliche Auswirkung dieser Variablen allein widerspiegelt. Multiple Regression ist die am weitesten verbreitete Regressionstechnik in Forschung, Geschäftsanalyse, Sozialwissenschaften, Medizin und maschinellem Lernen, da reale Ergebnisse fast immer von mehreren Faktoren gleichzeitig abhängen.

📊 Ein Einzelprädiktormodell erfasst selten genug Variationen, um nützlich zu sein – das Hinzufügen relevanter Prädiktoren erhöht fast immer die Erklärungskraft und verbessert die Vorhersagegenauigkeit. Zu den gemeldeten Schlüsselstatistiken gehören R² (der Anteil der Varianz, der durch alle Prädiktoren zusammen erklärt wird), der bereinigte R² (der das Hinzufügen von Prädiktoren bestraft, die das Modell nicht wirklich verbessern), die F-Statistik (die testet, ob das Gesamtmodell statistisch signifikant ist) und den Standardfehler der Schätzung (der den durchschnittlichen Abstand der Datenpunkte von der Regressionshyperebene misst).

📊 Das Verständnis dieser Metriken ist für die Erstellung zuverlässiger Daten von entscheidender Bedeutung Modelle und Vermeidung einer Überanpassung, die auftritt, wenn im Verhältnis zur Stichprobengröße zu viele Prädiktoren einbezogen werden.

How Multiple Regression Works

Annahmen der multiplen Regression

1. Linearität: Jeder Prädiktor muss eine lineare Beziehung zu Y haben, wenn andere Prädiktoren konstant gehalten werden. Überprüfen Sie dies mit partiellen Regressionsdiagrammen (auch Diagramme mit hinzugefügten Variablen genannt) und Residuendiagrammen. Gekrümmte Muster weisen auf die Notwendigkeit von Polynomtermen oder Variablentransformationen hin.
2. Unabhängigkeit: Residuen müssen unabhängig sein – keine Autokorrelation. Überprüfen Sie mit dem Durbin-Watson-Test (d ≈ 2 bedeutet keine Autokorrelation). Zeitreihendaten verstoßen häufig gegen diese Annahme; Erwägen Sie das Hinzufügen von Verzögerungstermen oder die Verwendung von ARIMA-Modellen, wenn eine Autokorrelation erkannt wird.
3. Homoskedastizität: Die Restvarianz muss über alle vorhergesagten Werte hinweg konstant sein. Überprüfen Sie dies mit einem Restdiagramm (Spreizung sollte ungefähr gleich sein) oder dem Breusch-Pagan-Test. Eine Trichterform weist auf Heteroskedastizität hin, die mit gewichteten kleinsten Quadraten oder robusten Standardfehlern behoben werden kann.
4. Normalität: Residuen sollten ungefähr normalverteilt sein. Überprüfen Sie dies mit einem Histogramm, einem Q-Q-Diagramm oder dem Jarque-Bera-Test. Große Stichproben (n> 30) sind aufgrund des zentralen Grenzwertsatzes robuster gegenüber Verletzungen.
5. Keine Multikollinearität: Prädiktoren sollten nicht zu stark miteinander korreliert sein. Überprüfen Sie dies anhand von Varianzinflationsfaktoren (VIF> 5 weist auf ein Problem hin) oder einer Korrelationsmatrix zwischen Prädiktoren. Zu den Abhilfemaßnahmen gehören das Weglassen eines korrelierten Prädiktors, das Kombinieren von Prädiktoren über PCA oder die Verwendung der Ridge-Regression.
6. Repräsentative Stichprobe: Die Daten sollten eine repräsentative Stichprobe der interessierenden Bevölkerung sein. Zweckmäßige Stichproben, abgeschnittene Bereiche oder ausgelassene Variablen können zu irreführenden Regressionsergebnissen führen, die nicht verallgemeinert werden können.