Kalkulator regresji wielokrotnej

Oblicz równania regresji wielokrotnej z dwoma lub większą liczbą predyktorów. Znajdź najlepszy model dla swoich danych, korzystając z naszego bezpłatnego...

Multiple Regression Visualization

Kalkulator regresji wielokrotnej

Oblicz równania regresji wielokrotnej z dwoma lub większą liczbą predyktorów. Znajdź najlepszy model dla swoich danych, korzystając z naszego bezpłatnego...

Wprowadź swoje punkty danych

Jak tego używać Kalkulator regresji wielokrotnej

Complex Modeling

Analyze how multiple factors simultaneously influence your dependent variable.

Wyniki statystyczne

Calculate partial coefficients, standard errors, and adjusted R-squared values.

Diagnostics

Built-in checks for multicollinearity and model significance.

Multiple regression helps isolate the effect of one variable while controlling for others.

Jak obliczyć regresję wielokrotną

📐 Regresja wielokrotna rozszerza prostą regresję liniową na dwie lub więcej zmiennych predykcyjnych, tworząc równanie y = b₀ + b₁x₁ + b₂x₂ + … + bₚxₚ, gdzie każdy współczynnik bᵢ reprezentuje wpływ predyktora xᵢ na y przy jednoczesnym zachowaniu wszystkich pozostałych predyktorów stała.

❌ Ta właściwość „utrzymywania stałej” sprawia, że regresja wielokrotna jest tak potężna — pozwala wyizolować unikalny wkład każdego predyktora, kontrolując czynniki zakłócające, które w przeciwnym razie zniekształciłyby wyniki. Na przykład, jeśli chcesz zbadać wpływ wykształcenia na dochody, zwykła regresja dochodu na wykształcenie połączyłaby wpływ edukacji z wpływem doświadczenia, ponieważ lepiej wykształceni ludzie również mają zwykle więcej doświadczenia.

📐 Regresja wielokrotna rozwiązuje ten problem, uwzględniając zarówno wykształcenie, jak i doświadczenie jako predyktory, więc każdy współczynnik odzwierciedla rzeczywisty wpływ samej tej zmiennej. Regresja wielokrotna to najpowszechniej stosowana technika regresji w badaniach, analityce biznesowej, naukach społecznych, medycynie i uczeniu maszynowym, ponieważ wyniki w świecie rzeczywistym prawie zawsze zależą od wielu czynników jednocześnie.

📊 Model z jednym predyktorem rzadko oddaje wystarczającą zmienność, aby był użyteczny — dodanie odpowiednich predyktorów prawie zawsze zwiększa moc wyjaśniającą i poprawia dokładność przewidywań. Do najważniejszych zgłaszanych statystyk należą R² (proporcja wariancji wyjaśniona przez wszystkie predyktory razem), skorygowany R² (który penalizuje dodanie predyktorów, które faktycznie nie poprawiają modelu), statystykę F (która sprawdza, czy cały model jest statystycznie istotny) oraz błąd standardowy oszacowania (który mierzy średnią odległość punktów danych od hiperpłaszczyzny regresji).

📊 Zrozumienie tych metryk jest niezbędne do budowania wiarygodnych modeli i unikanie nadmiernego dopasowania, które ma miejsce, gdy uwzględni się zbyt wiele predyktorów w stosunku do wielkości próby.

How Multiple Regression Works

Założenia regresji wielokrotnej

1. Liniowość: każdy predyktor musi mieć liniową zależność z Y, gdy inne predyktory pozostają niezmienne. Sprawdź za pomocą wykresów częściowej regresji (zwanych także wykresami dodanych zmiennych) i wykresów reszt. Zakrzywione wzory wskazują na potrzebę stosowania wyrazów wielomianowych lub transformacji zmiennych.
2. Niezależność: Reszty muszą być niezależne — bez autokorelacji. Sprawdź testem Durbina-Watsona (d ≈ 2 oznacza brak autokorelacji). Dane szeregów czasowych często naruszają to założenie; rozważ dodanie terminów opóźnienia lub użycie modeli ARIMA, jeśli wykryta zostanie autokorelacja.
3. Homoscedastyczność: wariancja resztkowa musi być stała dla wszystkich przewidywanych wartości. Sprawdź za pomocą wykresu reszt (rozrzut powinien być mniej więcej równy) lub testu Breuscha-Pagana. Kształt lejka wskazuje na heteroskedastyczność, którą można rozwiązać za pomocą ważonej metody najmniejszych kwadratów lub solidnych błędów standardowych.
4. Normalność: reszty powinny mieć w przybliżeniu rozkład normalny. Sprawdź za pomocą histogramu, wykresu Q-Q lub testu Jarque-Bera. Duże próbki (n> 30) są bardziej odporne na naruszenia ze względu na centralne twierdzenie graniczne.
5. Brak współliniowości: Predyktory nie powinny być ze sobą zbyt silnie skorelowane. Sprawdź za pomocą współczynników inflacji wariancji (VIF> 5 oznacza problem) lub macierzy korelacji między predyktorami. Środki zaradcze obejmują porzucenie jednego skorelowanego predyktora, połączenie predyktorów za pomocą PCA lub użycie regresji grzbietowej.
6. Reprezentatywna próbka: dane powinny stanowić reprezentatywną próbę danej populacji. Wygodne próbki, obcięte zakresy lub pominięte zmienne mogą dawać mylące wyniki regresji, które nie powodują uogólnień.