Co to jest wielokrotna regresja liniowa - MLR?
Wielokrotna regresja liniowa (MLR), znana również po prostu jako regresja wielokrotna, jest techniką statystyczną, która wykorzystuje kilka zmiennych objaśniających do przewidywania wyniku zmiennej odpowiedzi. Celem wielokrotnej regresji liniowej (MLR) jest modelowanie liniowej zależności między zmiennymi objaśniającymi (niezależnymi) a zmienną odpowiedzi (zależną).
Zasadniczo regresja wielokrotna jest rozszerzeniem zwykłej regresji metodą najmniejszych kwadratów (OLS), która obejmuje więcej niż jedną zmienną objaśniającą.
Wzór na wielokrotną regresję liniową to
W pobliżu Yi = β0 + β1 xi1 + β2 xi2 +… + βp xip + ϵ gdzie, dla obserwacji i = n: yi = zmienna zależna xi = zmienne ekspansyjneβ0 = przecięcie y (stała warunek) βp = współczynniki nachylenia dla każdej zmiennej objaśniającejϵ = warunek błędu modelu (znany również jako reszty)
Wyjaśnienie wielu regresji liniowych
Prosta regresja liniowa jest funkcją, która pozwala analitykowi lub statystycznemu na przewidywanie jednej zmiennej na podstawie informacji o innej zmiennej. Regresji liniowej można użyć tylko wtedy, gdy mamy dwie zmienne ciągłe - zmienną niezależną i zmienną zależną. Zmienna niezależna jest parametrem używanym do obliczania zmiennej zależnej lub wyniku. Model regresji wielokrotnej obejmuje kilka zmiennych objaśniających.
Model regresji wielokrotnej opiera się na następujących założeniach:
- Istnieje zależność liniowa między zmiennymi zależnymi a zmiennymi niezależnymi. Zmienne niezależne nie są zbyt mocno ze sobą skorelowane. Y Obserwacje są wybierane niezależnie i losowo z populacji. Pozostałości powinny być normalnie rozmieszczone ze średnią 0 i wariancją σ.
Współczynnik determinacji (R-kwadrat) jest miarą statystyczną, która jest używana do mierzenia, ile zmienności wyniku można wytłumaczyć zmiennością zmiennych niezależnych. R2 zawsze wzrasta, gdy do modelu MLR dodaje się więcej predyktorów, nawet jeśli predyktory mogą nie być powiązane ze zmienną wyniku.
R 2 sam w sobie nie może być zatem użyty do określenia, które predyktory powinny zostać uwzględnione w modelu, a które należy wykluczyć. R2 może wynosić tylko od 0 do 1, gdzie 0 oznacza, że wynik nie może być przewidziany przez żadną zmienną niezależną, a 1 oznacza, że wynik można przewidzieć bez błędu ze zmiennych niezależnych.
Podczas interpretacji wyników regresji wielokrotnej współczynniki beta są prawidłowe, utrzymując wszystkie pozostałe zmienne na stałym poziomie („wszystkie pozostałe są równe”). Dane wyjściowe z regresji wielokrotnej mogą być wyświetlane poziomo jako równanie lub pionowo w formie tabeli.
Przykład użycia wielokrotnej regresji liniowej
Na przykład analityk może chcieć wiedzieć, w jaki sposób ruch rynku wpływa na cenę Exxon Mobil (XOM). W tym przypadku jego równanie liniowe będzie miało wartość indeksu S&P 500 jako zmiennej niezależnej lub predyktora, a cenę XOM jako zmienną zależną.
W rzeczywistości istnieje wiele czynników, które przewidują wynik zdarzenia. Na przykład ruch cen Exxon Mobil zależy nie tylko od wyników całego rynku. Inne czynniki prognostyczne, takie jak cena ropy naftowej, stopy procentowe i ruch cen kontraktów terminowych na ropę naftową, mogą wpływać na cenę XOM i ceny akcji innych spółek naftowych. Aby zrozumieć związek, w którym występują więcej niż dwie zmienne, stosuje się wielokrotną regresję liniową.
Metodę wielokrotnej regresji liniowej (MLR) stosuje się do określenia zależności matematycznej między wieloma zmiennymi losowymi. Innymi słowy, MLR sprawdza, w jaki sposób wiele niezależnych zmiennych jest powiązanych z jedną zmienną zależną. Po określeniu każdego z niezależnych czynników do przewidywania zmiennej zależnej, informacje na temat wielu zmiennych można wykorzystać do stworzenia dokładnego przewidywania poziomu wpływu, jaki wywierają na zmienną wynikową. Model tworzy relację w postaci linii prostej (liniowej), która najlepiej przybliża wszystkie pojedyncze punkty danych.
Nawiązując do powyższego równania MLR, w naszym przykładzie:
- y i = zmienna zależna: cena XOMx i1 = stopy procentowe x i2 = cena ropy x i3 = wartość indeksu S&P 500 x i4 = cena kontraktów terminowych na ropę B 0 = punkt przecięcia y w czasie zero B 1 = współczynnik regresji, który mierzy zmianę jednostkową w zależności zmienna przy zmianach x i1 - zmiana ceny XOM przy zmianie stóp procentowych B 2 = wartość współczynnika mierząca zmianę jednostkową zmiennej zależnej przy zmianie x i2 - zmiana ceny XOM przy zmianie cen ropy
Szacunki najmniejszych kwadratów, B 0, B 1, B 2 … B p, są zwykle obliczane przez oprogramowanie statystyczne. Ponieważ w modelu regresji można uwzględnić wiele zmiennych, w których każda zmienna niezależna jest zróżnicowana liczbą - 1, 2, 3, 4… p. Model wielokrotnej regresji pozwala analitykowi przewidzieć wynik na podstawie informacji dostarczonych na temat wielu zmiennych objaśniających.
Mimo to model nie zawsze jest idealnie dokładny, ponieważ każdy punkt danych może nieznacznie różnić się od wyniku przewidywanego przez model. Wartość rezydualna, E, która jest różnicą między faktycznym wynikiem a przewidywanym wynikiem, jest uwzględniona w modelu w celu uwzględnienia tak niewielkich zmian.
Zakładając, że uruchamiamy nasz model regresji cen XOM za pomocą oprogramowania do obliczeń statystycznych, które zwraca następujące dane wyjściowe:
Analityk interpretuje tę produkcję jako oznaczającą, że jeśli inne zmienne będą utrzymywane na stałym poziomie, cena XOM wzrośnie o 7, 8%, jeśli cena ropy na rynkach wzrośnie o 1%. Model pokazuje również, że cena XOM spadnie o 1, 5% po wzroście stóp procentowych o 1%. R 2 wskazuje, że 86, 5% zmian cen akcji Exxon Mobil można wyjaśnić zmianami stopy procentowej, ceny ropy naftowej, kontraktów terminowych na ropę i indeksu S&P 500.
Kluczowe dania na wynos
- Wielokrotna regresja liniowa (MLR), znana również jako regresja wielokrotna, jest techniką statystyczną, która wykorzystuje kilka zmiennych objaśniających do przewidywania wyniku zmiennej odpowiedzi. Wielokrotna regresja jest rozszerzeniem regresji liniowej (OLS), która wykorzystuje tylko jedną zmienną objaśniającą. MLR jest szeroko stosowany w ekonometrii i wnioskach finansowych.
Różnica między regresją liniową a wielokrotną
Regresja liniowa (OLS) porównuje odpowiedź zmiennej zależnej, biorąc pod uwagę zmianę niektórych zmiennych objaśniających. Jednak rzadko zdarza się, że zmienną zależną tłumaczy się tylko jedną zmienną. W takim przypadku analityk stosuje regresję wielokrotną, która próbuje wyjaśnić zmienną zależną przy użyciu więcej niż jednej zmiennej niezależnej. Wiele regresji może być liniowych i nieliniowych.
Wielokrotne regresje oparte są na założeniu, że istnieje zależność liniowa między zmiennymi zależnymi i niezależnymi. Zakłada również brak istotnej korelacji między zmiennymi niezależnymi.
