Modele regresji liniowej nie pokazują ani nie przewidują związku pomiędzy dwoma zmiennymi lub czynnikami. Czynnik, który jest przewidywany (czynnik, dla którego rozwiązuje się równanie) jest nazywany zmienną . Czynniki, które nie przewidują wartości zmiennej, nazywane są niezależnymi zmiennymi.
W regresji prostoliniowej, każda obserwacja składa się z dwóch wartości. Jedna wartość jest dla zmiennej i jedna wartość jest dla zmiennej eksperymentalnej . Podczas tego prostego modelu, linia przybliża związek pomiędzy zmienną, a zatem i zmienną doświadczalną .1
Kiedy dwie lub więcej niezależnych zmiennych jest wykorzystywanych w analizie wielowymiarowej, model nie jest już prostym modelem liniowym. Jest to często określane jako korelacja wielokrotna .2
Wzór na łatwy model regresji prostoliniowej
Dwa czynniki zaangażowane w prostą analizę regresji prostoliniowej są oznaczone x i y. Równanie, które opisuje sposób, w jaki mówi się y do x, jest zrozumiałe, ponieważ model regresji.
Prosty model regresji prostoliniowej jest reprezentowany przez:
y = β0 +β1x+ε
Model regresji prostoliniowej zawiera termin pomyłki, który jest reprezentowany przez ε. Termin pomyłki jest stosowany w celu wyjaśnienia zmienności y, której nie można wytłumaczyć liniową zależnością pomiędzy x i y. Gdyby ε nie była obecna, mogłoby to oznaczać, że znajomość x oferowałaby wystarczającą ilość informacji, aby określić wartość y.
Istnieją również parametry reprezentujące badaną populację. Te parametry modelu są reprezentowane przez β0 i β1.
Proste równanie regresji prostoliniowej jest grafowane jako linia , gdzie:
β0 jest to punkt przecięcia krzywej regresji y .
β1 jest to nachylenie.
Ε(y) oznacza, że średnia lub średnia arytmetyczna y dla danej wartości x.
Krzywa regresji może wykazywać dodatnią zależność liniową, ujemną zależność liniową lub brak zależności3.
Brak zależności: Linia nachylona podczas prostej regresji prostoliniowej jest płaska (nie nachylona). nie ma żadnej zależności pomiędzy tymi 2 zmiennymi.
Dodatnia zależność: Krzywa regresji jest nachylona ku górze, a dolny koniec drogi w punkcie przecięcia y (oś) wykresu, a więc górny koniec drogi rozciągający się ku górze do pola wykresu, z dala od punktu przecięcia x (oś). istnieje dodatnia zależność liniowa między 2 zmiennymi: ponieważ wartość 1 rośnie, rośnie również wartość przeciwna.
Negatywna zależność: Krzywa regresji zchyla się w dół wraz z górnym końcem drogi w punkcie przecięcia y (osi) wykresu, a zatem dolny koniec drogi rozciąga się w dół do pola wykresu, w kierunku punktu przecięcia x (osi). istnieje ujemna zależność liniowa między dwoma zmiennymi: ponieważ wartość 1 rośnie, wartość przeciwna również maleje.4
Szacunkowa regresja prostoliniowa Równanie
Gdyby parametry populacji były znane, równanie prostej regresji prostoliniowej (przedstawione poniżej) mogłoby nie obliczyć średniej y dla znanej wartości x.
Ε(y) = β0 +β1x+ε
W praktyce jednak wartości parametrów na ogół nie są znane, aby można je było oszacować na podstawie danych z próby populacji. Parametry populacji są szacowane przy użyciu statystyk z próby. Statystyki próby są reprezentowane przez β0 i β1. Kiedy statystyki próbki są zastępowane przez parametry z populacji, szacunkowa regresja y na x jest dokonywana .3
Regresja szacunkowa y na x jest:
(ŷ) = β0 +β1x+ε
Uwaga: (ŷ) jest wymawiane y hat.
Wykres równania regresji szacunkowej jest nazywany krzywą regresji szacunkowej .
β0 jest to wartość y-intercept krzywej regresji .
β1 jest to nachylenie.
(ŷ) jest to wartość szacunkowa y dla danej wartości x.
Granice regresji prostoliniowej prostoliniowej
Nawet najprostsze dane nie opowiadają całej historii.
Analiza regresji jest zwykle wykorzystywana w badaniach w celu ustalenia, że istnieje korelacja między zmiennymi. Ale korelacja nie jest równoznaczna z przyczyną: związek między dwoma zmiennymi nie oznacza, że jedna z nich powoduje coś przeciwnego. Nawet linia podczas prostej regresji prostoliniowej, która pasuje do punktów informacyjnych, może nie gwarantować związku przyczynowo-skutkowego.
Użycie modelu regresji prostoliniowej pozwoli Ci uzyskać informację, czy związek pomiędzy zmiennymi istnieje w najmniejszym stopniu. Aby wiedzieć dokładnie, czym jest ta zależność i czy jedna zmienna powoduje drugą, potrzebne będą dodatkowe badania i analizy statystyczne.