Coursera Learner working on a presentation with Coursera logo and
Coursera Learner working on a presentation with Coursera logo and

Modele regresji liniowej nie pokazują ani nie przewidują związku pomiędzy dwoma zmiennymi lub czynnikami. Czynnik, który jest przewidywany (czynnik, dla którego rozwiązuje się równanie) jest nazywany zmienną . Czynniki, które nie przewidują wartości zmiennej, nazywane są niezależnymi zmiennymi.

W regresji prostoliniowej, każda obserwacja składa się z dwóch wartości. Jedna wartość jest dla zmiennej i jedna wartość jest dla zmiennej eksperymentalnej . Podczas tego prostego modelu, linia przybliża związek pomiędzy zmienną, a zatem i zmienną doświadczalną .1

Kiedy dwie lub więcej niezależnych zmiennych jest wykorzystywanych w analizie wielowymiarowej, model nie jest już prostym modelem liniowym. Jest to często określane jako korelacja wielokrotna .2

Wzór na łatwy model regresji prostoliniowej

Dwa czynniki zaangażowane w prostą analizę regresji prostoliniowej są oznaczone x i y. Równanie, które opisuje sposób, w jaki mówi się y do x, jest zrozumiałe, ponieważ model regresji.

Prosty model regresji prostoliniowej jest reprezentowany przez:

y = β0 +β1x+ε

Model regresji prostoliniowej zawiera termin pomyłki, który jest reprezentowany przez ε. Termin pomyłki jest stosowany w celu wyjaśnienia zmienności y, której nie można wytłumaczyć liniową zależnością pomiędzy x i y. Gdyby ε nie była obecna, mogłoby to oznaczać, że znajomość x oferowałaby wystarczającą ilość informacji, aby określić wartość y.

Istnieją również parametry reprezentujące badaną populację. Te parametry modelu są reprezentowane przez β0 i β1.

Proste równanie regresji prostoliniowej jest grafowane jako linia , gdzie:

β0 jest to punkt przecięcia krzywej regresji y .

β1 jest to nachylenie.

Ε(y) oznacza, że średnia lub średnia arytmetyczna y dla danej wartości x.

Krzywa regresji może wykazywać dodatnią zależność liniową, ujemną zależność liniową lub brak zależności3.

Brak zależności: Linia nachylona podczas prostej regresji prostoliniowej jest płaska (nie nachylona). nie ma żadnej zależności pomiędzy tymi 2 zmiennymi.

Dodatnia zależność: Krzywa regresji jest nachylona ku górze, a dolny koniec drogi w punkcie przecięcia y (oś) wykresu, a więc górny koniec drogi rozciągający się ku górze do pola wykresu, z dala od punktu przecięcia x (oś). istnieje dodatnia zależność liniowa między 2 zmiennymi: ponieważ wartość 1 rośnie, rośnie również wartość przeciwna.

Negatywna zależność: Krzywa regresji zchyla się w dół wraz z górnym końcem drogi w punkcie przecięcia y (osi) wykresu, a zatem dolny koniec drogi rozciąga się w dół do pola wykresu, w kierunku punktu przecięcia x (osi). istnieje ujemna zależność liniowa między dwoma zmiennymi: ponieważ wartość 1 rośnie, wartość przeciwna również maleje.4

Szacunkowa regresja prostoliniowa Równanie

Gdyby parametry populacji były znane, równanie prostej regresji prostoliniowej (przedstawione poniżej) mogłoby nie obliczyć średniej y dla znanej wartości x.

Ε(y) = β0 +β1x+ε

W praktyce jednak wartości parametrów na ogół nie są znane, aby można je było oszacować na podstawie danych z próby populacji. Parametry populacji są szacowane przy użyciu statystyk z próby. Statystyki próby są reprezentowane przez β0 i β1. Kiedy statystyki próbki są zastępowane przez parametry z populacji, szacunkowa regresja y na x jest dokonywana .3

Regresja szacunkowa y na x jest:

(ŷ) = β0 +β1x+ε

Uwaga: (ŷ) jest wymawiane y hat.

Wykres równania regresji szacunkowej jest nazywany krzywą regresji szacunkowej .

β0 jest to wartość y-intercept krzywej regresji .

β1 jest to nachylenie.

(ŷ) jest to wartość szacunkowa y dla danej wartości x.

Granice regresji prostoliniowej prostoliniowej

Nawet najprostsze dane nie opowiadają całej historii.

Analiza regresji jest zwykle wykorzystywana w badaniach w celu ustalenia, że istnieje korelacja między zmiennymi. Ale korelacja nie jest równoznaczna z przyczyną: związek między dwoma zmiennymi nie oznacza, że jedna z nich powoduje coś przeciwnego. Nawet linia podczas prostej regresji prostoliniowej, która pasuje do punktów informacyjnych, może nie gwarantować związku przyczynowo-skutkowego.

Użycie modelu regresji prostoliniowej pozwoli Ci uzyskać informację, czy związek pomiędzy zmiennymi istnieje w najmniejszym stopniu. Aby wiedzieć dokładnie, czym jest ta zależność i czy jedna zmienna powoduje drugą, potrzebne będą dodatkowe badania i analizy statystyczne.