W zależności od okoliczności i logicznej relacji wyników, zmienna autonomiczna jest przyczyną, a zmienna zależna – oddziaływaniem. Zwrot bezpośredni w najmniejszych kwadratach jest strategią przewidywania oszacowania zmiennej potrzebującej Y, w świetle oszacowania wolnego czynnika X.

Wymagania dotyczące regresji

Podstawowy bezpośredni nawrót choroby jest właściwy, gdy spełnione są towarzyszące mu warunki.

Zmienna potrzebująca Y ma bezpośrednią relację ze zmienną autonomiczną X. Aby to sprawdzić, należy upewnić się, że pole rozpraszania XY jest bezpośrednie, a pozostałe pole pokazuje nieregularny przykład. (Postaraj się nie stresować. Resztki powierzchni pokryjemy w przyszłym ćwiczeniu).

Dla każdego oszacowania X, prawdopodobieństwo przenoszenia Y ma podobne odchylenie standardowe σ. W momencie, w którym warunek ten zostanie spełniony, fluktuacja pozostałości będzie na ogół spójna z ogólnymi szacunkami X, co jest skutecznie sprawdzane na pozostałej powierzchni.

W przypadku niektórych oszacowań losowych X,

Szacunek Y jest wolny, o czym świadczy arbitralny przykład pozostałej działki.

Oceny Y są zazwyczaj przekazywane w sposób zwykły (tzn. symetryczny i jednomodalny). Niewielka skośność jest w porządku, jeśli przykładowa wielkość jest ogromna. Histogram lub wykres punktowy pokaże stan przekazu.

Linia najmniejszych kwadratów Reresji

Bezpośredni nawrót znajduje linię prostą, zwaną najmniej kwadratową linią nawrotu lub LSRL, która najlepiej przemawia do percepcji w dwudzielnym zbiorze informacji. Załóżmy, że Y jest zmienną potrzebującą, a X jest czynnikiem wolnym. Linia powrotu populacji jest:

Y = Β0 + Β1X

gdzie Β0 jest wartością stałą, Β1 jest współczynnikiem powtarzalności, X jest wartością szacunkową zmiennej autonomicznej, a Y jest wartością szacunkową zmiennej obowiązkowej.

Biorąc pod uwagę nieregularny przykład postrzegania, linia powrotu populacji jest oceniana na podstawie:

ŷ = b0 + b1x

gdzie b0 jest wartością stałą, b1 jest współczynnikiem powtarzalności, x jest oszacowaniem zmiennej autonomicznej, a ŷ jest przewidywanym oszacowaniem zmiennej potrzebującej.

Instrukcje do charakterystyki linii regresji

Zazwyczaj do odkrycia b0 i b1 wykorzystuje się urządzenie obliczeniowe – pakiet produktów (np. “Exceed expectations”) lub maszynę do dodawania schematów. Wprowadzasz wartości X i Y do swojego programu lub chipa numerycznego, a urządzenie wykona obliczenia dla każdego parametru.

W nieprawdopodobnym przypadku, gdy wylądujesz na bezludnej wyspie bez komputera lub wykresów z numerami, możesz się zadowolić b0 i b1 “ręcznie”. Oto warunki.

b1 = Σ [ (xi – x)(yi – y) ]/Σ [ (xi – x)2].

b1 = r * (sy/sx)

b0 = y – b1 * x

gdzie b0 jest stałe w stanie nawrotu, b1 jest współczynnikiem nawrotu, r jest związkiem pomiędzy s x i y, xi jest oszacowaniem X postrzegania I, yi jest oszacowaniem Y postrzegania I, x jest średnią X, y jest średnią Y, sx jest odchyleniem standardowym X, a sy jest odchyleniem standardowym Y.

Właściwości linii zwrotnej

W momencie, gdy parametry nawrotu (b0 i b1) są scharakteryzowane jako przedstawione powyżej, linia nawrotu ma towarzyszące im właściwości.

Linia ta ogranicza całość kwadratowych kontrastów pomiędzy obserwowanymi wartościami (wartości y) i oczekiwanymi właściwościami (wartości ŷ przetwarzane na podstawie stanu nawrotu).

Linia nawrotu przechodzi przez średnią ocen X (x) oraz przez średnią ocen Y (y).

Stały nawrót (b0) jest równoważny z blokiem y linii nawrotu.

Współczynnik nawrotu (b1) jest normalną zmianą zmiennej potrzebującej (Y) dla 1-jednostkowej zmiany zmiennej autonomicznej (X). Jest to nachylenie linii nawrotu.

Linia regresji z najmniejszymi kwadratami jest jedyną linią prostą, która posiada wszystkie te właściwości.

Współczynnik wyznaczania (Coefficient of Determination)

Współczynnik wyznaczania (oznaczany przez R2) jest kluczowym wskaźnikiem produktywności badania nawrotów. Rozszyfrowuje się go jako zakres zmiany zmiennej zależnej, która nie jest zaskakująca w stosunku do wolnego czynnika.

Współczynnik wiarygodności waha się od 0 do 1.

R2 równy 0 oznacza, że zmiennej zależnej nie można przewidzieć na podstawie wolnego czynnika.

R2 równy 1 oznacza, że zmiennej zależnej nie można przewidzieć bez pomyłki ze zmienną niezależną.

R2 gdzieś w zakresie od 0 do 1 pokazuje stopień, w jakim zmienna zależna jest niespodzianką. R2 na poziomie 0,10 oznacza, że 10 procent różnicy w Y jest niespodziewane od X; R2 na poziomie 0,20 oznacza, że 20 procent jest niespodziewane itd.

Poniżej podano równanie do przetworzenia współczynnika pewności dla modelu bezpośredniego powrotu do normy z jednym wolnym czynnikiem.