Regresja liniowa jest badaniem, które ocenia, czy co najmniej jeden czynnik wskaźnikowy wyjaśnia zmienną zależną (zasadę). Regresja ma pięć kluczowych założeń:

Relacja liniowa
Wielozmienna typowość
Brak lub niewielka wielokoliczność
Brak auto-relacji
Homoscedastyczność

Notatka o przykładowym rozmiarze. W relacji liniowej, ogólna wytyczna dotycząca przykładowej wielkości jest taka, że analiza regresji wymaga w każdym razie 20 przypadków dla każdego wolnego czynnika w badaniu.

W produkcie znajdującym się pod spodem niezwykle proste jest kierowanie nawrotem, a większa część przypuszczeń jest wstępnie załadowana i przetłumaczona dla użytkownika.

Po pierwsze, bezpośredni nawrót choroby wymaga, aby związek pomiędzy czynnikami autonomicznymi i okręgowymi był prosty. Równie istotne jest sprawdzenie wyjątków, ponieważ nawrót bezpośredni jest delikatny dla skutków anomalii. Przypuszczenie o liniowości najlepiej jest wypróbować w przypadku działek rozpraszających, towarzyszące dwa modele przedstawiają dwa przypadki, w których nie jest dostępna żadna i mała liniowość

http://www.statisticssolutions.com/wp-content/uploads/2010/01/linearregression02.jpg

Co więcej, bezpośrednie badanie nawrotu choroby wymaga, aby wszystkie czynniki były wielowymiarowe i typowe. Założenie to można najlepiej sprawdzić za pomocą histogramu lub Q-Q-Plot. Zwykłość można sprawdzić przy pomocy testu przyzwoitości, np. testu Kołmogorowa-Smirnowa. W momencie, w którym informacja nie jest zwykle rozpowszechniana, nie bezpośrednią zmianę (np. log-change) można naprawić ten problem.

Po trzecie, bezpośredni nawrót spodziewa się, że nie ma prawie żadnej wieloliniowości w informacji. Wielokoliczność występuje wtedy, gdy czynniki autonomiczne są ze sobą nadmiernie powiązane.

Wieloliniowość można wypróbować przy pomocy trzech głównych kryteriów:

1)Matryca korelacji – podczas przetwarzania sieci Biwariate Connection Pearsona pomiędzy każdą zmienną autonomiczną, współczynniki korelacji powinny być mniejsze niż 1.

2) Odporność – odporność ocenia wpływ jednego wolnego czynnika na wszystkie inne czynniki autonomiczne; odporność jest określana za pomocą badania bezpośredniego nawrotu. Odporność jest scharakteryzowana jako T = 1 – R² dla tych początkowych badań nad nawrotem choroby. W przypadku T < 0,1 może występować wieloliniowość informacji, a w przypadku T < 0,01 na pewno tak jest.

3) FVariance Inflation Factor (VIF – zmienna pęcznienia różnicowego prostego nawrotu jest scharakteryzowana jako VIF = 1/T. W przypadku VIF > 5 oznacza to, że może być dostępna wieloliniowość, a w przypadku VIF > 10 bezsprzecznie istnieje wieloliniowość tych czynników.

W przypadku braku możliwości znalezienia wielokoliniowości w informacji, skupienie informacji (czyli odjęcie średniej zmiennej od każdego wyniku) może załatwić sprawę. Tak czy inaczej, najmniej złożonym podejściem do rozwiązania problemu jest ewakuacja autonomicznych czynników o wysokich wartościach VIF.

Po czwarte, analiza regresji liniowej wymaga, aby w informacjach istniała niemal zerowa autokorelacja. Autokorelacja występuje wtedy, gdy resztki nie są od siebie wolne. Na przykład dzieje się to zazwyczaj w przypadku kosztów zapasów, gdy koszt nie jest wolny od kosztów z przeszłości.

4) Wskaźnik stanu – wskaźnik stanu jest określany w celu wykorzystania badania czynników niezależnych. Oszacowania 10-30 wykazują uczciwą wieloliniowość w przypadku prostych czynników zwrotnych, wartości > 30 wykazują stałą wieloliniowość.

W przypadku stwierdzenia wieloliniowości w informacjach skupiających informacje, to odjęcie średniego wyniku może załatwić sprawę. Różne wybory w celu rozwiązania problemu prowadzą do badania czynników i obracania elementów w celu zagwarantowania swobody elementów w badaniu prostego nawrotu choroby.

Po czwarte, analiza regresji liniowej wymaga praktycznie braku autokorelacji w informacji. Autokorelacja występuje wtedy, gdy resztki nie są od siebie niezależne. Na koniec dnia, kiedy oszacowanie y(x+1) nie jest wolne od oszacowania y(x).

http://www.statisticssolutions.com/wp-content/uploads/2010/01/linearregression05.jpg

Podczas gdy scatterplot umożliwia sprawdzenie autokorelacji, można przetestować prosty model powrotu do normy pod kątem autokorelacji za pomocą testu Durbin-Watsona. W teście Durbin-Watson’a sprawdzana jest nieprawidłowa teoria, że resztki nie są bezpośrednio związane z autokorelacją. Podczas gdy model d może akceptować wartości gdzieś w zakresie od 0 do 4, wartości około 2 nie wykazują autokorelacji. Ogólnie rzecz biorąc, szacunki 1,5 < d < 2,5 pokazują, że w informacji nie występuje autokorelacja. Niemniej jednak, test Durbin-Watsona bada tylko prostą autokorelację i tylko pomiędzy bezpośrednimi sąsiadami, które są uderzeniami pierwszego żądania.

Ostatnim podejrzeniem badania prostego nawrotu jest homoscedastyczność. Wykres rozpraszania jest doskonałym podejściem do sprawdzenia, czy informacje są homoscedastyczne (co oznacza, że resztki są równoważne na linii nawrotu). Załączone wykresy rozpraszające pokazują przypadki informacji, które nie są homoscedastyczne (tzn. heteroscedastyczne):

http://www.statisticssolutions.com/wp-content/uploads/2010/01/linearregression06.jpg

Test Goldfeldta-Quandta może być również wykorzystany do badania heteroscedastyczności. Badanie dzieli informacje na dwa skupiska i sprawdza, czy różnice w pozostałościach są porównywalne w stosunku do tych skupisk. W przypadku braku możliwości uzyskania homoscedastyczności, problem może zostać rozwiązany za pomocą nie bezpośredniego przeglądu.