Die lineare Regression ist eine Untersuchung, bei der bewertet wird, ob mindestens ein Indikatorfaktor die abhängige (Regel-)Variable verdeutlicht. Der Rückfall hat fünf Hauptannahmen:

Lineare Beziehung

Multivariate Typizität

Keine oder wenig Multikollinearität

Keine Auto-Beziehung

Homoskedastizität

Ein Hinweis zur Beispielgröße. In linearer Beziehung gilt als allgemeine Richtlinie für die Beispielgröße, dass die Regressionsanalyse auf jeden Fall 20 Fälle für jeden freien Faktor in der Untersuchung erfordert.

In dem darunter liegenden Produkt ist es äußerst einfach, einen Rückfall zu steuern, und der größte Teil der Vermutungen ist vorinstalliert und für Sie übersetzt.

Zunächst einmal muss bei einem direkten Rückfall die Verbindung zwischen den autonomen und den Stationsfaktoren gerade sein. Es ist ebenso wichtig, auf Ausnahmen zu prüfen, da ein direkter Rückfall empfindlich auf Auswirkungen von Anomalien reagiert. Die Linearitätsannahme kann am besten mit dispergierenden Plots versucht werden, die beiden begleitenden Modelle stellen zwei Fälle dar, in denen keine und wenig Linearität vorhanden ist

Darüber hinaus erfordert die direkte Rezidivuntersuchung, dass alle Faktoren multivariat typisch sind. Diese Vermutung lässt sich am besten mit einem Histogramm oder einem Q-Q-Plot überprüfen. Die Gewöhnlichkeit kann mit einem anständigen Fit-Test überprüft werden, z.B. mit dem Kolmogorov-Smirnov-Test. An dem Punkt, an dem die Information nicht gewöhnlich im Umlauf ist, kann eine nicht-direkte Änderung (z.B. Log-Änderung) dieses Problem beheben.

Drittens erwarten direkte Rückfälle, dass es fast keine Multikollinearität in der Information gibt. Multikollinearität liegt vor, wenn die autonomen Faktoren übermäßig tief miteinander verbunden sind.

Multikollinearität könnte mit drei zentralen Kriterien versucht werden:

1)Korrelationsmatrix – bei der Verarbeitung des Netzwerks der Pearson’schen bivariaten Verbindung zwischen jeder autonomen Variablen sollten die Beziehungskoeffizienten kleiner als 1 sein.

2) Resistenz – die Resilienz schätzt den Einfluss eines freien Faktors auf alle anderen autonomen Faktoren; die Resilienz wird mit einer zugrundeliegenden geraden Rückfalluntersuchung bestimmt. Die Resilienz wird als T = 1 – R² für diese Rückfalluntersuchung der ersten Stufe charakterisiert. Bei T < 0,1 kann es Multikollinearität in der Information geben, bei T < 0,01 ist sie mit Sicherheit gegeben.

3) FVarianz-Inflations-Faktor (VIF- die Differenz-Schwellungsvariable des geraden Rezidivs wird als VIF = 1/T charakterisiert. Bei VIF > 5 bedeutet dies, dass Multikollinearität vorhanden sein könnte; bei VIF > 10 besteht unter den Faktoren unzweifelhaft Multikollinearität.

Für den unwahrscheinlichen Fall, dass Multikollinearität in den Informationen gefunden wird, kann eine Fokussierung der Informationen (d.h. der Abzug des Mittelwertes der Variablen von jedem Score) das Problem lösen. Wie dem auch sei, der am wenigsten komplexe Ansatz zur Lösung des Problems besteht darin, autonome Faktoren mit hohen VIF-Werten zu evakuieren.

Viertens setzt die lineare Regressionsanalyse voraus, dass die Autokorrelation in der Information nahezu Null ist. Autokorrelation tritt auf, wenn die Residuen nicht frei voneinander sind. Dies geschieht zum Beispiel normalerweise bei Lagerkosten, wo die Kosten nicht frei von den Kosten der Vergangenheit sind.

4) Zustandsindex – der Zustandsindex wird bestimmt, um eine Faktorenuntersuchung der autonomen Faktoren zu nutzen. Schätzungen von 10-30 zeigen eine faire Multikollinearität bei den geraden Rückfallfaktoren, Werte > 30 zeigen eine solide Multikollinearität.

Für den Fall, dass Multikollinearität in den Informationen gefunden wird, die die Informationen fokussieren, kann der Abzug des Mittelwertes das Problem lösen. Unterschiedliche Entscheidungen zur Behandlung der Probleme führt zu einer Faktorenprüfung und zum Drehen der Elemente, um die Freiheit der Komponenten in der geraden Rückfalluntersuchung zu gewährleisten.

Viertens erfordert die lineare Regressionsanalyse, dass es praktisch keine Autokorrelation in den Informationen gibt. Autokorrelation tritt auf, wenn die Residuen nicht unabhängig voneinander sind. Am Ende des Tages, wenn die Schätzung von y(x+1) nicht frei von der Schätzung von y(x) ist.

Während ein Scatterplot es Ihnen ermöglicht, Autokorrelationen zu überprüfen, können Sie das gerade Rückfallmodell mit dem Durbin-Watson-Test auf Autokorrelationen testen. Der Durbin-Watson d-Test testet die ungültige Theorie, dass die Residuen nicht direkt autokorreliert sind. Während d Werte irgendwo im Bereich von 0 und 4 akzeptieren kann, zeigen Werte um 2 keine Autokorrelation. Als allgemeine Richtlinie zeigen Schätzungen von 1,5 < d < 2,5, dass es keine Autokorrelation in den Informationen gibt. Nichtsdestotrotz untersucht der Durbin-Watson-Test nur die direkte Autokorrelation und nur zwischen direkten Nachbarn, die Auswirkungen der ersten Anfrage sind.

Der letzte Verdacht bei der geraden Rückfalluntersuchung ist die Homoskedastizität. Der Dissipate Plot ist ein guter Ansatz, um zu überprüfen, ob die Informationen homoskedastisch sind (d.h. die Residuen sind über die Rückfalllinie äquivalent). Die begleitenden Dissipate Plots zeigen Fälle von Informationen, die nicht homoskedastisch (d.h. heteroskedastisch) sind:

Der Goldfeld-Quandtest kann ebenfalls verwendet werden, um auf Heteroskedastizität zu testen. Der Test teilt die Informationen in zwei Erhebungen auf und testet, ob die Unterschiede der Residuen über die Erhebungen hinweg vergleichbar sind. Falls die Möglichkeit besteht, dass Homoskedastizität vorliegt, kann eine nicht-direkte Revision das Problem beheben.