In omstandigheden en logische resultaatverhoudingen is de autonome variabele de reden, en de afhankelijke variabele de impact. De kleinste kwadraten directe terugval is een strategie voor het voorzien van de schatting van een behoeftige variabele Y, in het licht van de schatting van een vrije factor X.

Vereisten voor Regressie

De basis voor een directe terugval is goed als aan de bijbehorende voorwaarden is voldaan.

De behoeftige variabele Y heeft een directe relatie met de autonome variabele X. Om dit te controleren, moet u ervoor zorgen dat de XY-verstrooiingsplot direct is en dat het resterende perceel een onregelmatig voorbeeld laat zien. (Probeer niet te benadrukken. We zullen in een toekomstige oefening de overgebleven percelen behandelen).

Voor elke schatting van X heeft de waarschijnlijkheid van het transport van Y een vergelijkbare standaardafwijking σ. Op het moment dat aan deze voorwaarde is voldaan, zal de fluctuatie van de residu’s over het algemeen consistente algemene schattingen van X zijn, wat effectief wordt gecontroleerd in een overgebleven plot.

Voor sommige willekeurige schattingen van X,

De Y-waarden zijn vrij, zoals blijkt uit een willekeurig voorbeeld van het resterende perceel.

De Y-esteems worden over het algemeen gewoonlijk overgebracht (d.w.z. symmetrisch en unimodaal). Een beetje scheefheid is goed als de voorbeeldgrootte groot is. Een histogram of een dotplot geeft de toestand van het transport weer.

De Minst Vierkante Herhalingslijn

Directe terugval vindt de rechte lijn, genaamd de minst kwadraten terugvallijn of LSRL, die het best spreekt tot waarnemingen in een bivariate informatieverzameling. Stel dat Y een behoeftige variabele is, en X een vrije factor. De terugvallijn van de populatie is:

Y = Β0 + Β1X

waarbij Β0 een constante is, Β1 de terugvalcoëfficiënt is, X de schatting van de autonome variabele en Y de schatting van de behoeftige variabele.

Gezien een onregelmatig voorbeeld van percepties, wordt de recidielijn van de populatie beoordeeld door:

ŷ = b0 + b1x

waarbij b0 een constante is, b1 de terugvalcoëfficiënt, x de schatting van de autonome variabele en ŷ de verwachte schatting van de behoeftige variabele.

Instructies om een Regressielijn te karakteriseren

Normaal gesproken gebruikt u een rekenmachine – een productbundel (bijvoorbeeld Exceed expectations) of een schematiseermachine – om b0 en b1 te ontdekken. U voert de X- en Y-waardes in uw programma of nummercruncher in, en het instrument begrijpt voor elke parameter.

In de onwaarschijnlijke situatie dat u op een onbewoond eiland terechtkomt zonder een PC of een getalkraker, kunt u “met de hand” genoegen nemen met b0 en b1. Hier zijn de voorwaarden.

b1 = Σ [ (xi – x)(yi – y) ]/Σ [ (xi – x)2].

b1 = r * (sy/sx)

b0 = y – b1 * x

waarbij b0 stabiel is in de relaptoestand, b1 de terugvalcoëfficiënt is, r het verband is tussen de x en y, xi de X-schatting van de waarneming I, yi de Y-schatting van de waarneming I, x het gemiddelde van X, y het gemiddelde van Y, sx de standaardafwijking van X, en sy de standaardafwijking van Y.

Eigenschappen van de Relapse Line

Op het moment dat de terugvalparameters (b0 en b1) worden gekarakteriseerd zoals afgebeeld, heeft de terugvallijn de bijbehorende eigenschappen.

De lijn beperkt het geheel van gekwadrateerde contrasten tussen de waargenomen waarden (de y-waarden) en de verwachte kwaliteiten (de ŷ waarden verwerkt vanuit de relaptoestand).

De terugvallijn gaat door het gemiddelde van de X-achting (x) en door het gemiddelde van de Y-achting (y).

De recidive stabiel (b0) is gelijk aan het y-blok van de recidielijn.

De terugvalcoëfficiënt (b1) is de normale verandering in de behoeftige variabele (Y) voor een 1-eenheidsverandering in de autonome variabele (X). Het is de helling van de recidielijn.

De kleinste kwadraten regressielijn is de enige rechte lijn die al deze eigenschappen heeft.

De Determinatiecoëfficiënt

De determinatiecoëfficiënt (aangeduid met R2) is een belangrijke opbrengst van terugvalonderzoek. Het wordt ontcijferd als de omvang van de verandering in de afhankelijke variabele die niet verwonderlijk is van de vrije factor.

De betrouwbaarheidscoëfficiënt varieert van 0 tot 1.

Een R2 van 0 betekent dat de afhankelijke variabele niet kan worden geanticipeerd op de vrije factor.

Een R2 van 1 impliceert dat de behoeftige variabele zonder fout kan worden geanticipeerd uit de autonome variabele.

Een R2 ergens in het bereik van 0 en 1 geeft aan in welke mate de afhankelijke variabele onverwacht is. Een R2 van 0,10 betekent dat 10 procent van het verschil in Y niet verrassend is ten opzichte van X; een R2 van 0,20 betekent dat 20 procent niet verrassend is, enz.

De vergelijking voor de verwerking van de betrouwbaarheidscoëfficiënt voor een direct-relaismodel met één vrije factor is hieronder gegeven.