En la relación de circunstancias y resultados lógicos, la variable autónoma es la razón, y la variable dependiente es el impacto. La recaída directa de los mínimos cuadrados es una estrategia para prever la estimación de una variable necesitada Y, a la luz de la estimación de un factor libre X.

Requisitos para la regresión

La recaída directa básica es adecuada cuando se cumplen las condiciones que la acompañan.

La variable necesitada Y tiene una relación directa con la variable autónoma X. Para comprobarlo, asegúrese de que el gráfico de dispersión XY sea directo y que el gráfico restante muestre un ejemplo irregular. (Intente no estresarse. Cubriremos las parcelas sobrantes en un ejercicio futuro).

Para cada estimación de X, la transmisión de la probabilidad de Y tiene una desviación estándar similar σ. En el momento en que se cumpla esta condición, la fluctuación de los residuos será generalmente consistente con las estimaciones globales de X, que se comprueban efectivamente en un gráfico restante.

Para alguna estimación aleatoria de X,

Las estimaciones Y son libres, como lo demuestra un ejemplo arbitrario de la trama restante.

Las estimaciones de la Y se transmiten generalmente de manera ordinaria (es decir, simétrica y unimodal). Un poco de asimetría está bien si el tamaño del ejemplo es enorme. Un histograma o un diagrama de puntos mostrará el estado del transporte.

La línea de recesión de los mínimos cuadrados

La recaída directa encuentra la línea recta, llamada línea de recaída de menos cuadrados o LSRL, que mejor habla de las percepciones en una colección de información bivariada. Supongamos que Y es una variable necesitada, y X es un factor libre. La línea de recaída de la población es:

Y = Β0 + Β1X

donde Β0 es una constante, Β1 es el coeficiente de recaída, X es la estimación de la variable autónoma, e Y es la estimación de la variable necesitada.

Dado un ejemplo irregular de percepciones, la línea de recaída de la población es evaluada por:

ŷ = b0 + b1x

donde b0 es una constante, b1 es el coeficiente de recaída, x es la estimación de la variable autónoma, y ŷ es la estimación anticipada de la variable necesitada.

Instrucciones para caracterizar una línea de regresión

Normalmente, utilizarás un dispositivo computacional – un paquete de productos (por ejemplo, Exceder expectativas) o una máquina de sumar diagramas – para descubrir b0 y b1. Introduces las estimaciones X e Y en tu programa o calculadora de números, y el instrumento comprende para cada parámetro.

En la improbable ocasión de que termines en una isla desierta sin un PC o un calculador de números, puedes conformarte con b0 y b1 “a mano”. Aquí están las condiciones.

b1 = Σ [ (xi – x)(yi – y) ]/Σ [ (xi – x)2]

b1 = r * (sy/sx)

b0 = y – b1 * x

donde b0 es estable en la condición de recaída, b1 es el coeficiente de recaída, r es la conexión entre x y y, xi es la estimación X de la percepción I, yi es la estimación Y de la percepción I, x es la media de X, y es la media de Y, sx es la desviación estándar de X, y sy es la desviación estándar de Y.

Propiedades de la línea de recaída

En el momento en que los parámetros de recaída (b0 y b1) se caracterizan como representados sobre, la línea de recaída tiene las propiedades que la acompañan.

La línea limita el conjunto de contrastes cuadrados entre las estimativas observadas (las estimativas y) y las cualidades anticipadas (los valores ŷ procesados a partir de la condición de recaída).

La línea de recaída pasa por la media de las estimaciones X (x) y por la media de las estimaciones Y (y).

La constante de la recaída (b0) es equivalente al bloque y de la línea de recaída.

El coeficiente de recaída (b1) es el cambio normal en la variable de necesidad (Y) para un cambio de 1 unidad en la variable autónoma (X). Es la inclinación de la línea de recaída.

La línea de regresión de menos cuadrados es la única línea recta que tiene todas estas propiedades.

El coeficiente de determinación

El coeficiente de determinación (significado de R2) es un rendimiento clave de la investigación de la recaída. Se descifra como la extensión del cambio en la variable dependiente que no es sorprendente del factor libre.

El coeficiente de seguridad oscila entre 0 y 1.

Un R2 de 0 implica que la variable dependiente no puede ser anticipada del factor libre.

Un R2 de 1 implica que la variable necesitada puede ser anticipada sin error de la variable autónoma.

Un R2 en algún lugar en el rango de 0 y 1 muestra el grado en que la variable dependiente no es sorprendente. Un R2 de 0,10 implica que el 10 por ciento de la diferencia en Y no es sorprendente respecto a X; un R2 de 0,20 implica que el 20 por ciento no es sorprendente, etc.

La ecuación para procesar el coeficiente de seguridad para un modelo de recaída directa con un factor libre se da debajo.