Anexo Tema 11

Tema 11. Regresión Lineal 1. Introducción 2. Regresión lineal simple 1. 2. 3. 4. Modelo Contraste de hipótesis Relacion

Views 148 Downloads 1 File size 2MB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Tema 11. Regresión Lineal 1. Introducción 2. Regresión lineal simple 1. 2. 3. 4.

Modelo Contraste de hipótesis Relaciones entre el coeficiente de correlación y la recta de regresión lineal Interpretación del coeficiente de determinación

3. Regresión lineal múltiple 1. 2. 3. 4. 5. 6. 7.

Modelo Contraste de hipótesis Comprobación de los supuestos Correlación múltiple, parcial y semiparcial Muticolinealidad Métodos de selección de variables Interpretación de los pesos en la ecuación 1

1. Introducción a la regresión Objetivo: •Someter a comprobación estadística la relación entre una variable dependiente cuantitativa y una o varias variables independientes cuantitativas (o cualitativas con algún tipo de codificación adecuada) consideradas conjuntamente •Para ello es necesario tener medidas de todos los sujetos en todas las variables

•Si sólo existe una variable independiente se habla de regresión lineal simple, si hay más de una variable independiente se habla de regresión lineal múltiple 2

1. Introducción a la regresión Diferencia entre regresión y correlación lineal simple: Correlación:  El objetivo es conocer la relación entre dos variables aleatorias X e Y, es decir, si las modalidades de una variable están asociadas con las de otras Regresión:  El objetivo es predecir una variable dependiente Y a partir de las puntuaciones de los sujetos en otra variable X, es decir, estudiar si los cambios en una variable se asocian a cambios en otra variable  La variable independiente es fijada por el experimentador y la variable dependiente es aleatoria •

Pero es una distinción que en la práctica no se aplica ya también se utiliza la regresión aunque la variable independiente sea aleatoria.



El énfasis en un modelo u otro se hace en función del objetivo: si se quiere 3 estudiar la relación entre variables o predecir una variable

2. Regresión lineal simple 2.1.Modelo Valor observado en la VD

Efectos debidos a factores constantes

=

+

Efectos debidos a factores tenidos en cuenta (VVII)

+

Efectos debidos a factores no controlados

 0 X i0 1X i1  2 X i2  ... k X ik  i

Yi

Modelo de Regresión Lineal Simple





Yi    X i   i

Magnitud común a todos los sujetos (ordenada en el Peso de la variable X en la origen) ecuación (pendiente)



 Error para cada sujeto 4

2. Regresión lineal simple

2.1.Modelo (cont.)

Para poder aplicar el modelo es necesario comprobar que los puntos en el diagrama de dispersión se sitúan en torno a una línea recta Ejemplo: Consumo diario de cigarrillos (X); Días de ausencia al trabajo al año (Y) y = 0.2429x + 2.8714

12

ausencias

10 8 6 4 2 0 0

2

4

6

8

10 12 14 16 18 20 22 24 26 28 30 32 34

cigarrillos 5

2. Regresión lineal simple

2.1.Modelo (cont.)

Para un mismo diagrama de dispersión pueden ajustarse muchas rectas (modelos) diferentes Ejemplo: Consumo diario de cigarrillos (X); Días de ausencia al trabajo al año (Y) y = 0.2429x + 2.8714

12

ausencias

10 8 6 4 2 0 0

2

4

6

8

10 12 14 16 18 20 22 24 26 28 30 32 34

cigarrillos 6

2. Correlación y regresión lineal simple

2.1.Modelo (cont.)

El método de mínimos cuadrados tiene en cuenta el error que se comete al predecir mediante la recta de regresión Ejemplo: Consumo diario de cigarrillos (X); Días de ausencia al trabajo (Y)  i  (Yi  E(Yi ))  10

ausencias

Error al predecir la ausencia del sujeto a partir del número de cigarrillos que fuma (8), falta 4 días y le predecimos 4,81

y = 0.2429x + 2.8714

12

 4  4,81  0,81

E(Yi )    X i

8 6 4,81



4 2 0

0

2

4

6

8

10 12 14 16 18 20 22 24 26 28 30 32 34

cigarrillos 7

2. Regresión lineal simple

2.1.Modelo (cont.)

Método de mínimos cuadrados: selecciona los estimadores de α y β que hacen mínimo el error cuadrático medio

Se2

2  S y.x

Yi    X i   i Puntuación en Y del sujeto i

 E(Yi )    Xi

Y  a  bX i  ' i

Magnitud común a todos los sujetos, valor que corresponde a Y cuando X=0

  y  x

a  Y  bX

 Pendiente o tasa de cambio: cambio en Y por cada unidad de cambio en X

y    xy x

Sy b  rxy  Sx





yi  yi



2

n

Error para cada sujeto

i  Yi  E(Yi ) ei  Yi Yi' 8

2. Regresión lineal simple

2.1.Modelo (cont.)

E(Yi )    Xi

Recta de regresión de Y sobre X

' Yi  a  bXi

Y X '  Y



Recta de regresión estimada

VD, Variable criterio o Variable a predecir VI o Variable predictora Variable predicha o pronóstico

Valor que se obtiene al utilizar la recta de regresión para predecir Y a partir de X

Y  Yi ' i

ei  (Yi  Y ) ' i

Valor que se obtiene al medir directamente Y

9

2. Regresión lineal simple

2.1.Modelo (cont.) E(Yi )    Xi

' Yi  a  bXi

Recta de regresión de Y sobre X Recta de regresión estimada

• La recta de regresión se estima a partir de los datos de los sujetos en la muestra, todos los sujetos tienen que ser medidos tanto en X como en Y



• Una vez construida puede ser aplicada a todos los sujetos de la población a la que pertenece la muestra, en este caso es suficiente medir al sujeto en X y  utilizando la ecuación de la recta de regresión podemos predecir su puntuación en Y • Propiedades:

Yi '  Yi

La media de los pronósticos es igual a la media de la variable Y

Y  a  bX

El valor pronosticado para los sujetos cuyo valor coincida con la media de X es la media de Y

10

2. Regresión lineal simple

2.1.Modelo (cont.) Ecuación de la recta regresión lineal en puntuaciones típicas

ZYi  ZX i   i Número de desviaciones típicas que cambia Y cuando X cambia una desviación típica X

Puntuación típica en Y del sujeto i



  xy

E(ZYi )  ZX i ZY' i

 betaZXi



beta  rxy 

Error para cada sujeto

i  (ZY  E(ZY )) i

i

ei  (ZY  ZY' i ) i 11



2. Regresión lineal simple

2.2.Contraste de hipótesis

E(Yi )    X i 

Yi  a  bX i

Se pueden realizar 5 contrastes de hipótesis: (se comprueba antes, aunque por motivos 1. Modelo de la regresión didácticos lo expondremos al final) 2.   b

 5.  xy  rxy

Valor predicho en Y para un sujeto con un valor en X=xi

Existen también procedimientos para contrastar si dos coeficientes 12 de correlación o dos pendientes son iguales

2. Regresión lineal simple

2.2.Contraste de hipótesis. Pendiente 1. H 0 :   0 H1 :   0 2.  3. SUPUESTOS:

3.1 Independencia: 1 m.a.s. medida en las variables X e Y 3.2 Normalidad:

Yi  N(y xi , i2)

 i N(0,  ) 2 i

3.3 Homocedasticidad



 2y

2 2 2    ...    x1 y x2 y xk

13

2. Regresión lineal simple

2.2.Contraste de hipótesis. Pendiente (cont.) Y

N(y xk ,  2 )

 N(y x2 ,  2 ) N(y x1 ,  2 ) 

x1

x2

…………….……

xk

X

14

2. Regresión lineal simple

2.2.Contraste de hipótesis. Pendiente (cont.) 4. E.C.

T

b ~2 Se

 tn2

 x  x 

2

i

S˜e2 





yi  yi



2

n2

Sb

Error típico de estimación de la pendiente de la recta de regresión

 15

2. Regresión lineal simple

2.2.Contraste de hipótesis. Pendiente (cont.) 5. REGIÓN CRÍTICA Y CRITERIO DE DECISIÓN Contraste bilateral  /2

 /2 0



 T / 2 tn2 

T1 / 2 tn2

- Rechazamos H0 si el valor obtenido en la muestra para el E.C. cae en la región crítica, la variable X es un predictor estadísticamente significativo de la variable Y  obtenido en la muestra para el E.C. cae en la región de - Mantenemos H0 si el valor aceptación, la variable X no es predictor de la variable Y

6. NIVEL CRÍTICO p  2P(tn2  tk ) - Contraste bilateral

Valor del E.C. obtenido en la muestra

16

2. Regresión lineal simple

2.2.Contraste de hipótesis. Pendiente (cont.) 7. INTERVALO DE CONFIANZA

 /2

 /2

b

LI  b 



t

 2 n 2



Sb

Error máximo



Ls  b 

t

 2 n 2

Sb

Error máximo 17

2. Regresión lineal simple 2.2.Contraste de hipótesis. Ejemplo y = 0.2429x + 2.8714

12

ausencias

10 8 6 4 2 0 0

2

4

6

8

10 12 14 16 18 20 22 24 26 28 30 32 34

cigarrillos

Ordenada Pendiente

Pendiente en puntuaciones típicas

18

2. Regresión lineal simple

2.2.Contraste de hipótesis. Ejemplo

H0 :   0 H1 :   0

Como n.c. (0,032)