Glosario

Glosario 1. Análisis de correlación: se utiliza para medir la intensidad de la asociación entre las variables numéricas

Views 276 Downloads 2 File size 125KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

Glosario

1. Análisis de correlación: se utiliza para medir la intensidad de la asociación entre las variables numéricas. 2. Análisis de regresión lineal múltiple: nos permite establecer la relación que se produce entre

una

variable

dependiente

Y

y un conjunto de variables independientes (X1, X2, ... XK). 3. Análisis de regresión simple: Nos permite establecer la relación entre una variable dependiente y una variable independiente. 4. Análisis residual: análisis de los residuales que se usan para determinar si parecen ser válidas las suposiciones hechas acerca del modelo de regresión. El análisis de residuales también se usa para identificar observaciones atípicas y observaciones influyentes. 5. Coeficiente de asimetría Pearson: es un valor que indica la asimetría. Simbólicamente representada por As. 6. Coeficiente de correlación lineal de Pearson: es un número que mide la intensidad de la asociación lineal entre dos variables, el coeficiente de correlación es representado por “r”. 7. Coeficiente de correlación: medida de la intensidad de la relación lineal entre dos variables. 8. Coeficiente de determinación: es un valor que se obtiene elevando al cuadrado el coeficiente de correlación, se representa simbólicamente por r2 y puede tomar valores de 0 y 1. 9. Coeficiente de determinación: medida de la bondad de ajuste de la ecuación de regresión estimada. Se puede interpretar como la proporción de la variabilidad de la variable dependiente y que es explicada por la ecuación de regresión estimada. 10. Correlación de rango: Método para hacer análisis de correlación cuando los datos no están disponibles en forma numérica, pero cuando la información es suficiente para clasificar los datos.

11. Correlación serial: Existe cuando las observaciones sucesivas a través del tiempo se relacionan entre sí. 12. Correlación: Es una medida de la relación entre dos o más variables. La correlación puede tomar valores entre –1 y +1. El valor de –1 representa una correlación negativa perfecta mientras un valor de +1 representa una correlación perfecta positiva. Un valor de 0 representa una falta de correlación 13. Covarianza: es una medida de la asociación lineal entre dos variables 14. Diagrama de dispersión: es un gráfico utilizado para representar la relación entre valores observados de dos variables numéricas. 15. Diagrama de dispersión: es un tipo de diagrama matemático que utiliza las coordenadas cartesianas para mostrar los valores de dos variables para un conjunto de datos. 16. Diagramas de dispersión: grafica de datos bivariados en la que la variable independiente va en el eje horizontal y la variable dependiente va en el eje vertical. 17. Ecuación de regresión estimada: estimación de la ecuación de regresión obtenida a partir de datos muéstrales, empleando el método de mínimos cuadrados. En la regresión lineal simple, la ecuación de regresión estimada es Ẏ= b0+b1x. 18. Ecuación de regresión: ecuación que describe como está relacionada la media o valor esperado de la variable dependiente con la variable independiente; es la regresión lineal simple E(y)= β0+β1x. 19. Error cuadrado medio: estimación insesgada de la varianza del término del error ð2. Se denota ECM o s2. 20. Error estándar de estimación: raíz cuadrada del error cuadrado medio, se denota s. es una estimación de ð2, la desviación estándar del error. 21. Error estándar: es la desviación estándar de la distribución maestral de un estadístico. 22. Error estándar: es la desviación estándar de la distribución maestral de un estadístico.

23. Grafica de probabilidad normal: grafica en la que los residuales estandarizados se grafican contra los puntos normales. Esta grafica ayuda determinar si parecen ser validas la suposición de que los términos del error tienen una distribución de probabilidad normal. 24. Graficas de residuales: representación gráfica de los residuales, se usa para determinar si parecen ser válidas las suposiciones hechas acerca del modelo de regresión. 25. Intervalo de confianza: estimación por intervalo del valor medio de Y para un valor dado de X. 26. Intervalo de predicción: estimación por intervalo de un solo valor de Y para un valor dado de X. 27. Método de mínimos cuadrados: procedimiento empleado para obtener la ecuación de regresión estimada. El objetivo es minimizar Σ(yi-ẏ1)2. 28. Modelo de regresión: ecuación que describe como están relacionadas Y y X, más un término del error; en la regresión lineal simple, el modelo de regresión es Y= β0+β1x+€. 29. Observación atípica: dato u observación que no sigue la tendencia del resto de los datos. 30. Observación influyente: observación en a que la variable independiente tiene un valor extremo. 31. Punto de gran influencia: observaciones en la que la variable independiente tiene valores extremos. 32. Regresión lineal múltiple: El modelo de regresión lineal múltiple sirve para explicar una variable respuesta continua en términos de varios factores o variables explicativas continuas. 33. Regresión lineal simple: análisis de regresión en el que participa una variable independiente y una variable dependiente, y en el que la relación entre estas variables se aproximan mediante una línea recta. 34. Regresión polinómica: Es un tipo especial de regresión múltiple donde aparecen como variables independientes una única variable y potencias de ésta (al cuadrado, al cubo).

35. Regresión: Técnica estadística que relaciona una variable dependiente (y) con la información suministrada por otra variable independiente (x); ambas variables deben ser continuas. Si asumimos relación lineal, utilizaremos la regresión lineal simple. Entre las restricciones de la RLS se incluyen: Los residuos deben ser normales; las observaciones independientes; la dispersión de los residuos debe mantenerse a lo largo de la recta de regresión. 36. Residual estandarizado: valor obtenido al dividir un residual entre su desviación estándar. 37. Residual i: diferencia que existe entre el valor observado en la variable dependiente y valor pronosticado empleando la ecuación de regresión estimada; para la observación i, el residual i es yi-ẏ1. 38. SPEARMAN (rho de Spearman): Coeficiente de correlación ordinal análogo al coeficiente r de Pearson de correlación lineal. 39. Tabla ANOVA: en el análisis de varianza, tabal que se usa para resumir los cálculos necesarios en la prueba F de significancia. 40. Variable aleatoria: Variable cuyo resultado varía según la muestra según una distribución de probabilidad. 41. Variable continua: Aquella que puede tomar una infinidad de valores, de forma que dados dos valores cualesquiera, también pueda tomar cualquier valor entre dichos valores. 42. Variable dependiente: la variable que se predice o explicada. Se denota Y 43. Variable dependiente: variable que va a predecir.