Correlaciones

SEGUROS Departamento de Ciencias Económicas, Administrativas y de Comercio. PORTAFOLIO ESTUDIANTIL NOMBRE: María Belé

Views 121 Downloads 0 File size 753KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

SEGUROS

Departamento de Ciencias Económicas, Administrativas y de Comercio.

PORTAFOLIO ESTUDIANTIL

NOMBRE: María Belén Ortiz Coloma CARRERA: Ing. Comercial

Aula: A 207 NRC: 4706

Correlaciones Son técnicas bi-variadas que se emplean con propiedades del álgebra lineal, que permiten en el campo multivariado, en situaciones donde el establecer similaridades o disimilaridades entre las variables e individuos representados en dimensiones de menor valor, generalmente en planos o cubos (segunda y tercera dimensión) para esclarecer la variabilidad conjunta expresada en factores ortogonales que permiten tipificar lo que sucede con los datos. Coeficiente de correlación de Pearson Tiene como objetivo medir la fuerza o grado de asociación entre dos variables aleatorias cuantitativas que poseen una distribución normal bi-variada conjunta. El coeficiente se define por la siguiente fórmula:

Cuando ρ=+ la relación es directa entre las variables. Si ρ=- la relación es inversa y si ρ= 0 son independientes. Dicho coeficiente se puede expresar en términos de su estadístico como:

El coeficiente de correlación de Pearson es la media geométrica entre las pendientes de los modelos de regresión lineal simple Y/X, X/Y así: y i = β o + β1 Xi + εi Cabe anotar que el coeficiente de correlación de Pearson puede ser empleado utilizando un factor de ponderación Wi, el cual efectúa un ajuste a la media aritmética y por ende al coeficiente de asociación. Esta ponderación se debe aplicar, cuando el investigador quiera darle un peso específico a cada individuo que interviene en el estudio. “El coeficiente de correlación de Pearson no se debe extrapolar más allá del rango de los valores observados cuando se efectúa inferencia. Para construir el intervalo de confianza asociado con Pearson, ambas variables se deben distribuir

en forma normal y para predecir se utiliza la técnica propuesta por Rubens.” (Luis F Restrepo, 2015) Coeficiente de Spearman Es un coeficiente no paramétrico alternativo al coeficiente de correlación de Pearson cuando en este no existe una relación de tipo lineal entre las variables (X, Y), o cuando para cada valor de X, hay una subpoblación de valores de Y normalmente distribuidas. Un coeficiente de correlación, mide el grado de relación o asociación existente generalmente entre dos variables aleatorias. No es conveniente identificar correlación con dependencia causal, ya que, si hay una semejanza formal entre ambos conceptos, no puede deducirse de esto que sean análogos; en efecto es posible que haya una alta correlación entre dos acontecimientos y que sin embargo, no exista entre ellos relación de causa o efecto; por ejemplo cuando dos acontecimientos tienen alguna causa común, pueden resultar altamente asociados y no son el uno causa del otro. Cabe recordar que el coeficiente fluctúa entre -1 ≤ ρ ≤ 1. Charles Spearman contribuyó al análisis del factor, a la teoría de la inteligencia, elaboró una prueba de la teoría mental.

En donde d i = r xi – r yi es la diferencia entre los rangos de X e Y.

Otra variante de la fórmula expresada es: El coeficiente de correlación de Spearman es exactamente el mismo que el coeficiente de correlación de Pearson, calculado sobre el rango de observaciones. La correlación estimada entre X e Y se halla calculando el coeficiente de correlación de Pearson para el conjunto de rangos apareados. La correlación de Spearman puede ser calculada con la fórmula de Pearson, si antes hemos transformado las puntuaciones en rangos. Se recomienda a los investigadores realizar primero una representación gráfica de la correlación, con dos objetivos fundamentales: 7 

Que visualice el tipo de relación que se establece en las variables.



Para corroborar el resultado matemático obtenido.

Ventajas del coeficiente de Spearman 1. Al ser Spearman una técnica no paramétrica es libre de distribución probabilística. 2. Los supuestos son menos estrictos. Es robusto a la presencia de outliers (es decir permite ciertos desvíos del patrón normal). Indicador de Durbin-Watson DW es el estadístico de auto correlación de primer orden de Durbin-Watson considerando por separado los residuos de cada comunidad autónoma, RZ es el coeficiente de determinación, ee es el error estándar de la regresión. El estadístico Durbin-Watson es una herramienta estadística que detecta si los residuales de una regresión están auto correlacionados. La auto correlación es un problema estadístico donde los residuales de una regresión de un período de tiempo no son al azar, sino que tienen algún tipo de patrón. Este problema significa que si tu regresión tiene problemas de auto correlación, puede ser que haya resultados que parezcan ser estadísticamente significativos, pero que no sea así. Dado el modelo de regresión lineal múltiple Y X X u = β1 + β 2 ⋅ 2 + ... + β k ⋅ k + , el test de Durbin-Watson permite contrastar si el término de perturbación está auto correlacionado según un esquema AR(1), i.e., la hipótesis nula indica que si el término de perturbación es de la forma t t t u = φ ⋅u + ε −1 entonces necesariamente φ = 0 (con lo que no habría auto correlación según esquema AR(1)):

El estadístico que se utiliza para realizar dicho test es el estadístico Durbin-Watson (el cual obtendremos con ayuda de Minitab). El estadístico DW es un valor comprendido entre 0 y 4. Como se observa en el siguiente gráfico, para valores de DW “próximos” a 2 no rechazaremos Ho. Por el contrario, para valores de DW “alejados” de 2, sí rechazaremos Ho (i.e., aceptaremos la existencia de autocorrelación de tipo AR(1)):

En el gráfico anterior, dL y dU son valores tabulados [ver web de tablas] que dependen del número

de

observaciones

(n),

del

n

úmero de regresores (k), y del nivel de significación (α). Añadir, finalmente, que si 0 < DW < 2, el coeficiente φ será positivo (estaremos en el contraste unilateral (1)), mientras que si 2 < DW < 4, dicho coeficiente φ será negativo (estaremos en el contraste (2)). Una vez hallado DW, es posible usar su valor para estimar el coeficiente de auto correlación simple ρ1 mediante la expresión:

Además, sabemos que en un modelo con auto correlación AR(1), los coeficientes de auto correlación simple vienen dados por: p1 = φ , 2 p2 = φ , ..., s s p = φ , así que una vez estimado el valor de ρ1 = φ podremos obtener fácilmente estimaciones para los (n-1) coeficientes de auto correlación simple y representar la correspondiente función de auto correlación simple o ACF. Coeficiente de Fisher Esta razón F fue creada por Ronald Fisher (1890-1962). El valor estadístico de prueba resultante se debe comparar con un valor tabular de F, que indicará el valor máximo del valor estadístico de prueba que ocurría si H0 fuera verdadera, a un nivel de significación seleccionado. Existe una distribución F diferente para cada combinación de tamaño de muestra y número de muestras. Por tanto, existe una distribución F que se aplica cuando se toman cinco muestras de seis observaciones cada una, al igual que una distribución F diferente para cinco muestras de siete observaciones cada una. En Fisher, los valores críticos para los niveles 0,05 y 0,01 generalmente se proporcionan para determinadas combinaciones de tamaños de muestra y número de muestras. La razón más pequeña

es 0. La razón no puede ser negativa, ya que ambos términos de la razón F están elevados al cuadrado. Por otra parte, grandes diferencias entre los valores medios de la muestra, acompañadas de pequeñas variancias muestrales pueden dar como resultado valores extremadamente grandes de la razón F. Se evalúa con la siguiente fórmula:

Los grados de libertad para el numerador y el denominador de la razón F se basan en los cálculos necesarios para derivar cada estimación de la variancia de la población. La estimación intermediante de variancia (numerador) comprende la división de la suma de las diferencias elevadas al cuadrado entre el número de medias (muestras) menos uno, o bien, k - 1. Así, k - 1 es el número de grados de libertad para el numerador. En forma semejante, el calcular cada variancia muestral, la suma de las diferencias elevadas al cuadrado entre el valor medio de la muestra y cada valor de la misma se divide entre el número de observaciones de la muestra - 1. Bondad de ajuste r2 Por bondad del ajuste hay que entender el grado de acoplamiento que existe entre los datos originales y los valores teóricos que se obtienen de la regresión. En cuanto mejor sea el ajuste, más útil será la regresión a la pretensión de obtener los valores de la variable regresando a partir de la información sobre la variable regresora. Obtener indicadores de esta bondad de ajuste es fundamental a la hora de optar por una regresión de un determinado tipo u otro, Puesto que la media de los residuos se anula, el primer indicador de la bondad del ajuste (no puede ser el error medio) será el error cuadrático medio, o varianza del residuo, o varianza residual. Estadísticamente, el R² puede tomar valores entre 0 y 1: en el caso de que el rendimiento total de una cartera coincidiera exactamente con el del mercado en general o de su índice de referencia, su R-cuadrado sería igual a uno. Si el rendimiento total de una cartera no tuviera relación alguna con los retornos del mercado, el R-cuadrado será cero. Se evalúa con l siguiente fórmula:

A la proporción de varianza explicada por la regresión se le llama coeficiente de determinación: El coeficiente de determinación mide la proporción de variabilidad total de la variable dependiente (Y) respecto a su media que es explicada por el modelo de regresión. Es usual expresar esta medida en tanto por ciento, multiplicándola por cien. Alfa de Cronbach Se trata de un índice de consistencia interna que toma valores entre 0 y 1 y que sirve para comprobar si el instrumento que se está evaluando recopila información defectuosa y por tanto nos llevaría a conclusiones equivocadas o si se trata de un instrumento fiable que hace mediciones estables y consistentes. Alfa es por tanto un coeficiente de correlación al cuadrado que, a grandes rasgos, mide la homogeneidad de las preguntas promediando todas las correlaciones entre todos los ítems para ver que, efectivamente, se parecen.

Su interpretación será que, cuanto más se

acerque el índice al extremo 1, mejor es la fiabilidad, considerando una fiabilidad respetable a partir de 0,80. “Cuanto más cerca se encuentre el valor del alfa a 1 mayor es la consistencia interna de los ítems analizados. La fiabilidad de la escala debe obtenerse siempre con los datos de cada muestra para garantizar la medida fiable del constructo en la muestra concreta de investigación” (George, 2003). Como criterio general, George y Mallery sugieren las recomendaciones siguientes para evaluar los coeficientes de alfa de Cronbach: •

Coeficiente alfa >.9 es excelente



Coeficiente alfa >.8 es bueno



Coeficiente alfa >.7 es aceptable



Coeficiente alfa >.6 es cuestionable



Coeficiente alfa >.5 es pobre



Coeficiente alfa