Metodo de Los Momentos

INTRODUCCIÓN El método generalizado de los momentos es un poderoso instrumento de estimación de parámetros estadístico

Views 154 Downloads 0 File size 170KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

INTRODUCCIÓN El método generalizado de los momentos es un poderoso instrumento de estimación

de parámetros

estadísticos.

En

la actualidad

se

conocen

las

propiedades asintóticas de los estimadores obtenidos por este método, los cuales, bajo supuestos no muy restrictivos, son consistentes y con funciones de distribución fácilmente calculables. Herramientas ampliamente divulgadas y utilizadas en econometría, tales como los mínimos cuadrados ordinarios, mínimos cuadrados generalizados, estimación en dos etapas e incluso (bajo algunos supuestos adicionales) máxima verosimilitud, pueden ser considerados casos particulares del método generalizado de los momentos. Otra de las características del método es que no requiere la especificación de una forma particular de distribución de las variables aleatorias involucradas en el modelo que se estudia. Sin embargo, esta generalidad también puede significar un uso no eficiente de la información disponible en la muestra (Hamilton, 1994). Además, recientes desarrollos demuestran que en muestras pequeñas los estimadores pueden estar bastante lejos del valor real del parámetro (Chumacero 1997a), por lo que no es aconsejable su uso cuando estén disponibles solamente un reducido número de observaciones, situación tan frecuente en econometría.

MÉTODO DE LOS MOMENTOS. Este método fue desarrollado por Karl Pearson a fines del siglo XIX, y se apoya en un teorema fundamental de la teoría de muestreo que expresa que los momentos de la muestra son buenos estimadores de los momentos de la población o universo. Según BENJAMIN y CORNELL (1981), los momentos de una distribución de probabilidades tienen una definición análoga a los momentos usados en mecánica. La probabilidad de una variable puede ser considerada como una masa, y los momentos son tomados respecto a algún punto conveniente o valor de una variable. De esta manera, los momentos de la población de una variable continua, x, pueden considerarse respecto al origen o respecto de su valor medio o centroide. La ecuación de los momentos de orden r respecto al origen es:

𝑢′𝑟 = 𝐸⌊𝑥 𝑟 ⌋ = ∫ 𝑥 𝑟 𝑓(𝑥)𝑑𝑥 𝐷

Dónde: E [ ] es el operador de la esperanza. f(x) es la función de densidad de probabilidades de la población. D es el intervalo definido para la variable x. La ecuación de los momentos centrales de orden r es: 𝑢𝑟 = 𝐸⌊(𝑥 − 𝑢′1 )𝑟 ⌋ = ∫ (𝑥 − 𝑢′1 )𝑟 𝑓(𝑥)𝑑𝑥 𝐷

Los momentos de la muestra de una variable continua, x, también pueden considerarse respecto al origen o respecto de su valor medio o centroide. La ecuación de los momentos de orden r respecto al origen es:

𝑛

1 𝑚′𝑟 = ∑ 𝑥𝑖𝑟 𝑛 𝑖=1

Donde n es el número total de elementos de la muestra. La ecuación de los momentos centrales de orden r es:

𝑛

1 𝑚𝑟 = ∑(𝑥𝑖 − 𝑚′1 )𝑟 𝑛 𝑖=1

YEVJEVICH (1978), indica que el número de momentos estimados, teóricamente, puede ser infinito. En la práctica, sin embargo, sólo los primeros cuatro momentos son usados dado que la precisión de las estimaciones (de los momentos de la muestra) decrece a medida que el orden del momento aumenta. Según CHOW (1964) y AYALA y FERRER (1973), la principal ventaja de este método es que conduce a ecuaciones relativamente simples que permiten el cálculo sencillo de los parámetros. Presenta, sin embargo, la desventaja de dar demasiada importancia a puntos extremos, donde el brazo del momento es largo, los cuales no siempre son confiables.

Algunos ejemplos de estimación de parámetros en distribuciones estadísticas mediante el método de los momentos:

Distribución Binomial 𝑥 = 𝐵(𝑚, 𝑝), 𝑠𝑖𝑒𝑛𝑑𝑜 𝐸(𝑥) = 𝑚𝑝 ̂= 𝒑

𝟏 𝟏 𝟏 ̅= 𝒙 . ∑ 𝒙𝒊 𝒎 𝒎 𝒏

Distribución de Poisson 𝑥 ≡ 𝑃(𝜆), 𝑠𝑖𝑒𝑛𝑑𝑜 𝐸(𝑥) = 𝜆

𝜆̂ = 𝑥̅ =

1 ∑ 𝑥𝑖 𝑛

Distribución Normal 𝑦 𝑉𝑎𝑟(𝑥) = 𝜎 2

𝑥 ≡ 𝑁(𝜇, 𝜎), 𝑠𝑖𝑒𝑛𝑑𝑜 𝐸(𝑥) = 𝜇, 𝜇̂ = 𝑥̅ =

1 ∑ 𝑥𝑖 𝑛

𝜎̂ 2 = 𝑆 2 = ̅̅̅ 𝑥 2 − 𝑥̅ 2 𝜎̂ 2 = 𝑆𝑐2 =

,𝑜

𝑛 ̅̅̅2 − 𝑥̅ 2 ) (𝑥 𝑛−1

Distribución de Weibull 𝑅(𝑡) = 𝑒

−(

𝑡−𝛾 𝛽 )



2 1  (1 + 𝛽 ) − 2 (1 + 𝛽 ) 𝜎2 = 1 𝑡̅2 2 (1 + 𝛽 )

 =

𝑡̅ 1

 (1 + 𝛽 )

CONCLUSIONES En definitiva, si se ha de aplicar el método generalizado de los momentos, el tamaño adecuado de la muestra depende del tipo de problema, del parámetro de interés y de la precisión que se requiera en las estimaciones. La mejor forma de determinar el número de observaciones necesarias, puede ser realizar simulaciones de Montecarlo, tal como se ha hecho en el presente documento. A pesar de estas cualidades, las propiedades de los estimadores obtenidos por el método generalizado de los momentos no son siempre buenas en muestra pequeñas. Más aún, para ciertos parámetros, las estimaciones mejoran muy lentamente conforme aumenta el tamaño de la muestra. Así,

dependiendo

del

parámetro

a

estimar,

el método generalizado de los

momentos puede o no ofrecer resultados adecuados. Por supuesto, esto no significa que el método deba ser dejado de lado. Posiblemente un mecanismo para adquirir algún nivel de seguridad en los resultados sea modelar teóricamente el problema que se estudia, luego simularlo y estudiar las propiedades de método generalizado de los momentos en diferentes tamaños de muestra de esas simulaciones. De esta manera, se conocería qué parámetros están siendo estimados con precisión por el método generalizado de momentos y cuáles no, que tamaño de muestra mínimo es necesario para tener intervalos de confianza adecuados y qué conclusiones se puede obtener de los resultados.

Bibliografía Chumacero, Rómulo. (1997a) "Finite sample propierties of the efficient method of moments", mimeo, Universidad de Chile. Chumacero, Rómulo (1997b) Notas de clase del curso de Macro-econometría, Banco Central del Ecuador. Greene, William. (1993) "Econometric Analysis", 2da. Edición, MacMillan. Johnston, J. Y Dinanrdo (1997) "Econometric methods", 4ta. Edición, MacGraw Hill. Hamilton, James. (1994) "Time series analysis", Pricenton University Press. Turnovsky, Stephen. (1995) "Methods of macroeconomic dynamics", The MIT Press.