preliminar 1

La Estadística es la parte de las Matemáticas que se encarga del estudio de una determinada característica en una poblac

Views 113 Downloads 6 File size 165KB

Report DMCA / Copyright

DOWNLOAD FILE

Recommend stories

Citation preview

La Estadística es la parte de las Matemáticas que se encarga del estudio de una determinada característica en una población, recogiendo los datos, organizándolos en tablas, representándolos gráficamente y analizándolos para sacar conclusiones de dicha población.

1. 2. 3. 4. 5. 6. 7. 8.

-¿Para qué sirve la Estadística? Descripción de datos Conocer datos de la población a partir de datos muestra Relaciones entre datos Ayudar a resolver problemas como el diseño de experimentos y la toma de decisiones. Propósitos descriptivos Organizar y procesar datos numéricos. Mejorar perspectivas en asuntos económicos Estimar posibles resultados Facilitar la toma de decisiones Establecer los recursos que se deben asignar a un proyecto Regular el consumo y los gastos -¿Qué es una variable y define las diferentes variables? La variable estadística es una característica o cualidad de un individuo que está propensa a adquirir diferentes valores. Estos valores, a su vez, se caracterizan por poder medirse.  Por ejemplo, el color de pelo, las notas de un examen, el sexo o la estatura de una persona, son variables estadísticas. Tipos de variables estadística La variable estadística, de acuerdo con las características que la definen, puede ser cualitativa o cuantitativa.  Las variables cualitativas son aquellas características o cualidades que no pueden ser calculadas con números, sino que son clasificadas con palabras. Este tipo de variable, a su vez, se divide en:  Cualitativa nominal: aquellas variables que no siguen ningún orden en específico. Por ejemplo, los colores, tales como el negro, naranja o amarillo.  Cualitativa ordinal: aquellas que siguen un orden o jerarquía. Por ejemplo, el nivel socioeconómico alto, medio o bajo.  Cualitativa binaria: variables que permiten tan solo dos resultados. Por ejemplo, sí o no; hombre o mujer. Variable cuantitativa Las variables cuantitativas son aquellas características o cualidades que sí pueden expresarse o medirse a través de números. Este tipo de variable, a su vez, se divide en:  Cuantitativa discreta: aquella variable que utiliza valores enteros y no finitos. Por ejemplo, la cantidad de familiares que tiene una persona, tal como 2, 3, 4 o más.



Cuantitativa continua: aquella variable que utiliza valores finitos y objetivos, y suele caracterizarse por utilizar valores decimales. Por ejemplo, el peso de una persona, tal como 64.3 kg, 72.3 kg, etc.

-¿Define los modelos de distribución que existen y ejemplifica cada uno?

MODELOS DISCRETOS Aunque en adelante hablemos de distribución "tal", nos estaremos refiriendo al modelo tal. Los modelos discretos, son modelos de probabilidad de variable aleatoria discreta.Los más importante son los modelos de BERNOUILLI (especialmente "la distribución binomial") y la "distribución de Poisson".

1.- DISTRIBUCIÓN DICOTÓMICA.(Bernouilli). El campo de variación de la variable es : {0,1}. y la función de cuantía es : P(X=0) = q = 1-p P(X=1)= p . Si una variable aleatoria X sigue o tiene una distribución dicotómica de parámetro p se expresa como X ~ D(p).

Modeliza situaciones en las que : · Se

realiza una prueba

· Que · La · En

sólo puede dar dos resultados posibles: A y A

probabilidad del resultado A es P(A) = p y la del resultado A es P(A)= q=1-p.

estas circunstancias la variable aleatoria X significa "nº de resultados A que se obtienen.

La media de la distribución será: m = å x P(x) = 0.q + 1.p = p La varianza de la distribución: s2 = a2- m2 con : a2 = S x2.P(x) = 0.q +1.p= p

s2 = a2- m2 = p - p2 = p (1-p) = p.q Y la F.G.M.: f (t) = E(etx) = S etx P(x) = e0 q + et p = (pet +q) Es fácil comprobar que todos los momentos ordinarios de orden mayor o igual a 1 son iguales a p.

2.- DISTRIBUCIÓN BINOMIAL. El campo de variación de la variable es {0,1,2,3,..., n} y la función de cuantía es:

 para valores de x= 0,1,2,...n siendo nΠN , p Î [0,1] y q=1-p Si una variable aleatoria, X, sigue una distribución binomial de parámetros n y p se expresa como: X ~ B(n,p).

Situaciones que modeliza: · Se

realiza un número n de pruebas (separadas o separables).

· Cada

prueba puede dar dos únicos resultados A y Ã

· La

probabilidad de obtener un resultado A es p y la de obtener un resultado Ã es q, con q= 1-p, en todas las pruebas.Esto implica que las pruebas se realizan exactamente en las mismas condiciones.Si se trata de extracciones, (muestreo), las extracciones deberán ser con devolución (reemplazamiento) (M.A.S). · En

estas circunstancias se aleatoriza de forma que variable aleatoria signifique:

X = nº de resultados A que se obtienen en las n pruebas Es fácil comprobar que considerando estas condiciones la función de cuantía de la variable es precisamente la que se ha especificado arriba. La función de distribución quedará como F(x) = S P(x), sin una expresión analítica concreta. Los indicadores-momentos (media y varianza) pueden obtenerse a partir de la función de cuantía (operador esperanza) o a a partir de F.G.M.:

F.G.M.: f (t) = E(etx) = S etx P(x) =

(desarrollo del Binomio de Newton) f (t) =(pet + q)n A partir de aquí : la media m = a1= f '(t=0) : f '(t)= n (pet + q)n-1pet ¾ ¾ ® f '(t=0) = n(p+q)n-1 p = n.1.p= np

la varianza s2 = a2- m2 y a2 =f ''(t=0) f ''(t) = n.(n-1) (pet + q)n-2pet pet+ n (pet + q)n-1 p ¾ ¾ ® ¾ ¾ ® f ''(t=0)

= n.(n-1) (p + q)n-2p2 +n (p+q)n-1 p =

=n.(n-1)p2 + np = n2p2 -np2 + np a2 =n2p2 -np2 + np

de donde : la varianza s2 = a2- m2 =n2p2 -np2 + np -(np)2 =-np2 + np = s2 =np(1-p)= npq Análogamente se pueden obtener los coeficientes de Asimetría y de Curtosis. que acaban siendo:

Es interesante hacer ver que si p=q= 0.5 la distribución es SIMÉTRICA Y TIENE VARIANZA MÁXIMA Puede determinarse la moda de una distribución binomial como el (los) valor(es) de la variable (número entero del 0 a n) que verifica:

pn - q £ Mo £ pn + p Generalmente será un único valor ( la parte entera de la media), y podrán ser dos valores modales cuando pn +p ( ó pn-q) sea un número entero[p.ej. B(5,0.5)]

3.DISTRIBUCIÓN HIPERGEOMÉTRICA Dada la siguiente situación:

 Una población constituida por N individuos en total.  De los cuales Np individuos son del tipo A , y Nq individuos son del tipo Ã. De forma que la proporción de individuos A que hay en la población es p, y la proporción de individuos de tipo Ã , es q (p+q=1).

 Se realizan n (pruebas) extracciones sin reemplazamiento De forma que la probabilidad de extraer un individuo A ( Ã) en una de las extracciones depende de los resultados de las pruebas anteriores.  Si consideramos la variable aleatoria X = nº de resultados A obtenidos en las n extracciones , X seguirá una distribución hipergeométrica. X~H(N,n,p) Puede comprobarse que la función de cuantía es, entonces:

La distribución hipergeométrica es semejante a la binomial, excepto en el hecho de que las pruebas no mantienen constantes las probabilidades de A y Ã

 La media de la distribución hipergeométrica es  m = np  La varianza de la distribución es s2 = npq (N-1/(N-n)) al término (N-1/(N-n)) se le llama coeficiente de exhaustividad ,o también, factor corrector de poblaciones finitas : Puede observarse que este factor es siempre inferior a 1 y que cuando la población es muy grande (N® ¥ ) tiende a 1(por tanto si la población es muy grande la media y la varianza coinciden con las de la D. Binomial). De hecho, si la población es muy grande (resulta irrelevante la existencia o no de reposición) la función de cuantía de la Hipergeométrica tiende a la f. de cuantía de la distribución Binomial y se puede prescindir del hecho de que haya o no reemplazamiento.

4. DISTRIBUCIÓN DE POISSON Formalmente : dada una variable aleatoria X con campo de variación X Î {0,1,2,..., ¥ }, es decir X Î N cuya función de cuantía sea:

 siendo l un parámetro positivo

diremos que X sigue una distribución de Poisson de parámetro l , X ~ P(l ).

Situaciones que modeliza:  Se observa la ocurrencia de hechos de cierto tipo durante un período de tiempo o a lo largo de un espacio, considerados unitarios  El tiempo (o el espacio) pueden considerarse homogéneos, respecto al tipo de hechos estudiados, al menos durante el período experimental; es decir, que no hay razones para suponer que en ciertos momentos los hechos sean más probables que otros.  En un instante (infinitesimal) sólo puede producirse como mucho un hecho (se podrá producir o uno o ninguno).  La probabilidad de que se produzca un hecho en un intervalo infinitesimal es prácticamente proporcional a la amplitud del intervalo infinitesimal. Si en estas circunstancias la variable aleatoria X = nº de hechos que se producen en un intervalo unitario sigue una distribución de Poisson , que cómo veremos tendrá por parámetro l el número medio de hechos que pueden producirse en el intervalo unitario. F.G.M. de una distribución de Poisson:

f (t)

= E(etx) = S etx P(x) = 



=

Derivando sucesivamente podremos obtener los distintos momentos ordinarios y, a partir de ellos media, varianza y otros indicadores: f '

(t) = l et el(et - 1) ¾ ¾ ¾ ® f ' (t =0) = a1= m = l

f ''

(t) = l et el(et - 1) +( l et )2 el(et - 1) ¾ ¾ ¾ ®

¾ ¾ ¾ ® f ' (t =0) = a2= l + l2 de forma que la varianza será: s2 = a2- m2 = l + l2 - l2 = l

  La moda de una distribución de Poisson puede determinarse como el valor de la variable (el número natural) que verifica que: l - 1 £ Mo £ l Habitualmente la moda será la "parte entera de la l (de la media)" , pero habrá dos modas (l - 1 y l ) cuando l sea un número entero. PROPIEDAD IMPORTANTE: CONVERGENCIA BINOMIAL-POISSON. Dada una variable aleatoria X que siga una distribución Binomial si el parámetro n es muy grande (n ® ¥ ) y el parámetro p es muy pequeño (p ® 0 ) su distribución puede aproximarse por la de una de Poisson con parámetro l = np. la f. de cuantía de una variable X / X ~ B(n,p) cuando n ® ¥ y p ® 0 tiende a:

de forma que haciendo l = np tiende a la f. de cuantía de una distribución de Poisson

con l = np.

MODELOS CONTINUOS 1.DISTRIBUCIÓN UNIFORME (DE V.CONTINUA) Dada una variable aleatoria continua, X , definida en el intervalo [a,b] de la recta real, diremos que X tiene una distribución uniforme en el intervalo [a,b] cuando su función de densidad sea: X ~ U([a,b])

f(x)= 1/(b-a) para x Î [a,b].

De manera que la función de distribución resultará: 0 para x < a

1 para x ³ b

Es fácil comprobar que m =(b+a)/2 y que s2 = (b-a)2/12

2. DISTRIBUCIÓN EXPONENCIAL Dada una variable aleatoria continua, X , definida para valores reales positivos.

diremos que X tiene una distribución exponencial de parámetro a cuando su función de densidad sea: f(x) = a e-a x para x ³ 0 ( siendo el parámetro a positivo)

  La función de distribución será

{

=0 para x < 0

F(x) =    F.G.M.

Si derivamos la F.G.M. en el punto t=0 obtendremos que m = 1/a

Y derivando por segunda vez en t= 0 obtendremos el momento ordinario de segundo orden, y a partir de él la varianza: s 2= 1 /a2 la moda es 0 y la mediana ln2/a

3.DISTRIBUCIÓN NORMAL (ir a distribucción normal) La distribución normal es la más importante de todas las distribuciones de probabilidad.Es una distribución de variable continua con campo de variación [-¥ ,¥ ], que queda especificada a través de dos parámetros ( que acaban siendo la media y la desviación típica de la distribución). Una variable aleatoria continua, X, definida en [-¥ ,¥ ] seguirá una distribución normal de parámetros m y s , ( X ~ N(m ; s ) ) , si su función de densidad es :

 para x Î [-¥ ,¥ ] cuya representación gráfica es:

Importancia de la distribución Normal. a) Enorme número de fenómenos que puede modelizar: Casi todas las características cuantitativas de las poblaciones muy grades tienden a aproximar su distribución a una distribución normal. b) Muchas de las demás distribuciones de uso frecuente, tienden a distribuirse según una Normal, bajo ciertas condiciones.

c) (En virtud del teorema central del límite).Todas aquellas variables que pueden considerarse causadas por un gran número de pequeños efectos (como pueden ser los errores de medida) tienden a distribuirse según una distribución normal. La probabilidad de cualquier intervalo se calcularía integrando la función de densidad a lo largo de ese de intervalo, pero no es necesario nunca resolver la integral pues existen tablas que nos evitan este problema.

F.G.M.:puede probarse que la función generatriz de momentos de una distribución N(m ; s ) es: f (t)

= E(etx) = e(m t + ½ s2t2)

A partir de ella es fácil comprobar como efectivamente la media de la distribución es el parámetro m y, cómo su varianza es el parámetro s . Igualmente puede comprobarse que la distribución es simétrica y que su curtósis es nula.

Propiedad importante: "CUALQUIER TRANSFORMACIÓN LINEAL DE UNA VARIABLE ALEATORIA NORMAL TIENE TAMBIÉN UNA DISTRIBUCIÓN NORMAL DONDE LA MEDIA DE LA NUEVA VARIABLE ES LA MISMA TRANSFORMACIÓN LINEAL DE LA MEDIA DE LA ANTIGUA Y DONDE LA DESVIACIÓN TÍPICA ES LA DESVIACIÓN TÍPICA ANTIGUA MULTIPLICADA POR EL COEFICIENTE ANGULAR DE LA TRANSFORMACIÓN":

Dada una variable X ~ N(m ; s ) si la nueva variable Y es Y = a+bX Y~ N(a+bm ; bs ) : en efecto: la F.G.M de la distribución de X será:

E(etx) = e(m t + ½ s2t2) y la F.G.M. de la distribución de Y será:

fy(t)= eat.fx(bt) = eat .e(m bt + ½ s2b2t2) = e((a+bm )t + (bs )2t2) que es la F.G.M de una distribución N(a+bm ; bs ) //*q.e.d.*// Consecuencia importante de esto es que si se tipifica una variable X / X ~ N(m ; s ) la nueva variable Z = tendrá una distribución N(0,1). La distribución N(0,1) se conoce con el nombre de Normal tipificada o reducida y tiene una importancia teórica y práctica fundamental.Su Función de distribución está tabulada y ello nos permite calcular directamente cualquier probabilidad de cualquier intervalo de cualquier distribución normal ( X ~ N(m ; s )), sin necesidad de integrar.

En efecto: si X ~ N(m ; s ) y queremos calcular P(XΠ[a,b])==P(a£ X £ b) =

donde F es la F. de distribución de una Normal tipificada, que puede evaluarse a través de las tablas.