Teorema Central del Limite

Alejandro López hace 8 años


Agregar a
  • Quieres leer esto mas tarde?
  • Ingresa para añadir esta nota a una lista de notas.
Compartir



500 Variables aleatorias i.i.d. simuladas por
una computadora

El teorema central del limte nos muestra que al momento de sumar una cantidad muy grande de variables aleatorias estas se aproximan a una normal, esto es lo que le da una gran importancia a la distribución normal, una hipótesis del teorema es que las variables deben de ser independientes idénticamente distribuidas, esto  limita mucho el estudio, ya que en la vida real las variables pueden depender unas de otras y para ello se tienen otros métodos para calcular la suma de dichas variables aleatorias.


Teorema (Teorema Central del límite)


Sea $X_1,X_2,...,$ una sucesion de variables aleatorias i.i.d. con $E(X_i)=\mu$ y $0<Var(X_i)={\sigma}^2< \infty$ definimos $\overline{X}_n=(1/n)\sum _{ i=0 }^{ n }{X_i}$, denotamos a la funcion de acumulacion de $\sqrt{n}(\overline{X}_n-\mu)/\sigma$ como $G_n$. Entonces para todo $x \in (-\infty,\infty)$ $$\lim _{ n\rightarrow \infty  }{ { G }_{ n }(x) } =\int _{ -\infty  }^{ x }{ \frac { 1 }{ \sqrt { 2\pi  }  } { e }^{ -y^{ 2 }/2 }dy } $$

Para demostrarlo se darán por hecho el siguiente lema:

Lema: 

Si la sucesión de funciones características $\varphi_n(t)$ converge en cada punto t a una función $\varphi (t)$ continua en algún intervalo $|t| < \tau$ , entonces la sucesión $F_n (x)$ de las correspondientes funciones de distribución converge a la función de distribución $F(x)$ que corresponde a la función característica $\varphi(t)$


DEMOSTRACIÓN

Calcularemos la función característica de $G_n$ y haremos que tienda a infinito.

Definimos a $G_n=\frac { \sqrt { n } (\overline { X_{ n } } -\mu ) }{ \sigma  } =\frac { 1 }{ \sqrt { n }  } \sum _{ i=0 }^{ n }{ { Y }_{ i } } $ y calculamos su función característica, $$\varphi_{\frac { \sqrt { n } (\overline { X_{ n } } -\mu ) }{ \sigma  }}(t)=\varphi_{\frac { 1 }{ \sqrt { n }  } \sum _{ i=0 }^{ n }{ { Y }_{ i } }}(t)$$

Este paso se da gracias al teorema 4.4.7 del libro de la fuente $$=\varphi_{Y_1}(\frac{t}{\sqrt{n}})\varphi_{Y_2}(\frac{t}{\sqrt{n}})...\varphi_{Y_n}(\frac{t}{\sqrt{n}})=\left[ \varphi_Y (\frac{t}{\sqrt{n}}) \right]^n$$Podemos calcular ese valor si lo expadimos en su serie de Taylor y calculamos sus elementos $$\varphi_Y \left( \frac{t}{\sqrt{n}} \right)=\sum _{ k=0 }^{ \infty  }{ { { \varphi  } }_{ Y }^{ (k) }(0) } \frac { { (t/\sqrt { n } ) }^{ k } }{ k! } $$ Para calcular las derivadas recordemos que al evaluar en cero hacemos referencia a los momentos k-esimos, es decir ${E}[X^k] = (-i)^k \varphi_X^{(k)}(0)$, así ya podemos calcular las primeras derivadas $\varphi_Y(0)=1$, $\varphi^{(1)}_Y(0)=iE(X)=0$ (ya que es una variable aleatoria reducida), $\varphi^{(2)}_Y(0)=-E(Y^2)=-1$, el resto no importa, veremos que el residuo tiende a 0. $${ \left[ \varphi_Y \left( \frac{t}{\sqrt{n}} \right) \right]  }^{ n }={ \left[ 1-\frac { { t }^{ 2 } }{ 2n } +R_Y\left( \frac{t}{\sqrt{n}} \right) \right]  }^{ n }$$Donde $R_Y$ es el error del polinomio, una de sus propiedades es que $\lim _{ n\rightarrow \infty  }{ \frac { { R }_{ Y }(t/\sqrt { n } ) }{ { (t/\sqrt { n } ) }^{ 2 } }  } =0$ y si tomamos una $t$ fija, distinta de 0 tenemos que $\lim _{ n\rightarrow \infty  }{ \frac { { R }_{ Y }(t/\sqrt { n } ) }{ { (t/\sqrt { n } ) }^{ 2 } }  } =\lim _{ n\rightarrow \infty  }{ n } { R }_{ Y }\left( \frac { t }{ \sqrt { n }  }  \right) =0$ , por lo tanto calculando el limite de la función característica $$\lim _{ n\rightarrow \infty  }{ \varphi _{ \frac { 1 }{ \sqrt { n }  } \sum _{ i=0 }^{ n }{ { Y }_{ i } }  }(t) } =\lim _{ n\rightarrow \infty  }{ { \left[ 1-\frac { 1 }{ n } \left( \frac { { t }^{ 2 } }{ 2 } +nR_{ Y }\left( \frac { t }{ \sqrt { n }  }  \right)  \right)  \right]  }^{ n } } ={ e }^{ { -t }^{ 2 }/2 }$$De esta manera vemos que la sucesión de funciones características converge a la función característica de una normal $\mathcal{N}(0,1)$


Con esto queda demostrado el teorema.


Fuente: Casella, George (2002), Statiscal Inference (2da edición), Duxbury.



También te puede interesar...

Debate

0 debates en esta nota

Opiniones