![]() |
500 Variables aleatorias i.i.d. simuladas por una computadora |
El teorema central del limte nos muestra que al momento de sumar una cantidad muy grande de variables aleatorias estas se aproximan a una normal, esto es lo que le da una gran importancia a la distribución normal, una hipótesis del teorema es que las variables deben de ser independientes idénticamente distribuidas, esto limita mucho el estudio, ya que en la vida real las variables pueden depender unas de otras y para ello se tienen otros métodos para calcular la suma de dichas variables aleatorias.
Teorema (Teorema Central del límite)
Sea $X_1,X_2,...,$ una sucesion de variables aleatorias i.i.d. con $E(X_i)=\mu$ y $0<Var(X_i)={\sigma}^2< \infty$ definimos $\overline{X}_n=(1/n)\sum _{ i=0 }^{ n }{X_i}$, denotamos a la funcion de acumulacion de $\sqrt{n}(\overline{X}_n-\mu)/\sigma$ como $G_n$. Entonces para todo $x \in (-\infty,\infty)$ $$\lim _{ n\rightarrow \infty }{ { G }_{ n }(x) } =\int _{ -\infty }^{ x }{ \frac { 1 }{ \sqrt { 2\pi } } { e }^{ -y^{ 2 }/2 }dy } $$
Para demostrarlo se darán por hecho el siguiente lema:
Lema:
Si la sucesión de funciones características $\varphi_n(t)$ converge en cada punto t a una función $\varphi (t)$ continua en algún intervalo $|t| < \tau$ , entonces la sucesión $F_n (x)$ de las correspondientes funciones de distribución converge a la función de distribución $F(x)$ que corresponde a la función característica $\varphi(t)$
DEMOSTRACIÓN
Calcularemos la función característica de $G_n$ y haremos que tienda a infinito.
Definimos a $G_n=\frac { \sqrt { n } (\overline { X_{ n } } -\mu ) }{ \sigma } =\frac { 1 }{ \sqrt { n } } \sum _{ i=0 }^{ n }{ { Y }_{ i } } $ y calculamos su función característica, $$\varphi_{\frac { \sqrt { n } (\overline { X_{ n } } -\mu ) }{ \sigma }}(t)=\varphi_{\frac { 1 }{ \sqrt { n } } \sum _{ i=0 }^{ n }{ { Y }_{ i } }}(t)$$
Este paso se da gracias al teorema 4.4.7 del libro de la fuente $$=\varphi_{Y_1}(\frac{t}{\sqrt{n}})\varphi_{Y_2}(\frac{t}{\sqrt{n}})...\varphi_{Y_n}(\frac{t}{\sqrt{n}})=\left[ \varphi_Y (\frac{t}{\sqrt{n}}) \right]^n$$Podemos calcular ese valor si lo expadimos en su serie de Taylor y calculamos sus elementos $$\varphi_Y \left( \frac{t}{\sqrt{n}} \right)=\sum _{ k=0 }^{ \infty }{ { { \varphi } }_{ Y }^{ (k) }(0) } \frac { { (t/\sqrt { n } ) }^{ k } }{ k! } $$ Para calcular las derivadas recordemos que al evaluar en cero hacemos referencia a los momentos k-esimos, es decir ${E}[X^k] = (-i)^k \varphi_X^{(k)}(0)$, así ya podemos calcular las primeras derivadas $\varphi_Y(0)=1$, $\varphi^{(1)}_Y(0)=iE(X)=0$ (ya que es una variable aleatoria reducida), $\varphi^{(2)}_Y(0)=-E(Y^2)=-1$, el resto no importa, veremos que el residuo tiende a 0. $${ \left[ \varphi_Y \left( \frac{t}{\sqrt{n}} \right) \right] }^{ n }={ \left[ 1-\frac { { t }^{ 2 } }{ 2n } +R_Y\left( \frac{t}{\sqrt{n}} \right) \right] }^{ n }$$Donde $R_Y$ es el error del polinomio, una de sus propiedades es que $\lim _{ n\rightarrow \infty }{ \frac { { R }_{ Y }(t/\sqrt { n } ) }{ { (t/\sqrt { n } ) }^{ 2 } } } =0$ y si tomamos una $t$ fija, distinta de 0 tenemos que $\lim _{ n\rightarrow \infty }{ \frac { { R }_{ Y }(t/\sqrt { n } ) }{ { (t/\sqrt { n } ) }^{ 2 } } } =\lim _{ n\rightarrow \infty }{ n } { R }_{ Y }\left( \frac { t }{ \sqrt { n } } \right) =0$ , por lo tanto calculando el limite de la función característica $$\lim _{ n\rightarrow \infty }{ \varphi _{ \frac { 1 }{ \sqrt { n } } \sum _{ i=0 }^{ n }{ { Y }_{ i } } }(t) } =\lim _{ n\rightarrow \infty }{ { \left[ 1-\frac { 1 }{ n } \left( \frac { { t }^{ 2 } }{ 2 } +nR_{ Y }\left( \frac { t }{ \sqrt { n } } \right) \right) \right] }^{ n } } ={ e }^{ { -t }^{ 2 }/2 }$$De esta manera vemos que la sucesión de funciones características converge a la función característica de una normal $\mathcal{N}(0,1)$
Con esto queda demostrado el teorema.
Fuente: Casella, George (2002), Statiscal Inference (2da edición), Duxbury.