11 Teoría de Estimación.

La estimación consiste en realizar predicciones o inferencias sobre los parámetros de una distribución usando la información contenida en la muestra.

Formalmente Dada una variable aleatoria \(X\) cuya ley de probabilidad depende de un parámetro \(\theta\), un estadístico \(g(X)\) se dice es estimador de \(\theta\) si, para cualquier valor observado de \(x \in X\), \(g(x)\) se considera un estimado de \(\theta\). Esta definición se puede escribir de otra forma, como:
Dadas las observaciones de variables aleatorias \(X_1, X_2, \ldots, X_n\) idéntica e independientemente distribuidas (iid) con función de distribución \(F(x\vert\theta)\), se estima \(\theta\).

En la primera definición anterior, \(g(x)\) es una función de la muestra (esto es, de las observaciones realizadas de la v. a. \(X\)). La definición puede ser un poco difícil de comprender, pero podemos revisarla poco a poco usando un ejemplo.

Ejemplo. Digamos que se realiza un muestreo aleatorio simple de una población cuya función de densidad es una v. a. normal de media \(\mu\) y varianza finita \(\sigma^2\). Digamos que se quiere construir un estimador de la media poblacional. Ya sabemos que el mejor estimador de la meda poblacional es \(\bar{X} = \frac{1}{n}\sum_{i=1}^n X_i\), y por lo tanto se tiene que \(g(x) = \bar{X}\).

De aquí en adelante, nos centraremos en construir estadísticos, además de usar los estimadores usuales ya conocidos. Pero antes, veamos las propiedades que tiene un buen estimador.