10.1 Estimación.

La estimación consiste en hacer inferencias o predicciones sobre los parámetros de una población, los cuales están ocultos a nostoros, usando la información contenida en una muestra. La estimación puede ser de dos tipos:

  • Estimación puntual: una estimación puntual es un estimador que se calcula a partir de una sola muestra particular. Este tiene tres propiedades esenciales: debe ser i) eficiente, ii) consistente, y iii) suficiente.
  • Estimación por intervalos: son un par de estimadores que definen los límites de un intervalo, que se calculan a partir de una muestra, y se espera que contenga el parámetro que esta siendo estimado.

Los estimadores, sea cuales sean, deben construirse. La construcción de estos debe ser tal que estos tengan varias propiedades deseables para hacer inferencia: no deben estar sesgados, lo cual se garantiza al emplear métodos de muestreo que permitan tomar muestras aleatorias. Además, deben elegirse de tal forma que sean de mínima varianza, y deben ser consistentes, esto es, a medida que aumente el esfuerzo de muestreo, el estimador debe ir acercandose cada vez más al valor del parámetro.

Cualquier proceso de estimación comienza con la suposición de un modelo estocástico que se asume correcto (como se discute en el capítulo [Infererncia estadística.]) una vez recolectada la muestra. Este modelo es una función de densidad \(f(x; \theta)\) que resume la forma en la que se generan las observaciones (la notación hace referencia a que \(f\) es una función de las observaciones \(x\), dados los parámetros \(\theta\)). En capítulos anteriores hemos dicho que si una v. a. \(X\) sigue una distribución \(f(x)\), se escribe \(X \sim f(x; \theta)\).

Cuando recolectamos una muestra, tenemos \(n\) observaciones \(x_1, x_2, \ldots, x_n\) de una variable alestoria \(X\) en estudio. Sin embargo, resulta más conveniente entender a las observaciones como generadas por \(n\) variables aleatorias: \(X_1\) genera la observación \(x_1\), \(X_2\) genera la observación \(x_2\), \(\ldots\), \(X_n\) genera la observación \(x_n\), donde cada v. a. se distribuye con la misma ley de probabilidad \(f(x, \theta)\). En este caso, se dice que las \(n\) v. a. se distribuyen identicamente. Si además, estas variables son independientes entre sí, se dicen que las \(n\) v. a. son independiente e identicamente distribuidas, que se abrevia como iid, y se escribe:

\[X_i \overset{iid}{\sim} f(x_i; \theta)\text{ para }i = 1, 2, \ldots, n\]

que se lee como: las variable aleatorias son independientes e identicamente distribuidas como \(f(x; \theta)\). Ahora, si bien cada variable aleatoria tiene su ley de probabilidad, la muestra en su totalidad tiene una ley de probabilidad que se deriva de la ley de probabilidad de las v. a. individuales. La función de probabilidad conjunta de las \(n\) v. a. iid viene dada por:

\[f(X_1, \ldots, X_n; \theta) = f(x_1; \theta) f(x_2; \theta)\ldots f(x_n; \theta)\]

Ejemplo. Digamos que se recolecta una muestra de \(n\) observaciones generadas por las v. a. \(X_1, \ldots, X_n\) que son iid como \(N(\mu, \sigma^2)\). Entonces la función de probabilidad conjunta es: \[\begin{aligned} f(x_1, x_2, \ldots, x_n; \mu, \sigma^2) &= f(x_1; \mu, \sigma^2) f(x_2; \mu, \sigma^2)\ldots f(x_n; \mu, \sigma^2) \\ &= \left(\frac{1}{\sqrt{2\pi} \sigma} e^{-\frac{(x_1 - \mu)^2}{2\sigma^2}}\right)\left(\frac{1}{\sqrt{2\pi} \sigma} e^{-\frac{(x_2 - \mu)^2}{2\sigma^2}}\right)\ldots\left(\frac{1}{\sqrt{2\pi} \sigma} e^{-\frac{(x_n - \mu)^2}{2\sigma^2}}\right) \\ &= \frac{1}{(\sqrt{2\pi}\sigma)^n}e^{-\sum_{i=1}^n\frac{(x_i - \mu)^2}{2\sigma^2}} \end{aligned}\] donde se usó las propiedades de producto de potencia con igual base. Al expandir la potencia y aplicar propiedades de sumatoria (tarea sencilla que puede verificar usted mismo) se obtiene que: \[f(x_1, x_2, \ldots, x_n; \mu, \sigma^2) = \frac{1}{(\sqrt{2\pi}\sigma)^n}e^{-\frac{(\bar{X} - \mu)^2}{2\sigma^2}}\] y esta es la función de distribución conjunta para la muestra de tamaño \(n\) recolectada.

El enfasis que se hace es que la muestra tiene una ley de probabilidad asociada que resulta de las suposiciones iniciales del modelo, y, por lo tanto, la inferencia es dependiente de estas suposiciones. También se trata de aclarar la notación que usaremos y que se encuentra frecuentemente en textos de estadística.