¿Por qué se usa el método de mínimos cuadrados ordinarios en una regresión lineal?

¿Por qué se usa el método de mínimos cuadrados ordinarios en una regresión lineal?
Anonim

Responder:

Si las suposiciones de Gauss-Markof se mantienen, OLS proporciona el error estándar más bajo de cualquier estimador lineal, por lo que es el mejor estimador imparcial lineal.

Explicación:

Teniendo en cuenta estos supuestos

  1. Los coeficientes de los parámetros son lineales, esto solo significa que # beta_0 y beta_1 # son lineales pero las #X# La variable no tiene que ser lineal, puede ser # x ^ 2 #

  2. Los datos han sido tomados de una muestra aleatoria.

  3. No existe una multicolinealidad perfecta, por lo que dos variables no están perfectamente correlacionadas.

  4. #UE#/#x_j) = 0 # suposición condicional media es cero, lo que significa que # x_j # las variables no proporcionan información sobre la media de las variables no observadas.

  5. Las variaciones son iguales para cualquier nivel dado de #X# es decir #var (u) = sigma ^ 2 #

Entonces OLS es el mejor estimador lineal en la población de estimadores lineales o (Mejor estimador lineal sin sesgos) AZUL.

Si tiene este supuesto adicional:

  1. Las variaciones se distribuyen normalmente.

Entonces, el estimador OLS se convierte en el mejor estimador independientemente de si es un estimador lineal o no lineal.

Lo que esto significa esencialmente es que si las suposiciones 1-5 se mantienen, OLS proporciona el error estándar más bajo de cualquier estimador lineal y si 1-6 se mantiene, entonces proporciona el error estándar más bajo de cualquier estimador.