Responder:
Si las suposiciones de Gauss-Markof se mantienen, OLS proporciona el error estándar más bajo de cualquier estimador lineal, por lo que es el mejor estimador imparcial lineal.
Explicación:
Teniendo en cuenta estos supuestos
-
Los coeficientes de los parámetros son lineales, esto solo significa que
# beta_0 y beta_1 # son lineales pero las#X# La variable no tiene que ser lineal, puede ser# x ^ 2 # -
Los datos han sido tomados de una muestra aleatoria.
-
No existe una multicolinealidad perfecta, por lo que dos variables no están perfectamente correlacionadas.
-
#UE# /#x_j) = 0 # suposición condicional media es cero, lo que significa que# x_j # las variables no proporcionan información sobre la media de las variables no observadas. -
Las variaciones son iguales para cualquier nivel dado de
#X# es decir#var (u) = sigma ^ 2 #
Entonces OLS es el mejor estimador lineal en la población de estimadores lineales o (Mejor estimador lineal sin sesgos) AZUL.
Si tiene este supuesto adicional:
- Las variaciones se distribuyen normalmente.
Entonces, el estimador OLS se convierte en el mejor estimador independientemente de si es un estimador lineal o no lineal.
Lo que esto significa esencialmente es que si las suposiciones 1-5 se mantienen, OLS proporciona el error estándar más bajo de cualquier estimador lineal y si 1-6 se mantiene, entonces proporciona el error estándar más bajo de cualquier estimador.
Calcule la línea de regresión de mínimos cuadrados donde el ahorro anual es la variable dependiente y el ingreso anual es la variable independiente.
Y = -1.226666 + 0.1016666 * X barra X = (12 + 13 + 14 + ... + 20) / 9 = 9 * (12 + 20) / (2 * 9) = 16 bar Y = (0 + 0.1 + 0.2 + 0.2 + 0.5 + 0.5 + 0.6 + 0.7 + 0.8) / 9 = 0.4 hat beta_2 = (sum_ {i = 1} ^ {i = 9} x_i * y_i) / (sum_ {i = 1} ^ {i = 9} x_i ^ 2) "con" x_i = X_i - barra X ", y" y_i = Y_i - barra Y => hat beta_2 = (4 * 0.4 + 3 * 0.3 + 2 * 0.2 + 0.2 + 0.1 + 2 * 0.2 + 3 * 0.3 + 4 * 0.4) / ((4 ^ 2 + 3 ^ 2 + 2 ^ 2 + 1 ^ 2) * 2) = (1.6 + 0.9 + 0.4 + 0.2 + 0.1 + 0.4 + 0.9 + 1.6) / 60 = 6.1 / 60 = 0.10166666 => hat beta_1 = barra Y - hat beta_2 * barra X = 0.4 - (6.1 / 60) * 16 = -1.226666 "As
¿Qué se entiende por el término "mínimos cuadrados" en regresión lineal?
Todo esto significa que es el mínimo entre la suma de la diferencia entre el valor y real y el valor y predicho. min sum_ (i = 1) ^ n (y_i-haty) ^ 2 Simplemente significa que el mínimo entre la suma de todos los resultados min sum_ (i = 1) ^ nhatu_i ^ 2 todo esto significa que es el mínimo entre la suma de la diferencia entre el valor y real y el valor y predicho. min sum_ (i = 1) ^ n (y_i-haty) ^ 2 De esta manera, al minimizar el error entre el pronóstico y el error, obtendrá el mejor ajuste para la línea de regresión.
¿Cuál es el formato general para la ecuación de una recta de regresión de mínimos cuadrados?
Ecuación para la regresión lineal de mínimos cuadrados: y = mx + b donde m = (suma (x_iy_i) - (suma x_i suma y_i) / n) / (suma x_i ^ 2 - ((suma x_i) ^ 2) / n) y b = (suma y_i - m suma x_i) / n para una colección de n pares (x_i, y_i) Esto parece horrible de evaluar (y lo es, si lo está haciendo a mano); pero usar una computadora (con, por ejemplo, una hoja de cálculo con columnas: y, x, xy y x ^ 2) no es tan malo.