Răspuns:
Dacă ipotezele Gauss-Markof dețin, atunci OLS furnizează cea mai mică eroare standard a oricărui estimator liniar, deci cel mai bun estimator liniar imparțial
Explicaţie:
Având în vedere aceste ipoteze
-
Parametrii co-eficenți sunt liniare, aceasta înseamnă doar că
# beta_0 și beta_1 # sunt liniare, dar#X# variabilă nu trebuie să fie liniară poate fi# X ^ 2 # -
Datele au fost luate dintr-o probă aleatorie
-
Nu există o multi-colinearitate perfectă, astfel încât două variabile nu sunt perfect corelate.
-
#Eu# /#x_j) = 0 # înseamnă ipoteza condiționată este zero, ceea ce înseamnă că# # X_j variabilele nu furnizează informații despre media variabilelor neobservate. -
Diferențele sunt egale pentru orice nivel dat de
#X# adică#var (u) = sigma ^ 2 #
Apoi, OLS este cel mai bun estimator liniar din populația estimatorilor liniari sau (Best Estimator Linear Imparțial) BLUE.
Dacă aveți această ipoteză suplimentară:
- Diferențele sunt în mod normal distribuite
Apoi, estimatorul OLS devine cel mai bun estimator indiferent dacă este un estimator liniar sau neliniar.
Ceea ce inseamna in esenta este ca daca ipotezele 1-5 pastreaza atunci OLS furnizeaza cea mai mica eroare standard a oricarui estimator liniar si daca hold 1-6 ofera cea mai mica eroare standard a oricarui estimator.
Cele mai mari din cele 2 numere sunt 11 mai mici de 3 ori mai mici. Suma este de 69. Care sunt numerele?
Culoarea (magenta) (x = 20 Fie ca numerele sa fie x si 3x-11 Potrivit intrebarii, x + 3x-11 = 69 4x-11 = 69 4x = 69 + 11 4x = 80 x = (magenta) (x = 20 ~ Sper că vă ajută! :)
Cele mai mari dintre cele două numere sunt 1 mai mici de 8 ori mai mici. Suma lor este de 179. Cum găsiți numerele?
Cele două numere sunt 20 și 159 Definiți culoarea (alb) ("XXX") b = culoarea mai mare (mai mare) (alb) ("XXX") s = ") b = 8s-1 [2] culoare (alb) (" XXX ") b + s = 179 (8s-1) "XXX") 8s-1 + s = 179 Simplificați [4] culoare (alb) (XXX) 9s = 180 [5] [6] culoare (alb) ("XXX") b + 20 = 179 [7] culoare (alb)
Care este formatul general al ecuației liniei de regresie cu cele mai mici pătrate?
Ecuația pentru regresia liniară cea mai mică pătratică: y = mx + b unde m = (suma (x_iy_i) - (suma x_i suma y_i) / n) / (suma x_i ^ 2 - ((sum x_i) ^ 2) b = (suma y_i - m suma x_i) / n pentru o colectie de perechi n (x_i, y_i) Acest lucru pare oribil de evaluat (si este, daca o faci manual); dar folosind un calculator (cu, de exemplu, o foaie de calcul cu coloane: y, x, xy și x ^ 2) nu este prea rău.