De ce este folosită metoda obișnuită cu cele mai mici pătrate într-o regresie liniară?

De ce este folosită metoda obișnuită cu cele mai mici pătrate într-o regresie liniară?
Anonim

Răspuns:

Dacă ipotezele Gauss-Markof dețin, atunci OLS furnizează cea mai mică eroare standard a oricărui estimator liniar, deci cel mai bun estimator liniar imparțial

Explicaţie:

Având în vedere aceste ipoteze

  1. Parametrii co-eficenți sunt liniare, aceasta înseamnă doar că # beta_0 și beta_1 # sunt liniare, dar #X# variabilă nu trebuie să fie liniară poate fi # X ^ 2 #

  2. Datele au fost luate dintr-o probă aleatorie

  3. Nu există o multi-colinearitate perfectă, astfel încât două variabile nu sunt perfect corelate.

  4. #Eu#/#x_j) = 0 # înseamnă ipoteza condiționată este zero, ceea ce înseamnă că # # X_j variabilele nu furnizează informații despre media variabilelor neobservate.

  5. Diferențele sunt egale pentru orice nivel dat de #X# adică #var (u) = sigma ^ 2 #

Apoi, OLS este cel mai bun estimator liniar din populația estimatorilor liniari sau (Best Estimator Linear Imparțial) BLUE.

Dacă aveți această ipoteză suplimentară:

  1. Diferențele sunt în mod normal distribuite

Apoi, estimatorul OLS devine cel mai bun estimator indiferent dacă este un estimator liniar sau neliniar.

Ceea ce inseamna in esenta este ca daca ipotezele 1-5 pastreaza atunci OLS furnizeaza cea mai mica eroare standard a oricarui estimator liniar si daca hold 1-6 ofera cea mai mica eroare standard a oricarui estimator.