Perché il metodo dei minimi quadrati ordinari è utilizzato in una regressione lineare?

Perché il metodo dei minimi quadrati ordinari è utilizzato in una regressione lineare?
Anonim

Risposta:

Se le ipotesi di Gauss-Markof sono valide, OLS fornisce l'errore standard più basso di qualsiasi stimatore lineare, quindi il migliore stimatore lineare imparziale

Spiegazione:

Dati questi presupposti

  1. I coefficenti dei parametri sono lineari, questo significa solo questo # beta_0 e beta_1 # sono lineari ma i #X# la variabile non deve essere lineare può essere # X ^ 2 #

  2. I dati sono stati presi da un campione casuale

  3. Non c'è perfetta multi-collinearità quindi due variabili non sono perfettamente correlate.

  4. #Unione Europea#/#x_j) = 0 # l'assunto condizionale medio è zero, il che significa che il # # X_j le variabili non forniscono informazioni sulla media delle variabili non osservate.

  5. Le varianze sono uguali per ogni dato livello di #X# cioè #var (u) = sigma ^ 2 #

Quindi OLS è il miglior stimatore lineare nella popolazione degli stimatori lineari o (Best Estear Unbiased Estimator) BLUE.

Se hai questa supposizione aggiuntiva:

  1. Le varianze sono normalmente distribuite

Quindi lo stimatore OLS diventa il miglior stimatore, indipendentemente dal fatto che si tratti di uno stimatore lineare o non lineare.

Ciò che questo significa essenzialmente è che se le supposizioni 1-5 sono valide, OLS fornisce l'errore standard più basso di qualsiasi stimatore lineare e se 1-6 tiene quindi fornisce l'errore standard più basso di qualsiasi stimatore.