Professional Documents
Culture Documents
Capitanio)
Slide n. 10
REGRESSIONE LINEARE Date due variabili quantitative, X e Y, si interessati a studiare se e in che misura la variabile Y (che chiameremo VARIABILE DIPENDENTE o RISPOSTA) sia influenzata dalla X (VARIABILE ESPLICATIVA o INDIPENDENTE). Negli studi empirici la relazione che lega Y ad X non potr mai essere funzionale, in quanto ad uno stesso valore di X corrisponderanno pi valori di Y.
Volume delle vendite (migliaia di !)
21 19 17 15 13 11 9 7
0 1 2 3 4 5 6 7
Rappresenteremo il legame attraverso una relazione statistica, descritta da modelli del tipo:
Y = f (x ) + !
! rappresenta il contributo di tutti i fattori non osservati (errore) (componente casuale, non osservabile)
nel nostro modello Y una variabile casuale
Y = ! 0 + !1X + "
MODELLO DI REGRESSIONE LINEARE SEMPLICE I dati che abbiamo a disposizione sono n coppie di valori di X e di Y osservati congiuntamente
(x , y )
i i
i = 1,2, , n
Assunzioni del modello di regressione lineare classico 1) I valori della variabile Y che osserviamo sono generati da:
Var (! i ) = " 2 , per ogni i = 1,2, , n . (Lipotesi di varianza uguale per tutte le
componenti viene detta omoschedasticit) I valori x i sono noti senza errore.
3)
Dalle tre assunzioni precedenti consegue che le osservazioni y i sono realizzazioni di variabili casuali: a) indipendenti b) con valore atteso c) con varianza In particolare, la b) significa che in corrispondenza del valore X = x i , osserveremo un valore di Y mediamente pari a ! 0 + !1 x i . Problema:
=y "y ! i i i
(x , y )
i i
+! x =! y i 0 1 i
Stimiamo i parametri ! 0 e !1 con i valori che rendono minima la somma dei residui al quadrato.
La soluzione :
B1 =
Cod ( x ,Y ) Dev ( x )
Cov ( x ,Y ) Var ( x )
B 0 = Y ! B1x
Propriet
1) e sono stimatori corretti di ! 0 e !1 e !1 che sono funzioni lineari delle
Inoltre:
Somma totale dei quadrati (SQT) Devianza totale Somma dei quadrati della regressione (SQR) Devianza di regressione Somma dei quadrati degli errori (SQE) Devianza di dispersione o residua
10
(x i , y i )
11
Indica la proporzione di variabilit di Y spiegata dalla variabile esplicativa X attraverso il modello di regressione.
12
0 ! R2 ! 1
quando
Dev regr = 0
13
La radice quadrata di una misura della variabilit degli scostamenti dei valori osservati da quelli previsti dal modello (indica quanto sono dispersi i valori osservati attorno alla retta stimata): viene usualmente chiamato errore standard di regressione
Si dimostra che
!e
i =1
14
E (B1 ) = !1 ;
E (B 0 ) = ! 0
e
attraverso
15
ASSUNZIONE DI NORMALITA DISTRIBUTIVA DEGLI ERRORI Per poter fare inferenza specifichiamo la forma distributiva degli errori particolare assumiamo che Ricordando lespressione del modello . In
Sotto lipotesi di Normalit distributiva degli errori si ha: 1) Gli stimatori dei minimi quadrati e hanno distribuzione Normale.
16
INTERVALLI DI REGRESSIONE
CONFIDENZA
PER
PARAMETRI
DELLA
RETTA
DI
17
Porre equivale a dire che la variabile risposta Y linearmente indipendente da X, e quindi la variabile indipendente X non aiuta a spiegare meglio Y. La statistica test da utilizzare che, sotto Si rifiuta , ha distribuzione quando , dove
18
(a)
(b)
19
Test sullintercetta
(a)
(b)
(c)
20