Regresión Simple - Supuestos de Gauss Markow

6,403 views 17 slides Jan 14, 2018
Slide 1
Slide 1 of 17
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17

About This Presentation

Resumen de supuestos que debe cumplir un modelo clásico de regresión simple a la hora de evaluar el nivel de ajuste de dicho modelo a los datos.


Slide Content

Regresión simple –Supuestos de Gauss-Markov
Mariel Balmaceda –FCE UBA

Gauss-MarkovGauss-Markov

UnavezestimadonuestromodeloporMCOsedeben
verificarlossupuestosdeG-M.Yaquesiseverifican
estascondicionesésteproporcionaráunbuenajustey
predicciones.

Decumplirse,podemosdecirquenuestroestimadorβ
i
MCOeselmejorestimadorinsesgado.

SupuestosSupuestos
1.
Elmodeloeslinealyeselcorrecto.
2.
Lasvariablesexplicativasnosonestocásticas,son
determinísticas.
3.
4.
5.
6.
~
7.
LacovarianzaentreuyXescero
8.
Elnúmerodeobservacionesdebesermayoralnúmerode
parámetrosaestimar
9.
Var(X)debeserunnúmerofinitopositivo
10.
Nohaymulticolinealidadperfecta
( ) 0
t
E u
2 2
,
t
u u
t  
( , ) 0, 0
t t j
COV u u j

  
t
u
2
(0, )
u
N

1-El modelo es lineal y es el correcto1-El modelo es lineal y es el correcto

Dadalaegresiónlinealpoblacional:

Donde:
-Y
i
eslavariablequequeremosestimaroexplicada
-X
i
eslavariableexplicativa,regresorodeterministica,
esdecirlatenemoscomodato
-eselparámetroaestimar,nosonconocidosyse
denominancoeficientesderegresión.
-u
i
esunavariableestocásticayrepresentaelerrorenel
modeloaestimar
1 2i i i
Y X u   
i

-Estepuntohacereferenciaalalinealidadquehayenlos
parámetrosβ,esdecirqueestánelevadosalaprimera
potencia.
-
Enestesentidoelmodeloelmodelopuedenoserlineal
enlasvariables,porejemploesestaforma:

Queseaelcorrectosignificaquelasvariables
explicativasqueintroducimosennuestromodeloson
relevantesparaexplicarY,yporlotantonoexistiráuna
variableXquenoexpliqueaY(noexistenvariables
omitidasoredundantes).Estoimplicaqueseconoceel
sesgodeespecificación.
2
1 2i i
Y X  

2-Las variables explicativas no son
estocásticas, son determinísticas
2-Las variables explicativas no son
estocásticas, son determinísticas

Elanálisisderegresiónesunanálisiscondicionadosalos
valoresdadosporlosvariablesexplicativasoregresores(X).

Gujarati(1997)describeestesupuestocomo“losvalores
quetomaelregresorXsonconsideradosfijosenel
muestreorepetido.Mástecnicamente,sesuponeno
estocástica”

3-La esperanza de la perturbación es
igual a cero, E(u
t
|X
t
) = 0
3-La esperanza de la perturbación es
igual a cero, E(u
t
|X
t
) = 0

Estoesquelamediadelerroru
i
esnuladadolosvaloresde
X.

Sesuponequelasu
i
estándistribuidassimétricamente.

Deestaformalasvariablesquenoestánincluidasenel
modeloyquesereflejanenu
i
noafectansistemáticamente
elvalordelamediadeY
1 2
( | ) 0 ( | )
i i i i i
Eu X EY X X     

4-Homoscedasticidado igual
varianza
4-Homoscedasticidado igual
varianza

Estoes:igualdispersión

DadounvalordeXlavarianzade u
i
eslamisma
siempre
2 2 2
var( | ) [ ( )| ] ( | )
t t t t t t t
u X Eu Eu X Eu X    

5 –No autocorrelación entre las
perturbaciones
5 –No autocorrelación entre las
perturbaciones

Significaquelasperturbacionesodesviaciones(los
u
i
)nosiguenunpatrónsistemático.Estoes:
cov(, | , ) [ ()| ][ ()| ]
i j i j i i i j j j
uu XX Eu Eu X u Eu X  
cov( , | , ) ( | )( | ) 0
i j i j i i j j
uu X X Eu X u X 

6 –Los residuos se distribuyen
normalmente
6 –Los residuos se distribuyen
normalmente

Estenoesrealmenteunsupuesto.Sinoquevienea
representardemaneramáscompactalossupuestos3,4y5.

Gujarati(1997):“Unapropiedaddeladistribuciónnormales
quecualquierfunciónlinealdevariablesnormalmente
distribuidasestarátambiénnormalmentedistribuida”.
EntonceslosestimadoreshalladosporMCOytambién
estánnormalmentedistribuidos.

Todoelloimplica,además,queu
i
yu
j
ademásdenoestar
correlacionadasestánidenticamentedistribuidas
1
ˆ

2
ˆ

Hasta aquíHasta aquí

Podemosdecirquesisecumplenlossupuestosde1a5
losestimadoressonlosMELI(Mejorestimadorlineal
insesgado)

Sisecumplenlossupuestosde1a6losestimadoresson
MEI(Mejorestimadorinsesgado)

7-La covarianza entre uy X es cero7-La covarianza entre uy X es cero

SuponemosqueXyuinfluyenenformaseparadasobreY.
Siestáncorrelacionadasnoseríaposibleversusefectos
individualessobrelavariableaexplicar
Porsupuesto3sabemosque yalserXno
estocásticatenemosque:
cov( , ) [ ( )][ ( )]
i i i i i i
u X Eu Eu X EX  
( ) 0
i
Eu
cov( , ) ( ) 0
i i i i
u X EuX 

8-El número de observaciones
n >β
i
8-El número de observaciones
n >β
i

Elnúmerodeobservacionesdebesermayoralnúmero
deparámetrosaestimar

Estaafirmaciónnoestantrivialcomoparece,deotra
formanoseríaposibleestimarlosparámetros
desconocidos

9 -Var (X) debe ser un número finito
positivo
9 -Var (X) debe ser un número finito
positivo

¿Qué ocurriría si todos los valores de X fueran iguales?
Tendríamos que:

¿Qué significa eso? Pues ahora el denominador de la
ecuación con la que estimamos los parámetros:
Como vemos, resultará nulo. Con lo cual será imposible
su estimación

Esto nos muestra que las variables X e Y deben variar
[ ]
i i
X EX X 
2
( )( )
ˆ
( )
i i
i
i
X X Y Y
X X

 



10-No hay multicolinealidadperfecta10-No hay multicolinealidadperfecta

Encasodelosmodelosderegresiónmúltiple,estoimplicaque
noexistenrelacionesperfectamentelinealesentrelasvariables
explicativas.

Lamulticolinealidadoriginalmentesignificólaexistenciade
unarelaciónperfectaentrealgunasotodaslasvariables
explicativas

EstasoloserefierealasrelacioneslinealesquehayentrelasX,
noeliminalasrelacionesnolineales

¿Porquénosimportalamulticolinealidad?Bueno,existen
diversasconsecuenciasprácticas.Enprincipiopodemosdecir
queelhechodequeexistahacequelainterpretacióndel
parámetroquesesuponecaptalasvariacionespromediodeY
cuandocambiaunadelasX
i
dejandolasdemásX
j
constanteya
nocumpliráesepropósitopuesnohayformadequeX
j
se
mantengaconstantecuandocambiaX
i
Conestovemosqueno
hayformadesepararlasinfluenciasdeX
i,j
delamuestra

Problemas con los modelos de
regresión clásicos
Problemas con los modelos de
regresión clásicos

Seasumelaestacionariedaddelasseries

Latendenciadelasseriessoninterpretadascomo
deterministicas

Cualquierdiscrepanciaesatribuidaaerroresde
especificacióndelaperturbacióndelmodelo

Lostestdeinferencia(tdeStudent,FdeSnedecor,etc.)
sebasanenelsupuestodeestacionariedad

Existeladenominada RegresiónEspuria,aquella
relaciónentrevariablesgeneradaporefectosenlas
tendenciasestocásticasynoporunvínculode
causalidad

Bibliografía

Gujarati D. (1997), Econometría Básica, McGraw-Hill,
tercer edición.

UrbisaiaH.yBrufmanJ.(2000),AnálisisdeSeriesde
Tiempo,EdicionesCooperativas,segundaedición.