Cap.10 Multicolinearidade.pptCap.10 Multicolinearidade.pptCap.10 Multicolinearidade.ppt

cleversonneves 58 views 100 slides Mar 13, 2024
Slide 1
Slide 1 of 100
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24
Slide 25
25
Slide 26
26
Slide 27
27
Slide 28
28
Slide 29
29
Slide 30
30
Slide 31
31
Slide 32
32
Slide 33
33
Slide 34
34
Slide 35
35
Slide 36
36
Slide 37
37
Slide 38
38
Slide 39
39
Slide 40
40
Slide 41
41
Slide 42
42
Slide 43
43
Slide 44
44
Slide 45
45
Slide 46
46
Slide 47
47
Slide 48
48
Slide 49
49
Slide 50
50
Slide 51
51
Slide 52
52
Slide 53
53
Slide 54
54
Slide 55
55
Slide 56
56
Slide 57
57
Slide 58
58
Slide 59
59
Slide 60
60
Slide 61
61
Slide 62
62
Slide 63
63
Slide 64
64
Slide 65
65
Slide 66
66
Slide 67
67
Slide 68
68
Slide 69
69
Slide 70
70
Slide 71
71
Slide 72
72
Slide 73
73
Slide 74
74
Slide 75
75
Slide 76
76
Slide 77
77
Slide 78
78
Slide 79
79
Slide 80
80
Slide 81
81
Slide 82
82
Slide 83
83
Slide 84
84
Slide 85
85
Slide 86
86
Slide 87
87
Slide 88
88
Slide 89
89
Slide 90
90
Slide 91
91
Slide 92
92
Slide 93
93
Slide 94
94
Slide 95
95
Slide 96
96
Slide 97
97
Slide 98
98
Slide 99
99
Slide 100
100

About This Presentation

Cap.10 Multicolinearidade.ppt


Slide Content

MULTICOLINEARIDADE

•Onossoobjetivoéestimaros
parâmetros da regressão
múltipla,efazerinferênciasa
respeitodelesapartirdosdados
disponíveis.

•Multicolinearidaderefere-seà
correlaçãoentreduasvariáveis
explicativasouentreumadelase
asdemais,incluídasnaequação
deummodelo.

•Issoimplicaqueamulticolinearidade
ocorre,quando,porexemplo,duas
variáveisX
1eX
2medem
aproximadamenteamesmacoisa,ou
seja,acorrelaçãoentreelaséquase
perfeita.

•Quantidade demandada é função do
preço do produto e dos seus
substitutos;
•Consumo é função da renda e
riqueza;
•Consumo é função da renda e da
taxa de juros.

Fontes de Multicolinearidade

1 -método empregado para a
coleta de dados.
•Tomar a amostragem de uma
faixa limitada de valores pelos
regressores da população.

2 -restrições sobre o modelo ou a
população que está sendo
amostrada.
•Na regressão do consumo de
eletricidade sobre a renda (X
2) e o
tamanho da casa (X
3), há uma
restrição física na população, já que
famílias com maiores rendas
geralmente têm casas maiores que
as famílias com menores rendas.

3 -Especificação do modelo.
•Adicionando termos polinomiais
ao modelo de regressão,
especialmente quando a
amplitude da variável Xfor
pequena.

4 –Modelo superdeterminado.
•Isto ocorre quando o modelo tiver
mais variáveis explicativas que o
número de observações
(micronumerosidade).

5 -Outro motivo de multicolinearidade,
especialmente no caso de séries
temporais, pode ser que os
regressores do modelo apresentem
uma tendência comum, isto é, todos
eles aumentam ou diminuem ao
longo do tempo.

•Assim, na regressão das despesas de
consumo sobre a renda, a riqueza e a
população, os regressores renda, riqueza
e população podem estar evoluindo mais
ou menos à mesma taxa, gerando
colinearidade entre essas variáveis.

ESTIMAÇÃO NA PRESENÇA
DA MULTICOLINEARIDADE
PERFEITA

•No caso da multicolinearidade
perfeita, os coeficientes de
regressão permanecem
indeterminados e seus erros-
padrão são infinitos

Isso pode ser demonstrado:

. Seja: iiii
uxxy ˆˆˆ
3322
  (10.2.1)
   
 
2
32
2
3
2
2
323
2
32
2
ˆ





iiii
iiiiiii
xxxx
xxxyxxy

(7.4.7)

   
 
2
32
2
3
2
2
322
2
23
3
ˆ





iiii
iiiiiii
xxxx
xxxyxxy

(7.4.8)

. Suponha que iixx
23 , sendo 0 .

. Substituindo em (7.4.7):
    
 
2
2
2
22
2
22
2
2
2
2
2
2
2
2
2
ˆ





iii
i
iiiii
xxx
xxyxxy




   
 
0
0
ˆ
2
2
2
2
2
2
2
2
2
2
2
22
2
2
2
2





 
ii
ii
i
iii
xx
xyxxxy



(10.2.2)

. (10.2.2) é uma expressão indeterminada.

. Por que obtemos o resultado mostrado em (10.2.2)?

. O significado de 2
ˆ
 é: ele fornece a taxa de
variação no valor médio de Y quando X2 se altera
em uma unidade, mantendo X3 constante.

. Mas, se X3 e X2 são perfeitamente colineares,
não há como manter X3 constante: conforme X2
se altera, o mesmo ocorre com X3 pelo fator  .

.

. Isso significa que não há como isolar as influências
separadas de X2 e X3 de uma dada amostra: para fins
práticos, X2 e X3 são indistinguíveis.

. Na econometria aplicada, este problema causa
maiores danos já que o objetivo final é separar os
efeitos parciais de cada X sobre a variável
dependente.

. No caso da multicolinearidade perfeita, as
variâncias e os erros-padrão de 2
ˆ
 e 3
ˆ
 ,
individualmente, são infinitos.

. Da equação (7.4.12):  

)1(
)
ˆ
var(
2
23
2
2
2
2
rx
i



. Se temos colinearidade perfeita, 1
23r , então o
denominador será igual a zero. Nesse caso, a variância de 2
ˆ

será infinita.

. Na forma matricial, quando ocorre
multicolinearidade perfeita, teremos a
existência, na matriz X, colunas linearmente
dependentes.

. Consideremos o caso de uma regressão linear múltipla
com duas variáveis independentes perfeitamente
correlacionadas entre si

uuxxy
jjjj

2211

com
 
 
1
2
2
2
1
2
212
12 



jj
jj
xx
xx
r

. Neste caso, temos

 0'
2
21
2
2
2
1

jjjj
xxxxXX

. Isto é, o determinante da matriz X’X é igual a zero.

. Não é possível, então, inverter a matriz X’X e,
consequentemente, é impossível obter as estimativas
de 1 e 2 .

•É importante compreender que no
caso de uma regressão com mais de
duas variáveis independentes pode
existir multicolinearidade perfeita,
mesmo que nenhum dos coeficientes
de determinação simples seja igual a
um.

Para isso, veja o seguinte exercício:

Com a finalidade de ajustar o modelo

jjjjjj
uXXXXY 
44332211


foi obtida uma amostra de 8 observações.

Os valores das variáveis independentes constam da tabela a
seguir:
X1 X2 X3 X4
-1 -1 -1 -3
-1 -1 1 -1
-1 1 -1 -1
-1 1 1 1
1 -1 -1 -1
1 -1 1 1
1 1 -1 1
1 1 1 3

Verifique que, embora o valor dos
coeficientes de correlação entre pares de
variáveis independentes seja sempre inferior a
0,58, existe multicolinearidade perfeita.

ESTIMATIVA NA
PRESENÇA DE
MULTICOLINEARIDADE
“ALTA” MAS
“IMPERFEITA”.

Em geral não há uma relação
linear exata entre as variáveis X,
especialmente em dados que
envolvem séries temporais
econômicas.

. Em vez de multicolinearidade exata, podemos ter:

iii vxx 
23 (10.3.1)

sendo: 0 , e
vi é um termo de erro estocástico de tal modo que  0
2iivx
.

. Nesse caso, a estimativa dos coeficientes de regressão 2 e 3
talvez seja possível.

. Ou seja:
   
 
2
32
2
3
2
2
323
2
32
2
ˆ





iiii
iiiiiii
xxxx
xxxyxxy

(7.4.7)


substituindo (10.3.1) em (7.4.7):

    
   
2
22
22
2
22
2
222
22
2
2
2
2
)(
)()(
ˆ





iiiiii
iiiiiiiiii
vxxvxx
vxxvxyvxxy



     
  
2
2
2
2
22
2
22
2
2
2
2
2
22
2
2
2
2
ˆ
  
  



iiiiii
ii
i
iiiiiiii
vxxvxx
vxxvyxyvxxy




se  0
2iivx
    
  
2
2
2
22
2
22
2
2
2
2
22
2
2
2
2
ˆ
 
  



iiii
i
iiiiiiii
xvxx
xvyxyvxxy




(10.3.2)

. A equação (10.3.2) pode ser estimada.

. Naturalmente, se iv for suficientemente
pequeno, muito próximo de zero, (10.3.1)
indicará uma colinearidade quase perfeita.
Então retornaremos ao caso indeterminado
de (10.2.2).

CONSEQÜÊNCIAS
PRÁTICAS DA
MULTICOLINEARIDADE

1ª Conseqüência

•Apesar de serem MELNV, os
estimadores de MQO têm grandes
variâncias e covariâncias,
dificultando uma estimativa
precisa.

As variâncias e covariâncias de 2
ˆ
 e 3
ˆ
 são dadas por:



)1(
)
ˆ
var(
2
23
2
2
2
2
rx
i


(7.4.12)



)1(
)
ˆ
var(
2
23
2
3
2
3
rx
i


(7.4.15)




2
3
2
2
2
23
2
23
32
)1(
)
ˆ
,
ˆ
(
iixxr
r
Cov


(7.4.17)

em que r23 é o coeficiente de correlação entre X2 e X3.

. A partir de (7.4.12)



)1(
)
ˆ
var(
2
23
2
2
2
2
rx
i


(7.4.12)

- se aumentar r23 a variância aumenta;

0,30
2
= 0,09
0,90
2
= 0,81

- se r23 = 1 a variância é infinita.

. A partir de (7.4.17)




2
3
2
2
2
23
2
23
32
)1(
)
ˆ
,
ˆ
(
iixxr
r
Cov


(7.4.17)

- se aumentar r23 a covariância aumenta;

- se r23 = 1 a covariância é infinita.

A velocidade com que as variâncias e covariâncias
aumentam pode ser vista com o:

- Fator de inflação da variância (FIV)

 
2
23
1
1
r
FIV

 (10.5.1)

- A medida que r23 se aproxima de 1, o FIV
aumenta  
2
23
1
1
r
FIV




- No limite, pode tornar-se infinita.

- Se r23 = 0, o FIV é 1.

. Portanto:

FIV
x
i
2
2
2
2
)
ˆ
var(



 (10.5.2)

FIV
x
i
2
3
2
3
)
ˆ
var(



 (10.5.3)

(10.5.2) e (10.5.3) mostram que as
variâncias de 2
ˆ
 e 3
ˆ
 são diretamente
proporcionais ao FIV.
FIV
x
i
2
2
2
2
)
ˆ
var(




(10.5.2)
FIV
x
i
2
3
2
3
)
ˆ
var(




(10.5.3)

. Quando aumenta r23 têm um efeito
impressionante sobre as variâncias e
covariâncias dos estimadores.

- a tabela 10.1 mostra os valores

- quando r23 = 0,50 a 2
2
2
233,1)
ˆ
var(
ix




- ou seja:  
33,1
25,01
1


FIV

- a tabela 10.1 mostra os valores

- quando r23 = 0,50 a 2
3
2
2
2
32 66667,0)
ˆ
,
ˆ
cov(
iixx






- ou seja:  
66667,0
25,01
50,0


FIV

Tabela 10.1 Efeito dos aumentos de r23 sobre a variância e
covariância.
Valor de r23 VIF )
ˆ
var(
2 )
ˆ
,
ˆ
cov(
32

0,00 1,00 1,00 x A 0
0,50 1,33 1,33 x A 0,67 x B
0,70 1,96 1,96 x A 1,37 x B
0,90 5,26 5,26 x A 4,73 x B
0,95 10,26 10,26 x A 9,74 x B
0,97 16,92 16,92 x A 16,41 x B
0,99 50,25 50,25 x A 49,75 x B
0,995 100,00 100,00 x A 99,50 x B
0,999 500,00 500,00 x A 499,50 x B 2
2
2
ix
A



e 2
3
2
2
2
.
iixx
B



. Graficamente, pode-se ver o comportamento da )
ˆ
var(
2 como função de r23.

)
ˆ
var(
2
2
2
2
ix
A





5,26 A

1,33 A

A

0,5 0,85 1,0 r23

Figura 10.2 Comportamento da )
ˆ
var(
2 como função de r23.
Ausência de
Multicolinearidade
porque r
23 = 0

. Os resultados que acabamos de examinar podem ser estendidos ao modelo
com k variáveis.

. Nesse modelo, a variância do k-ésimo coeficiente, pode ser expresso como:











22
2
1
1
)
ˆ
var(
jj
j
Rx

 (7.5.6)
j

ˆ
= parâmetro do regressor Xj;
2
jR
= R
2
da regressão de Xj contra as (k – 2) regressões restantes ( o 2 refere-
se a Xj e o intercepto)
 
2
2
jjj
XXx 

. Também podemos escrever (7.5.6) como:
j
j
j
FIV
x



2
2
)
ˆ
var(


(10.5.4)

. da equação (10.5.4) verifica-se que:

)
ˆ
var(
j
 é proporcional a 2
 e FIV, mas inversamente
proporcional a 2
jx .

. Assim, a )
ˆ
var(
j
 será grande ou pequena de
acordo com:

1) 2

2) FIV
2) 2
jx

. Observe que o inverso do FIV é denominado
tolerância (TOL)

)1(
1
2
j
j
j
R
FIV
TOL 

. Se 1
2

j
R (colinearidade perfeita), TOL = 0 e 0
2

jR
, TOL = 1.

2ª Conseqüência

Em virtude da conseqüência 1, o
erro-padrão e o intervalo de confiança
serão maiores.
•A probabilidade de incorrer em erro do
tipo II aumenta.
•Erro tipo II: pode-se não rejeitar H
0
quando, de fato, ela é falsa.

3ª Conseqüência

Também por causa da conseqüência 1, a
razãotde um ou mais coeficientes tende
a ser estatisticamente insignificante.
•Nos casos de alta colinearidade, os erros-
padrão estimados aumentam
substancialmente, tornando, em
conseqüência, os valores tmenores.

•Assim, nesses casos, acabamos
aceitando cada vez mais a hipótese nula
de que o verdadeiro valor populacional
relevante é zero.

4ª Conseqüência

Embora a razãotde um ou mais
coeficientes seja estatisticamente
insignificante, R
2
, a medida global do
grau de ajuste, pode ser bastante
alto.

•Os estimadores de MQO e seus
erros-padrão podem ser
sensíveis a pequenas variações
nos dados.

DETECÇÃO DA
MULTICOLINEARIDADE

Observe as seguintes advertências:
•1 –Multicolinearidade é uma questão de
grau e não de tipo. A distinção significativa
a fazer não é entre a presença ou a
ausência da multicolinearidade, mas entre
seus diferentes graus.

2 –Como a multicolinearidade se
refere à condição das variáveis
explicativas, que supomos serem
não-estocásticas, ela é uma
característica da amostra, não da
população.

•Por isso, não fazemos um
“teste da multicolinearidade”,
mas podemos, se desejarmos,
medir seu grau em uma
amostra particular qualquer.

•Como multicolinearidade é
essencialmente um fenômeno da
amostra, decorrente em boa parte
de dados não experimentais
coletados na maioria da ciências
sociais, não temos um método
único para detectá-la ou para
medir sua intensidade.

•Algumas regras
práticas para detectar
multicolinearidade

1 -Alto R
2
, porém poucas razões t
significativas.
•Se R
2
for alto (acima de 0,8), o teste F,
na maioria dos casos, rejeitará a hipótese
de que os coeficientes de inclinação
parcial são simultaneamente iguais a zero,
mas os testes tindividuais vão mostrar
que nenhum ou muito pouco dos
coeficientes de inclinação parcial são
estatisticamente diferentes de zero.

•Embora esse diagnóstico seja sensato,
sua desvantagem é que ele é muito forte
por que a multicolinearidade é
considerada prejudicial somente quando
todas as influências das variáveis
explicativas sobre Y não podem ser
separadas.

2 -Altas correlações dois a dois
entre os regressores.
•Se o coeficiente de correlação
dois a dois ou de ordem zero for
alto (acima de 0,8), então a
multicolinearidade se constitui um
sério problema.

•O problema com esse critério é
que, embora altas correlações de
ordem zero possam sugerir
colinearidade, não é necessário
que elas sejam altas para haver
colinearidade em qualquer caso
específico.

•Ou seja, altas correlações de ordem
zero são condição suficiente, mas
não necessária, para a existência da
multicolinearidade, pois ela pode
existir mesmo que as correlações
simples ou de ordem zero seja
relativamente baixas (menores que
0,5).

Para ver esta relação, suponha que tenhamos um
modelo de quatro variáveis:
iiiii uXXXY 
4433221 


e suponha que:

iii XXX
33224 

em que 2 e 3 são constantes, sendo que ambos não
podem ser iguais a zero.

Obviamente, X4 é uma combinação
linear exata de X2 e X3, dando 1
2
23.4R , o
coeficiente de determinação na
regressão de X4 sobre X2 e X3.

Considerando a fórmula (7.11.5):

2
23
234342
2
43
2
422
23.4
1
2
r
rrrrr
R


 (10.7.1)

Mas como 1
2
23.4R por causa da perfeita colinearidade, obtemos:

2
23
234342
2
43
2
42
1
2
1
r
rrrrr


 (10.7.2)

Verifica-se que (10.7.2) é satisfeita por r42 = 0,5, r43 = 0,5
e r23 = -0,5, que são valores não muito altos.

•Portanto, em modelos que envolvam
mais de duas variáveis explicativas, a
correlação simples ou de ordem zero não
nos dará um indício infalível da presença
da multicolinearidade.
•Naturalmente, se houver somente duas
variáveis explicativas, as correlações de
ordem zero serão suficientes.

3 - Exame das correlações parciais.

Por causa do referido problema de se
depender das correlações de ordem zero,
Farrar e Glauber sugeriram que observemos
os coeficientes de correlação parcial.

Assim, na regressão de Y sobre X2, X3 e X4,
uma verificação de que 2
234.1R é bastante alto,
porém 2
34.12r , 2
24.13r e 2
23.14r são relativamente
baixos, pode sugerir que as variáveis X2, X3, e
X4 são altamente intercorrelacionadas e que
pelo menos uma dessas variáveis é supérflua.

Mas pode acontecer que o 2
234.1R e 2
34.12r , 2
24.13r e 2
23.14r
sejam elevados.

Nesse caso o exame das correlações parciais são
inúteis.

Nesse caso, o teste de correlação parcial de Farrar-
Glauber é ineficaz, já que uma dada correlação
parcial pode ser compatível com diferentes padrões
de multicolinearidade, demonstrado por C.Robert
Wichers.

4 - Regressões auxiliares.

Como a multicolinearidade se manifesta porque um ou
mais regressores são combinações lineares exatas ou
aproximadas e outros regressores, um meio de descobrir
qual variável X se relaciona com outras variáveis X é
regredir cada Xi sobre as demais variáveis X e calcular o
R
2
correspondente, que designamos por 2
iR ;

Cada uma dessas regressões é chamada de regressão
auxiliar, auxiliar da regressão parcial de Y sobre os Xs.

Então, de acordo com a relação entre F e R
2
, a variável

)1/()1(
)2/(
2
....
2
....
321
321



knR
kR
F
k
k
xxxx
xxxx
i (10.7.3)

segue uma distribuição F com k - 2 e n – k +1 gl.

Na equação (10.7.3), n indica o tamanho da
amostra, k representa o número de variáveis
explicativas, incluindo o termo de intercepto, e 2
....
321 kxxxx
R
é o coeficiente de determinação na
regressão da variável Xi sobre as demais variáveis X.

Se o F calculado excede o Fi crítico
em nível de significância escolhido,
podemos presumir que o Xi particular
é colinear com outros Xs;

Se o F não excede o Fi crítico, dizemos
que Xi não é colinear com outros Xs, caso
em que podemos manter essa variável no
modelo.

Se Fi for estatisticamente significativo,
ainda teremos de decidir se o Xi particular
deve ser excluído do modelo.

As hipóteses são:
H0 = ausência de multicolinearidade
HA = presença de multicolinearidade

Em vez de testar formalmente todos os
valores de R
2
auxiliares, podemos adotar a
regra prática de Klein, que sugere que a
multicolinearidade pode ser um problema
incômodo somente se o R
2
obtido de uma
regressão auxiliar for maior que o R
2
global, ou
seja, o obtido de uma regressão de Y sobre
todos os regressores.

5 - Tolerância e fator inflação da variância.

Para o modelo de regressão de k variáveis
[Y, intercepto e (k-1) regressores], a variância de um
coeficiente de regressão parcial pode ser expresso como: )
1
1
()
ˆ
var(
22
2
jj
j
Rx 




(7.5.6)
j
j
j FIV
x


2
2
)
ˆ
var(


(10.7.4)

)
1
1
()
ˆ
var(
22
2
jj
j
Rx 



 (7.5.6)
j
j
j FIV
x


2
2
)
ˆ
var(


(10.7.4)

em que j é o coeficiente de regressão parcial do
regressor Xj, 2
j
R é o R
2
na regressão (auxiliar) de Xj
sobre os demais (k - 2) regressores e FIVj é o fator
inflação da variância.

À medida que 2
j
R aumenta em direção à
unidade, ou seja, conforme aumenta a
colinearidade de Xj com os outros
regressores, o FIV também aumenta e, no
limite, pode ser infinito.

Por isso, alguns autores usam o FIV
como um indicador da multicolinearidade:
quanto maior o valor do FIVj, mais
“problemática” ou colinear é a variável Xj.
(2
j
R exceder 0,90)

Como regra prática, se o FIV de uma
variável for maior que 10, o que acontece
quando 2
j
R é maior que 0,90, diz-se que essa
variável é altamente colinear.

Por outro lado, quanto mais próxima de
zero estiver o TOLj, maior o grau de
colinearidade dessa variável com os demais
regressores.

Porém, deve-se ter cautela com o uso da
FIV ou TOL, pois como mostra (10.5.4), a )
ˆ
var(
j

depende de três fatores: 2
 , 2
jx e
FIVj.

Um FIV elevado pode ser contrabalançado
por um 2
 baixo ou por um alto 2
jx .

•Finalmente, destacamos que os vários
métodos vistos têm a natureza de
“pescarias”, pois não podemos dizer qual
desses métodos funciona em qualquer
aplicação específica.
•Isso ocorre porque a multicolinearidade
é específica de uma amostra, o qual o
pesquisador não tem controle.

MEDIDAS CORRETIVAS.

Tratamento da Multicolinearidade
•A solução da multicolinearidade depende de:
1 -extensão do problema;
2 -da disponibilidade de outras fontes de dados (amostras
maiores, amostras em cross sectionetc);
3 -da importância das variáveis multicolineares;
4 -do propósito da função que se deseja estimar; e
5 -de outras considerações.

Tratamento da Multicolinearidade
•Quandoamulticolinearidadeafeta
seriamenteoscoeficientesestimados,
ter-se-ádedaralgumtratamentoao
problema.

Tratamento da Multicolinearidade
•Osprocedimentosmaiscomunsvisando
reduzirsuasconseqüências sãoos
seguintes:
a.aumentodotamanhodaamostra;
b.usodeinformaçãoapriorisobreovalor
daestimativadosparâmetros,obtidade
estudoprévio;

Tratamento da Multicolinearidade
c.transformaçãodarelaçãofuncional;
d.exclusãodasvariáveiscolineares;
e.usoderazõesouprimeirasdiferenças.

Tratamento da multicolinearidade
•É importante salientar que a exclusão de
variáveis explicativas visando atenuar o
problema da multicolinearidade pode
acarretar erros de especificação, se a
variável excluída for teoricamente
importante.

Tratamento da multicolinearidade
•O uso de razões pode provocar
heterocedasticidade;
•O uso de primeiras diferenças pode gerar
problemas de autocorrelação serial.

•FIM
Tags