Para amostras de dimens˜ao superior ou igual a 30 aconselha-se o teste de Kolmogorov-Smirnov com a correcç˜ao de Lilliefors; para amostras de dimens˜ao mais reduzida é mais indicado o teste de Shapiro-Wilk.
é usada para testar a hipótese nula que a função de distribuição acumulada Fx é igual a alguma função de distribuição, sob hipótese, S(x), ou seja, {H0:F(x)=S(x)H1:F(x)≠S(x).
A lógica do teste de Levene é simples: quanto maiores são os quadrados dos resíduos, maiores são as variâncias. Então, se as variâncias são homogêneas, o resultado do teste F para comparar as médias dos quadrados dos resíduos será não significante.
A suposição de normalidade é aquela, segunda a qual assumimos que um conjunto de dados segue uma distribuição normal por não termos evidências suficientes para descartar essa. Dessa forma, seguimos com os cálculos da inferência estatística que assumem esse modelo de curva para a explicação da população.
A homocedasticidade não se verifica sempre que a variância dos fatores não observáveis muda ao longo de diferentes segmentos da população, nos quais os segmentos são determinados pelos diferentes valores das variáveis explicativas.
A variância constante ou homogeneidade de variâncias (homocedasticidade) é, na maioria das vezes, um requisito necessário para a análise de variância (ANOVA). ... O nível de significância para o teste de homogeneidade de variâncias é o p-valor do teste F na análise de variância da variável de dispersão.
O teste de Bartlett é sensível em relação a hipótese de normalidade dos dados. Se rejeitarmos a hipótese de normalidade, é melhor utilizarmos o teste proposto por Levene. Porém, se a hipótese de normalidade não for violada, o teste proposto por Bartlett tem um comportamento melhor que o teste proposto por Levene.
(o postulado quatro do modelo clássico de regressão linear). Em outras palavras, a heterocedasticidade apresenta-se como uma forte dispersão dos dados em torno de uma reta; uma dispersão dos dados perante um modelo econométrico regredido. ...
Mas em econometria, embora não seja muito diferente do que eu disse na frase anterior, endogeneidade se refere a "qualquer situação onde uma variável expicativa é correlacionada com o erro" (Wooldridge, 2011, p. ... Simultaneidade: quando uma das variáveis explicativas é determinada pela variável explicada no modelo.
Autocorrelação significa então, dependência temporal dos valores sucessivos dos resíduos. ... É considerado um dos problemas mais sérios em Econometria, pois em muitos modelos econométricos, o erro aleatório ei são variáveis autocorrelacionadas.
Autocorrelação (correlação serial) de primeira ordem: correlação existente entre uma observação i qualquer e a observação imediatamente anterior (i-1). Autocorrelação (correlação serial) de ordem q: correlação existente entre uma observação i qualquer e a observação anterior (i-q).
Em regressão, "multicolinearidade" refere-se a preditoras correlacionadas com outras preditoras. A multicolinearidade ocorre quando o modelo inclui vários fatores correlacionados não apenas à sua variável de resposta, mas também uns aos outros.
Para calcular a estatística de Durbin-Watson, selecione Estat > Regressão > Regressão > Ajuste de Modelo de Regressão, clique em Resultados e marque Estatística de Durbin-Watson.
Multicolinearidade refere-se à correlação entre duas variáveis explicativas ou entre uma delas e as demais incluídas na equação de um modelo. Significa que a multicolinearidade ocorre quando, por exemplo, duas variáveis x1 e x2 medem aproximadamente a mesma coisa, ou seja, a correlação entre elas é quase perfeita.
Na literatura, os termos Colinearidade (Multicolinearidade) são utilizados para indicar a existência forte de correlação entre duas (ou mais) variáveis independentes.
3.
Pontos colineares: são pontos que pertencem a uma mesma reta. Na figura da esquerda, os pontos A, B e C são colineares, pois todos pertencem à mesma reta r.
Dois vetores são considerados como sendo colineares quanto têm a mesma direção (ainda que possam ter sentidos opostos). Por outras palavras, dois ou mais vetores são colineares se ao colocarmos retas "por cima" desses vetores, elas forem paralelas.