A análise de regressão pode ser utilizada para resolver os seguintes tipos de problemas: Determinar quais variáveis explanatórias estão relacionadas à variável dependente. Entender o relacionamento entre as variáveis dependentes e explanatórias. Prever valores desconhecidos da variável dependente.
Qual a importância da regressão linear simples? A regressão linear simples apresenta a relação causa e efeito de um problema. A partir da análise de dados, é possível identificar o problema que está impactando um processo produtivo.
Regressão múltipla é uma coleção de técnicas estatísticas para construir modelos que descrevem de maneira razoável relações entre várias variáveis explicativas de um determinado processo. A diferença entre a regressão linear simples e a múltipla é que na múltipla são tratadas duas ou mais variáveis explicativas.
❖ Regressão Linear múltipla: Relação casual com mais de duas variáveis. Isto é, quando o comportamento de Y é explicado por mais de uma variável independente X1, X2, ....Xn. É a técnica adequada para se utilizar quando se quer investigar simultaneamente os efeitos, sobre Y, de 2 ou mais variáveis preditoras.
Muitas vezes uma única variável explicativa (preditora) não será capaz de explicar tudo a respeito da variável resposta. Se em vez de uma, forem incorporadas várias variáveis independentes, passa-se a ter uma análise de regressão linear múltipla.
Para ajustar um modelo de regressão linear múltipla a um conjunto de dados, é preciso pressupor que:
Primeiro passo: Selecione a aba dados no Excel e clique em “Análise de Dados”. No menu que aparecer selecione regressão. Segundo Passo: Selecione a coluna referente a variável dependente e em seguida selecione as colunas que armazenam os dados das variáveis explanatórias. É possível padronizar a saída dos resultados.
No caso do teste, um resultado não significativo (p>0,05) indica normalidade.
Correlação positiva ou direta (r>0) representa que os valores altos de uma variável correspondem a valores altos da outra variável. ... Correlação negativa ou inversa representa que valores altos de uma das variáveis correspondem a valores baixos de outra.
) para medir o grau de correlação. Um dos coeficientes de correlação mais conhecidos é o coeficiente de correlação de Pearson, obtido pela divisão da covariância de duas variáveis pelo produto dos seus desvios padrão e sensível a uma relação linear entre duas variáveis.
Correlação significa uma semelhança ou relação entre duas coisas, pessoas ou ideias. É uma semelhança ou equivalência que existe entre duas hipóteses, situações ou objetos diferentes. No campo da estatística e da matemática a correlação se refere a uma medida entre duas ou mais variáveis que se relacionam.
O coeficiente de correlação de Pearson tem o objetivo de indicar como as duas variáveis associadas estão entre si, assim: Correlação menor que zero:Se a correlação é menor que zero, significa que é negativo, isto é, que as variáveis são inversamente relacionadas.