Intervalos de confiança são usados para indicar a confiabilidade de uma estimativa. Por exemplo, um IC pode ser usado para descrever o quanto os resultados de uma pesquisa são confiáveis. Sendo todas as estimativas iguais, uma pesquisa que resulte num IC pequeno é mais confiável do que uma que resulte num IC maior.
POR QUE PRECISAMOS DE INTERVALOS DE CONFIANÇA? Precisamos do intervalo de confiança para indicar a incerteza ou imprecisão acerca do tamanho do efeito calculado usando a amostra de estudo para estimar o verdadeiro tamanho do efeito na população de origem.
Podemos dizer com 95,44% de certeza que a atividade de programação irá terminar entre 62,5 e 112,5 dias.
Se a estatística é uma porcentagem, a margem de erro máxima pode ser calculada como o raio do intervalo de confiança para uma porcentagem de 50%. A margem de erro tem sido descrita como uma quantidade absoluta, igual ao raio do intervalo de confiança para a estatística.
Exemplo de cálculo de porcentagem de erro
Adicionar ou remover barras de erros
Para obter uma estimativa do erro padrão, basta dividir o desvio padrão pela raiz quadrada do tamanho amostral. O resultado obtido também estará na mesma unidade de medida do valor amostral.
A variabilidade das médias é estimada pelo seu erro padrão. Assim, o erro padrão avalia a precisão do cálculo da média populacional. Observação: quanto melhor a precisão no cálculo da média populacional, menor será o erro padrão.
Calculando o erro relativo. Divida o erro absoluto pelo valor real do objeto em questão para obter o erro relativo. Esse resultado é o erro relativo. Essa equação simples indica a margem de erro em comparação com a medida geral.
Etapas de cálculo de erro percentual Subtraia um valor de outro. A ordem não importa se você está descartando o sinal (tomando o valor absoluto. Subtraia o valor teórico do valor experimental se estiver mantendo os sinais negativos. Esse valor é o seu "erro".
É a diferença entre o valor exato de um determinado número e o seu valor aproximado. É a razão entre o erro absoluto e o valor aproximado de um número.
Método 2 de 3: Usando o valor real e o erro relativo
Os erros sistemáticos resultam de fatores ligados às limitações dos aparelhos de medida (exemplo: escala inadequada ou deficiente calibração do aparelho), das técnicas utilizadas (exemplo: posicionamento continuamente incorreto do aparelho de leitura) ou têm origem no próprio operador.
Erro Sistemático x Erro Aleatório O Erro Sistemático é a parcela previsível do erro correspondente erro médio. O erro sistemático não pode ser eliminado, podendo ser reduzido e/ou corrigido. Por outro lado o erro aleatório é a parcela imprevisível do erro e se se origina de variações temporais ou espaciais.
Uma forma de conhecer a amplitude esperada destes erros de medição é a determinação da incerteza, um procedimento estatístico. O erro sistemático é a diferença entre a média de um número considerado suficiente de medições e o resultado verdadeiro esperado.
Os Erros de Método são inerentes aos métodos e/ou aos procedimentos aplicados. São provavelmente os mais sérios dos erros sistemáticos porque são os mais difíceis de serem detectados. Por exemplo, sabemos que por mais 'insolúvel" que seja, uma substância possui uma solubi- lidade finita.
ERRO DE MEDIÇÃO: é a diferença entre o valor indicado pelo sistema de medição e o valor verdadeiro do mensurando. Matematicamente, o erro de medição pode ser calculado de uma forma muito simples pela equação 1.