Em engenharia, ciência, indústria e estatística, precisão é o grau de variação de resultados de uma medição. Não é o mesmo que exatidão, que se refere à conformidade com o valor real. A precisão tem como base o desvio-padrão de uma série de repetições da mesma análise.
A exatidão mostra que o valor da medida está muito próximo do valor real, e a precisão indica o quanto as medidas repetidas estão próximas umas das outras.
Segundo o item 2.
Exatidão: indica o quão próximo do valor real (do valor normalmente aceito como referência), está o valor medido.
Calculando a exatidão desta escala, no caso se fossemos ler uma leitura de 199,99 ohms: 10 dígitos menos significativos: 0,01 x 10 (níveis/steps/dígitos) = 0,1 199,99 + (0,5% + 10d) = 199,99 + ( 0,99995 + 0,1) = 201,08 0,55% de variação do valor central.
A resolução é a menor indicação que pode ser observada no instrumento, por exemplo, em um termômetro digital a indicação do valor medido é realizada de 1ºC em 1ºC, assim a resolução do termômetro é de 1ºC. ... É recomendável que a resolução do instrumento de medição seja de 1/10 da tolerância do processo.
A resolução de um paquímetro é a distância compreendida entre a 1ª subdivisão do nônio e a subdivisão subseqüente na escala fixa. Se o nônio mede X mm, e é dividido em n partes iguais, o comprimento compreendido entre duas subdivisões consecutivas do nônio é X/n.
Para calcular a sensibilidade S do paquímetro (em milímetros ou polegadas), divide- se o menor valor da escala fixa (régua) pelo número de divisões da escala móvel (Vernier ou Nônio).
De um instrumento de medida, algumas vezes chamada de “capacidade de leitura” é uma medida da “fineza do detalhe revelado” pelo instrumento de medida. É basicamente uma medida do menor incremento mensurável. É uma medida da menor quantidade mensurável por um instrumento particular.
Em geral, o resultado de uma medição é uma aproximação ou estimativa do valor da grandeza. Assim, o resultado da medição somente está completo se estiver acompanhado da incerteza da estimativa. Na prática, a especificação ou definição da grandeza é consequência da exatidão (accuracy) desejada.
A resolução de uma medida tomada em um micrômetro corresponde ao menor deslocamento do seu fuso. Para obter a medida, divide-se o passo pelo número de divisões do tambor. Assim, girando o tambor, cada divisão provocará um deslocamento de 0,01 mm no fuso.
Nesse cálculo de precisão, você precisa definir quão próximo está da média cada um dos valores. Para isso, subtraia-a de todos eles individualmente. Nessa medida, não importa se o valor está acima ou abaixo da média. Basta subtraí-la dos números analisados e usar o valor positivo do resultado obtido.
ERRO DE MEDIÇÃO: é a diferença entre o valor indicado pelo sistema de medição e o valor verdadeiro do mensurando. Matematicamente, o erro de medição pode ser calculado de uma forma muito simples pela equação 1.
Resposta: O erro de uma medida é classificado como incerteza do tipo A ou incerteza do tipo B. A incerteza obtida a partir de várias medições é chamada de incerteza padrão do tipo A, que é o desvio padrão determinado por métodos estatísticos.
Classificação dos erros:
Por razões diversas a toda medição é lhe associado o trespectivo erro. Os principais tipos de erro de medida são: Erro sistemático: é a média que resultaria de um infinito número de medições da mesma mensuranda, efetuadas sob condições de repetitividade, menos o valor verdadeiro da mensuranda.
Tradicionalmente, o erro é visto como tendo dois componentes, um componente aleatório e um componente sistemático. ... Embora não seja possível compensar o erro aleatório de um resultado de medição, ele pode geralmente ser reduzido aumentando-se o número de observações. Sua esperança ou valor esperado é zero.
Como são denominadas as duas parcelas que compõem o resultado da medição? ... Incerteza da medição: é a parcela de dúvidas associada à medição. Corresponde a metade do comprimento da faixa simétrica e está centrada em torno do resultado base, que exprime a faixa de dúvidas associadas à medição.