Como sabemos se os voltímetros são precisos?
Algo que sempre me intrigou é como sabemos a precisão dos voltímetros. Olhando ao redor, parece que os voltímetros digitais de hoje usam um ADC. Um ADC funciona comparando a tensão que deve ser medida com uma referência de tensão conhecida altamente precisa. No entanto, como é conhecida a voltagem dessa referência de voltagem altamente precisa? Parece ser um problema do tipo galinha vs. ovo - saber a precisão da voltagem de referência do voltímetro ADC depende da precisão de outro voltímetro usando outra voltagem de referência que depende da precisão de outro voltímetro usando outra voltagem de referência e assim por diante e continua infinitamente.
Olhando a página da Wikipedia para um voltímetro, parece que algo como uma célula de Weston, que usa uma reação química reproduzível e estável, é usada como a voltagem de referência final para calibração. Mesmo assim, isso é vítima do dilema do ovo e da galinha - como sabemos a voltagem da célula de Weston sem usar novamente um voltímetro?
Respostas
Hoje em dia, você constrói um padrão de voltagem primário a partir de um monte de junções Josephson e uma fonte de microondas . Isso gera uma tensão que depende apenas das constantes de definição do Sistema Internacional de Unidades (unidades de base do SI).
Como alternativa mais econômica, você envia seu voltímetro a um laboratório que o compara com um padrão de voltagem rastreável até um padrão de voltagem primário. Nos EUA, esse padrão de tensão primária provavelmente está no NIST .
Basicamente, cada quantidade física pode ser mapeada de volta para uma constante física que é definida, em vez de medida. Sete deles (leia o artigo da Wikipedia ) são unidades básicas; o resto é derivado. O volt, em particular, é definido como a quantidade de força eletromotriz necessária para transmitir exatamente um Joule em um Coulomb de carga. Em unidades de base SI, \$\mathrm{1V = \frac{kg\cdot m^2}{A \cdot s^3}}\$. Portanto, basta construir qualquer dingus antigo que permita gerar um volt, contanto que você saiba quais são essas quatro quantidades, e pronto!
A partir de 20 de maio de 2019, todas essas unidades de base podem, em teoria, ser reconstruídas a partir dos primeiros princípios (ou seja, o segundo é definido por uma série de oscilações de um maser de césio, um metro é definido a partir do segundo e a velocidade de luz, etc.). Em última análise, tudo que você precisa é de um guia de referência de uma página, um conhecimento surpreendentemente profundo de física e metrologia e um certificado de presente incrivelmente grande para muito tempo de laboratório.
Olhando a página da Wikipedia para um voltímetro, parece que algo como uma célula de Weston, que usa uma reação química reproduzível e estável, é usada como a voltagem de referência final para calibração. Mesmo assim, isso é vítima do dilema do ovo e da galinha - como sabemos a voltagem da célula de Weston sem usar novamente um voltímetro?
Na época em que uma célula de Weston era usada como referência primária, não precisávamos saber qual era a voltagem, definimos a voltagem de uma célula de Weston, sob certas condições físicas como temperatura, e se ela está saturada ou não , exatamente igual a 1,018638 V +/- correções. Este foi o caso desde quando esta definição foi adotada em 1911 até quando foi substituída pela Josephson Junction em 1990.
Para se proteger contra a quebra ou mau comportamento de um padrão primário, cada grande laboratório internacional mantém um monte dessas coisas (um conjunto), comparando um com o outro e tomando a média como a leitura verdadeira. Se qualquer célula em particular começar a ler muito mais alto ou mais baixo, ela será removida do conjunto. Quando uma nova célula é colocada online, ela não é adicionada ao conjunto até que tenha demonstrado um longo período de bom comportamento. De vez em quando, um padrão de viagem é levado de um país a outro para comparar os padrões uns dos outros.
Os laboratórios comerciais de calibração comparam seus padrões com os internacionais. Os fabricantes verificam seus padrões internos em laboratórios de calibração comerciais. Os fabricantes medem seus produtos antes de eles chegarem com você para ter certeza de que estão dentro das especificações. Portanto, seu humilde DMM está vários passos abaixo na cadeia de precisão. Mas existe uma cadeia definida.
Específico para um multímetro digital (DMM): o tipo de conversor analógico-digital (ADC) usado dentro de um DMM típico é chamado de ADC integrado de inclinação dupla . Essa tecnologia existe desde 1970, dê uma olhada no Intersil 7106 . Eu escrevi anteriormente sobre como este dispositivo funciona aqui .
Mas sobre sua pergunta, que basicamente é como podemos confiar que os números informados pelo DMM são precisos ...
Um fabricante de instrumentos como a Fluke publicará um manual do usuário que descreve como usar o instrumento e define o quão preciso o instrumento pode ser (quando está devidamente calibrado). Separadamente, eles também publicam um manual de serviço para uso por provedores de serviços de calibração terceirizados, detalhando exatamente quais instrumentos e padrões de calibração são necessários e exatamente quais procedimentos devem ser usados para atingir o desempenho projetado da Unidade em Teste.
Não consigo encontrar o URL no momento, mas aqui está um trecho de um manual de serviço que eu tinha em mãos, apenas para mostrar um exemplo do tipo de informação fornecida a uma empresa que realizaria o serviço de calibração:


Isso continua por um bom tempo, com instruções passo a passo sobre o que se conecta a onde e quais botões pressionar, bem como há também especificações para fazer o equipamento 'mergulhar' em uma faixa de temperatura especificada antes da calibração ( para evitar imprecisões dependentes da temperatura).
Observe que neste exemplo, mesmo quando o instrumento é fornecido com uma referência de entrada de melhor possível de 30.000 V, o instrumento só deve exibir qualquer número na faixa de 29,992 V a 30,008 V, qualquer valor relatado nessa faixa é considerado perto o suficiente.
Cada parte do instrumento é calibrada em uma determinada ordem, como primeiro deslocamento / ganho / linearidade de medição 2V básica, então as faixas de 200mV e 20V que dependem da medição de 2V e só então passam para a medição de corrente que depende da medição de tensão de um resistor conhecido. O procedimento pode ser feito manualmente, se você tem todo o equipamento certo, e se tudo isso engrenagem tem em si foi recentemente calibrado para que ele também é confiável.
A empresa de semicondutores analógicos para a qual trabalho envia periodicamente nosso equipamento de laboratório para um fornecedor de calibração terceirizado que possui todo esse equipamento certificado-calibrado-padrão e executa todos os procedimentos para nós. Só custa dinheiro ... Mas meus próprios DMMs pessoais que são 'apenas para indicação', 'não calibrados', não me preocupo em enviá-los, apenas aceito qualquer nível de incerteza para o qual o manual do usuário diz que é bom. Portanto, se minha alimentação de 3,3 V mede 3,29 V ou 3,32 V, não me preocupo com isso, está dentro da tolerância do relatório e provavelmente está certo.
Há um princípio importante no Controle de Processo Estatístico em que tentar fazer pequenos ajustes que sejam menores que o desvio padrão do sistema, vai realmente torná-lo menos preciso do que deixá-lo sozinho ... é por isso que os atiradores e arqueiros sempre tentam primeiro acertar cluster, antes de ajustar seu objetivo. Mesmo com a calibração do instrumento. Fazer um pequeno ajuste para favorecer o ponto de teste de 30.000 V afetará todo o resto, portanto, eles só podem ajustá-lo dentro de uma certa faixa antes de afetar negativamente a precisão geral do sistema.
Há dois problemas aqui e, embora várias pessoas os tenham discutido, tentarei resumi-los de forma sucinta.
A primeira é que algo como um voltímetro terá uma tensão de referência interna gerada por um processo físico bem compreendido, que por definição resulta em uma tensão conhecida com características de temperatura (etc.) bem conhecidas.
A segunda é que se você estiver fazendo algum tipo de trabalho preciso (controle de qualidade, etc.), seu voltímetro será calibrado regularmente. Isso não significa necessariamente que alguém entra e ajusta alguma coisa, mas significa que uma tensão de calibração externa é aplicada a ele e você recebe um certificado dizendo o que seu voltímetro exibiu.
E a fonte de tensão usada para calibração externa é tipicamente uma referência terciária, ou seja, ela mesma foi calibrada contra uma referência secundária, que foi calibrada diretamente contra a referência primária de sua jurisdição no NPL, NIST ou qualquer outro laboratório que a possua.
A abordagem geral com todos os padrões é usar alguma "fonte de referência" que produza aproximadamente a mesma voltagem se feita de acordo com a documentação. Pode ser caro para construir e não durar muito, mas isso não importa, pois vários dispositivos mais práticos podem ser calibrados em relação a ele.
Em outras palavras, um voltímetro usado para várias tarefas pode ser calibrado sobre um voltímetro de laboratório de alta precisão, um dispositivo caro usado principalmente para calibração de outros dispositivos. Este provavelmente foi calibrado usando algum produto químico ou outra fonte de tensão de referência. Talvez houvesse mais "gerações intermediárias" entre esses dois voltímetros.
A voltagem de uma bateria é previsível com base no conhecimento de química; certas baterias como a célula Weston (obrigado @PeterMortensen, eu esqueci o nome dela!) são excepcionalmente boas em manter uma voltagem constante e são usadas como referências de voltagem.
Na verdade, era assim que o volt era definido antes de 1990. Hoje em dia, o volt é definido usando uma matriz de junções Josephson, que não entendo bem o suficiente para explicar aqui.
A partir daí, você pode calibrar outras referências de tensão física que são mais convenientes, como uma referência de intervalo de banda Brokaw ou um diodo zener, que você pode usar para fazer reguladores de tensão, referências de tensão, fontes de alimentação e semelhantes.
como sabemos a voltagem da célula de Weston sem usar novamente um voltímetro?
Você não precisa. Você apenas escreve o que deve ser, e todos concordam, e pronto. Totalmente arbitrário, mas a ideia é que todos sejam informados sobre o valor acordado. É claro que a célula de Weston está obsoleta, mas a razão pela qual as células de Weston foram usadas é que qualquer um que pudesse construir uma bem, obteria automaticamente um padrão Volt bastante preciso. Eles foram usados para definir o que era o Volt e eram utilizáveis como tal porque eram reproduzíveis com nada mais do que uma boa técnica de laboratório: você não precisava de uma referência Volt para construir uma célula de Weston.
Você também pode ter perguntado: como sabemos que o ADC é linear - se ele mede 1/2 da tensão de referência, não está de alguma forma desligado? Isso é resolvido usando divisores de voltagem de referência, também conhecidos como Divisores Kelvin-Varley (KVD). Eles são, em poucas palavras, um potenciômetro, mas com o limpador substituído por interruptores. Os elementos resistivos em tais divisores precisam apenas manter o rastreamento raciométrico - isto é, que suas relações sejam mantidas, enquanto seus valores absolutos podem estar errados em alguns pontos percentuais sem efeitos indevidos. Observe que não precisamos saber qual é a proporção - apenas se é 1: 1 ou não. Se eles estiverem desligados, você os ajusta até que voltem à proporção de 1: 1. E para verificar isso, tudo que você precisa é um medidor nulo e uma ponte de Wheatstone: com isso você pode comparar os valores do resistor com muita precisão. Uma vez que você tenha um monte de resistores que você sabe que todos têm o mesmo valor (não importa o que seja exatamente - contanto que seja o mesmo), esses resistores podem ser usados como blocos de construção de um KVD e ser transformados em uma voltagem digitalmente ajustável divisor. A saída de tal divisor pode então ser usada com um medidor nulo para verificar o desempenho do ADC: defina o divisor para 0,50000 com entrada através da referência do ADC, alimente sua saída para a entrada do ADC e veja quão próximo o ADC está do valor médio.