MÉTROLOGIE : UN LANGAGE UNIVERSEL

POUR LES SCIENCES ET TECHNIQUES
Mesurer, c'est comparer une grandeur physique inconnue avec une grandeur de même nature prise comme référence, à l'aide d'un instrument. C'est exprimer le résultat de cette comparaison à l'aide d'une valeur numérique, associée à une unité qui rappelle la nature de la référence, et assortie d'une incertitude qui dépend à la fois des qualités de l'expérience effectuée et de la connaissance que l'on a de la référence et de ses conditions d'utilisation. 
Les méthodes et conventions qui régissent la définition, l'évaluation et l'expression des résultats de mesure, unités et incertitudes sont partie intégrante du langage commun, à vocation universelle, de la métrologie. 

LE RÔLE DE LA MESURE   

Quelques domaines d’application (1)  
La société s'appuie sur une infrastructure vaste, et souvent invisible, de services, de denrées, de réseaux de transport et de communication dont la présence nous est familière mais dont le bon fonctionnement est essentiel à la vie quotidienne. La métrologie, science ou même art de la mesure, constitue une partie de cette infrastructure cachée; elle garantit qu’on peut accorder confiance aux mesures qui sous-tendent notre vie de mille et une façons, pour la fabrication et les échanges de produits, pour l’analyse des phénomènes physiques et chimiques,  pour le diagnostic médical, pour assurer de hauts débits de communication, pour les systèmes de repérage, la définition et le contrôle des règles de sécurité, etc. 
En effet, c’est par la métrologie qu’on peut assurer que d'importants volumes de marchandises, comme le pétrole brut ou le gaz naturel, font l'objet de transactions commerciales en sachant que les millions de tonnes de pétrole ou les mètres cubes de gaz achetés et vendus sont mesurés de façon correcte, du supertanker à la pompe à essence et du gazoduc qui traverse les frontières et dans lequel le gaz circule sous haute pression jusqu'au compteur à gaz domestique. C'est grâce à des mesures exactes qu’on peut fabriquer de façon efficace les composants d'objets aussi variés que des moteurs à combustion interne et des moteurs de turbines à gaz, pour lesquels la fiabilité et la durée de vie dépendent de tolérances de fabrication de l'ordre de quelques micromètres, ou des lecteurs de disques compacts, qui comportent des lentilles pour concentrer la lumière du laser et qui sont fabriqués avec des tolérances inférieures au dixième de micromètre. 
De même les systèmes internationaux de télécommunications ne fonctionnent avec des rythmes élevés de transmission de données que si les échelles de temps et de fréquences qui couvrent le monde sont très étroitement coordonnées. Dans le monde industrialisé, les échelles nationales de temps sont reliées, à environ une microseconde près, à l'UTC, l'échelle internationale de temps construite à partir des horloges atomiques. L’UTC est aussi l'échelle de temps utilisée par les systèmes satellitaires de navigation à couverture globale, comme le système américain, Global Positioning System (GPS), et le système russe, Global Navigation Satellite System (GLONASS). 
Par ailleurs, la pratique de la médecine fait appel à des mesures délicates et parfois difficiles tant pour les diagnostics qu'en thérapie, qu’il s’agisse d’analyses chimiques ou de mesure des doses de rayonnements X ou y. En agriculture, pour le contrôle des produits alimentaires et la protection de l'environnement, les mesures prennent une importance croissante car elles constituent à la fois la base d'un large éventail de dispositions législatives et le moyen de vérifier que celles-ci sont respectées. Plus généralement, l’expertise judiciaire s’appuie chaque jour davantage sur des résultats de mesure, du simple contrôle de vitesse ou d’alcoolémie aux investigations les plus poussées en matière, par exemple, de résistance des matériaux.  

L’opération de mesure   

Mesurer, c'est compter; c'est exprimer, sous forme d'une valeur numérique, la grandeur physique caractérisant l'état d'un système. Plus précisément mesurer, c'est comparer (2) ; c'est comparer une grandeur physique inconnue avec une grandeur de même nature prise comme référence, à l'aide d'un instrument. C'est exprimer le résultat de cette comparaison à l'aide d'une valeur numérique, associée à une unité qui rappelle la nature de la référence, et assortie d'une incertitude qui dépend à la fois des qualités de l'expérience effectuée et de la connaissance que l'on a de la référence et de ses conditions d'utilisation.  

Comparer, c'est mettre en oeuvre un principe de mesure physique, développer les capteurs adaptés à la grandeur concernée, concevoir, construire, caractériser l'instrument optimal, traiter enfin le signal délivré par la chaîne de mesure pour en extraire toute l'information disponible, en s'affranchissant autant que faire se peut des fluctuations indésirables, qui généralement constituent ce qu’on appelle le bruit.  

La traçabilité  

Mesurer a aussi pour finalité d'asseoir les résultats de mesure sur des bases reconnues sans équivoque par plusieurs partenaires, que ce soit à des fins scientifiques, commerciales, ou d'expertise légale. Cela nécessite l'existence de références dont les caractéristiques sont clairement établies. Ce peut être la référence de travail d'un établissement ou d'un laboratoire, périodiquement étalonnée, par comparaison (à nouveau !) à une référence d'incertitude plus faible, c'est-à-dire située à un niveau plus élevé dans ce qu'on appelle la hiérarchie d'une chaîne d'étalonnage.  
Au sein de cette hiérarchie, les comparaisons sont entreprises selon des méthodes et des procédures de plus en plus élaborées et contraignantes. Le stade ultime de la hiérarchie nationale est la matérialisation dite primaire des unités les plus fondamentales permettant d'accéder à la grandeur. Il n'est plus question alors d'étalonnage, mais de mise en pratique de la définition de l'unité. Seules des intercomparaisons effectuées entre des montages indépendants permettent de préciser l'incertitude, on dit l'exactitude de réalisation. Le Bureau National de Métrologie est en France le garant de la traçabilité des mesures (3)
Ainsi, les « fournisseurs » de résultats de mesure et leurs « clients » ont besoin d’exprimer ces résultats en utilisant des références reconnues sans équivoque par chacun des acteurs et en exprimant de façon scientifiquement convenue l’incertitude associée. Cet ensemble constitue, pour toutes les grandeurs physiques, le langage  (universel ?) de la métrologie (4) 

  LE SYSTÈME INTERNATIONAL D’UNITÉS  

Généralités  
C'est dans le cadre du Système International d'Unités que sont élaborées les références correspondant à l'ensemble des mesures physiques, références disséminées à travers le monde entier. En fait, les premières tentatives d'harmonisation des références remontent à la Révolution Française, à la fin du 18ème siècle.  
Mais c'est en 1875 que la signature de la Convention du Mètre, traité international qui régit la métrologie mondiale, auquel adhèrent aujourd'hui la quasi totalité des états, précise le contour de l'actuel système de référence. Un Comité International des Poids et Mesures (C.I.P.M.), assemblée de scientifiques de différentes nations, fait des propositions aux diplomates de la Conférence Générale des Poids et Mesures (C.G.P.M.) qui arrêtent les nouvelles définitions, et chargent le Bureau International (B.I.P.M.) situé au Pavillon de Breteuil, à Sèvres, de la mise en place des références et du pilotage des intercomparaisons entre les divers étalons nationaux. 
Ce système d'unités cohérent et rationalisé a couvert peu à peu l'ensemble du champ disciplinaire des mesures physiques, en mécanique, électrodynamique, et plus récemment thermodynamique, physico-chimie, photométrie.  

Il repose sur sept grandeurs de base, pour lesquelles les définitions des unités correspondantes ont été précisées : le mètre, la seconde, le kilogramme, l'ampère, le kelvin, la mole, la candela. C'est un système évolutif qui tente de mettre à profit les avancées les plus récentes de la science pour permettre aux scientifiques et à tous les utilisateurs industriels de disposer des outils les plus exacts, au sommet des chaînes d'étalonnage nationales qui garantissent la traçabilité des mesures. Les structures nationales garantes de la traçabilité des mesures inscrivent bien entendu leur action dans ce cadre.  

La définition des unités de base   

Les définitions retenues ont pour objectif d'assurer la pérennité, l'uniformité, l'accessibilité et la plus grande exactitude possible des références; elles sont de type très varié. A cet égard l'exemple du mètre, qui a connu en deux siècles quatre définitions successives, est intéressant pour appréhender ces évolutions; d'abord lié à un système supposé invariable, la longueur du méridien terrestre (1795), le mètre devient en 1889 associé au prototype international, étalon matériel particulier en platine iridié; les progrès de la spectroscopie et de la physique quantique conduisent à retenir en 1960 un multiple de la longueur d'onde d'une radiation résonante sur une transition dans l'atome de krypton. En 1983, la définition du mètre change une dernière fois: il est désormais établi à partir du phénomène de propagation de la lumière dans le vide. La définition traduit l'existence d'une loi physique fondamentale et impose le gel de la valeur numérique d'une constante physique fondamentale, la vitesse de propagation de la lumière c, qui vaut désormais exactement 299 792 458 ms-1. Étalon macroscopique terrestre, prototype, étalon atomique, expression d'une loi physique fondamentale fixant la valeur numérique en SI d'une constance fondamentale, ces quatre définitions successives montrent que le système d'unités évolue de façon pragmatique dans le sens de la prise en compte de toujours d'avantage de sciences et de lois fondamentales. 

Les autres unités de base du SI traduisent cette variété de définitions (5) : la seconde est aujord'hui réalisée avec une exactitude relative de 10 -14  , à l'aide d'une horloge atomique, matérialisant la période de transition dans l'atome de césium. Le kilogramme reste défini par le biais d'un prototype dont les copies peuvent être étalonnées à quelques 10-9 près ; la définition de l'ampère exprime la loi de Laplace et permet d'établir au dixième de millionième près les principaux étalons du domaine électriques ; le kelvin fait référence à la matérialisation du point triple de l'eau pure, réalisée en pratique au dixième de millikelvin près ; la mole relie, par l'intermédiaire de la masse de l'isotope 12 de l'atome de carbone, les grandeurs à l'échelle atomique  aux grandeurs macroscopiques ; enfin la candela assure, à quelques millièmes près, le raccordement entre les grandeurs radiométriques et le domaine photométrique au sein duquel il est fait usage d'un instrument de mesure particulier, " l'oeil humain moyen".  

Le rôle croissant de la physique fondamentale (6)   

De nombreux travaux sont entrepris pour obtenir une exactitude plus grande, des références plus pérennes ou plus accessibles, ou encore pour élargir le champ d’applications effectivement couvert. Ils portent principalement, aujourd'hui, sur l'utilisation et la mise en oeuvre de phénomènes de physique fondamentale. Dans le domaine électrique, - mais les recouvrements de ce domaine avec les grandeurs énergétiques, et donc le kilogramme, sont nombreux - on cherche à mettre à profit les effets quantiques macroscopiques découverts au cours des trente dernières années : l'effet Josephson, aujourd'hui pour la conservation du  volt ; l'effet Hall quantique pour la conservation de l'ohm ; les effets monoélectroniques dont la matérialisation pratique à un haut niveau d'exactitude permettrait de boucler le triangle de la métrologie quantique et d'introduire dans la détermination des constantes fondamentales h (constante de Planck)  et e (charge de l'électron) la redondance nécessaire à l'estimation des incertitudes associées. De même les progrès en spectroscopie atomique, ceux accomplis dans l'évaluation des caractéristiques des systèmes microscopiques, permettent d'espérer de substantielles améliorations. Aujourd'hui pour la seconde par exemple, la perspective d'obtenir et d'observer expérimentalement des systèmes composés d'atomes pratiquement immobiles, pratiquement isolés, et de construire à partir de ces atomes des horloges dans le domaine optique, devient peu à peu une réalité grâce aux méthodes de ralentissement et de refroidissement par laser. L'interférométrie atomique, dans laquelle on met à profit le comportement ondulatoire de systèmes aussi lourds que des atomes ou des molécules (qui doivent être ralentis de façon drastique) permet d’utiliser ces atomes comme de très précises sondes locales et semble, par exemple, une technique de gravimétrie prometteuse. L'Échelle Internationale de Température promulguée en 1990, et qui fait appel à un instrument d'interpolation particulier (le thermomètre à résistance de platine) entre des points fixes de référence nombreux, peut être utilement complétée par la mise en oeuvre d'effets physiques nouveaux dans le domaine des très basses températures, comme l’étude de la propagation du second son dans l’hélium liquide. Les mesures de rayonnement reposent désormais sur la radiométrie cryogénique à substitution électrique. Enfin d’importants efforts sont engagés pour obtenir, à terme, une définition de l’unité de masse qui ne fasse plus intervenir un prototype dont la pérennité n’est en aucun cas garanti : expériences de mesure de flux magnétique dans des systèmes en lévitation supraconductrice, de comparaison d’une puissance électrique à une puissance mécanique, de comptage et de pesage simultanés d’ions lourds (susceptible de raccorder, par une détermination meilleure de la constante d’Avogadro, une masse atomique à une masse macroscopique au niveau d’exactitude requis)...  

L’APPROCHE STATISTIQUE DE LA MESURE  

 La dispersion des résultats de mesure observée lorsque, par exemple, on répète l’opération à l’identique, justifie l’adoption d’une démarche d’interprétation statistique de la mesure. Il convient, dans chaque cas, de faire l’inventaire des causes d’erreur susceptibles de biaiser le résultat, d’effectuer les corrections nécessaires, d’évaluer l’incertitude associée à chacune de celles-ci, de composer ces termes avec la dispersion liée à la non répétabilité du procédé de mesure, et d’exprimer le résultat en termes d’intervalle de confiance (7) 

 Inventaire des causes d’erreur et incertitude de mesure  

De nombreuses causes d'erreur viennent affecter le résultat brut d'un mesurage, suite d’actes élémentaires permettant d’obtenir un résultat brut.  

 La connaissance imparfaite des valeurs de référence utilisées, des courbes d'étalonnage des instruments induit également des erreurs de mesure, et contribue à l'incertitude du résultat : ces données ne peuvent être exactes puisqu'elles proviennent aussi de comparaisons expérimentales.  

 Une valeur mesurée n'est donc pas une valeur certaine: elle est issue de résultats présentant une certaine dispersion, et de plus il existe une certaine méconnaissance de la valeur de chaque correction individuelle, donc de la correction totale. Une fois prises en compte toutes ces causes d'erreur, on appelle incertitude de mesure le paramètre associé au résultat qui caractérise la dispersion des valeurs numériques et qui ne  peut être, raisonnablement, attribuée au mesurande. En l'absence d’incertitude, il n'est plus possible, plus pertinent, de comparer entre eux des résultats. Comment savoir, sans connaître l'incertitude, si une grandeur a évolué, si tel procédé de mesure conduit au même résultat, ou si la différence éventuellement observée ne tient qu'à des phénomènes aléatoires mal maîtrisés dont l'origine peut être intrinsèquement liée à la grandeur elle-même ? Comment, dans des conditions analogues, comparer un résultat à des valeurs de référence spécifiées par exemple dans une norme, un autre texte réglementaire, un contrat, et donc garantir la conformité du produit ou du système ainsi caractérisé ?  

C'est l'approche statistique de la mesure qui permet d'évaluer l'incertitude de mesure. En général, on fait l'hypothèse que les différentes valeurs pouvant être obtenues pour la mesure d'une grandeur physique donnée suivent une distribution gaussienne ; on peut alors évaluer le risque encouru lorsqu'on donne pour la valeur de la grandeur un intervalle de confiance, de "certitude maîtrisée". En limitant cet intervalle à plus ou moins deux écarts-types autour de la valeur estimée, le risque est inférieur à 5%.  
 

Outils statistiques pour l’évaluation des composantes de l’incertitude (9)

La répétition (à l'identique, autant que faire se peut) d'un procédé de mesure direct conduit à associer à la grandeur mesurée (au mesurande) un ensemble de n valeurs numériques  

résultats bruts de ces mesurages, de moyenne  

Ces résultats bruts mettent en évidence, s'il en était besoin, l'existence d'une dispersion des valeurs numériques Il convient d'apporter, pour chaque cause d'erreur j et chaque biais identifiés, une correction Cj aux résultats bruts. Chaque correction peut être déterminée expérimentalement ou analytiquement au moyen d'un modèle plus ou moins complexe et plus ou moins étayé sur des considérations empiriques ou physiques. Un modèle affiné est fréquemment utilisé pour décrire le comportement des instruments, en introduisant une correction additive constante (un décalage de zéro...) et un facteur correctif multiplicatif (la sensibilité...). On obtient alors la correction totale C (pouvant dépendre éventuellement de i), les valeurs corrigées  

et leur moyenne "corrigée    
  
Cette valeur n'est pas une valeur certaine: elle est issue de résultats présentant une certaine dispersion, et de plus il existe une certaine méconnaissance de la valeur de chaque correction individuelle, donc de la correction totale. Une fois prises en compte toutes ces causes d'erreur, on appelle incertitude de mesure le paramètre associé au résultat qui caractérise la dispersion des valeurs numériques et qui peut être, raisonnablement, attribuée au mesurande. Deux classes de méthodes permettent son évaluation (8) 

  Les méthodes d'évaluation dites de type A   

 Il s'agit de toute technique d'évaluation basée sur un procédé statistique prenant en compte la dispersion observée lors de la répétition, a priori à conditions identiques, du procédé de mesure. Une telle évaluation ne peut être que globale. Ainsi, on peut estimer l'incertitude due à la variabilité des  

  
par l'écart-type d'échantillon  
 
 

Des techniques d’ajustement par moindres carrés sont également fréquemment mises en oeuvre.  

  Les méthodes d'évaluation dites de type B  

Il s'agit à contrario de toute technique d'évaluation non basée sur un procédé statistique. Une telle évaluation s'appuie généralement sur un jugement scientifique porté à la suite d'une analyse physique de la manipulation, utilisant toutes les informations disponibles. Il faut en particulier cerner la part d'incertitude qui est due à chacune des corrections associées aux causes d'erreur identifiées, même lorsqu'elles n'apportent pas à priori de dispersion aux résultats. On applique le même formalisme que pour les méthodes de type A, à savoir évaluer l'incertitude sur la correction (correction qui peut être nulle!) par une valeur Uj qu'on peut traiter comme un écart-type. Cette valeur est déterminée à partir d'éléments tels que bibliographie sur les matériaux et capteurs, notices des fournisseurs et constructeurs, certificats d'étalonnage, rapport d'intercomparaisons, ... mais aussi à partir des connaissances et du savoir faire de l'analyste et de l'opérateur. Cette manière de procéder revient, dans certains cas, à postuler l'existence sous-jacente d'une loi de distribution pour la correction considérée. 
 Pour obtenir l'incertitude Uc (écart-type) sur la correction totale, on applique la loi de composition des variances qui s'écrit, dans l'hypothèse où causes d'erreur et corrections sont non corrélées,  

Incertitude-type    

L'incertitude composée tient compte des incertitudes évaluées par les méthodes de type A et de type B. Elle est obtenue en composant les variances associées à    et C, c'est à dire pour des mesurages bruts indépendants :  

L’incertitude-type du résultat est donnée par la racine carrée de cette variance. On peut également convenir de donner une incertitude globale en utilisant un facteur d'élargissement multiplicatif purement conventionnel, égal à 2 dans le cadre des laboratoires d'étalonnages européens, ce qui correspond, pour une loi gaussienne, à la donnée d'un intervalle de confiance à risque d'erreur inférieur à 5%. Il est essentiel d’adopter cette composition quadratique, cohérente avec la donnée d’un intervalle de certitude maîtrisée, quelles que soient les réticences associées à la donnée d’une « tolérance » qui prétend souvent être assimilée à un intervalle de certitude absolue bien illusoire et scientifiquement sans fondement. 
 Tout l'art du physicien métrologue consiste à identifier le mieux possible les causes d'erreur de mesure, afin d'évaluer de la façon la plus correcte possible, par une analyse physique, les corrections que celles-ci entraînent : on diminue ainsi la composante aléatoire (type A ci-dessus). La répartition de la contribution des phénomènes affectant la mesure entre les méthodes de type A et B ci-dessus dépend donc de la connaissance du procédé de mesure et de l'étude qui en a été faite, c'est-à-dire du détail du "budget des incertitudes" qui a été effectué. 
 Bien évidemment cette méthode est généralisable à des cas plus complexes. 

 Exemple élémentaire de budget d’incertitude 

 Ce paragraphe illustre la détermination du budget d’incertitude permettant d'évaluer l'incertitude associée à la mesure d'une résistance électrique d'environ 10  à l'aide d'un voltmètre numérique et d'un ampèremètre à aiguille préalablement étalonnés. 
Outre le biais introduit par le mode opératoire utilisé (courte dérivation, en l’occurrence), une analyse des causes d'erreur qui imposent une correction a conduit à l'inventaire suivant : 
étalonnage du voltmètre, étalonnage de l'ampèremètre   

dérive de ces deux instruments   

influence de la température sur chacun des deux instruments   

limitations imposées par la résolution du voltmètre et de l'ampèremètre 
 
Il convient également d'évaluer la dispersion associée à la répétabilité des mesures.  

En appliquant les méthodes et conventions décrites ci-dessus pour l'évaluation de chaque composante et pour la composition globale on aboutit au tableau récapitulatif suivant (toutes les valeurs sauf l'incertitude élargie sont données à 1 écart-type.    

 

Composantes évaluées par l'analyse statistique

 (en )

(en )
u (Rm) : Répétabilité des mesurages

0,005 

 
A

 

0,005
Composantes évaluées par d'autres moyens

en 

 
u (étal U-R)Etalonnage voltmètre 0,001   
u (étal I-R)Etalonnage ampèremètre 0,02   
u (dériv U-R)Dérive voltmètre 0,0006   
u (dériv I-R)Dérive ampèremètre 0,0087   
u (T- U-R)Influence température  
sur voltmètre
0,0001   
u (T- I-R)Influence température  
sur ampèremètre
0,011   
u (résol U-R)Résolution voltmètre  0,00029   
u (résol I-R)Résolution ampèremètre 0,0029   
B 

 

0,024

incertitude-type  

 

0,025

incertitude élargie  

 

0,05
 

Dans ce cas élémentaire, la conclusion est simple. Si le niveau d’incertitude atteint n’est pas suffisant pour l’application envisagée, l’élimination ou la réduction de la composante principale s’impose : meilleur étalonnage de l’ampèremètre, meilleure caractérisation de cet instrument (effet de la température, dérives, ...).  

CONCLUSION   

Ainsi « mesurer », c’est comparer une grandeur physique inconnue à une référence dont la traçabilité est établie dans le cadre du Système international d’unités, et évaluer l’incertitude associée, aussi élevée soit elle, par une approche statistique de la mesure. Adopter le langage de la métrologie, qui repose sur des règles scientifiquement justifiées pour l’évaluation et l’expression ou la matérialisation de ces paramètres, est indispensable afin que puissent être utilisés de façon pertinente, dans les domaines scientifiques, techniques, ou de vie courante, les résultats de mesure.  


REFERENCES   

(1) Quinn T.J., Himbert M., Mesurer : unités et incertitudes, La Mesure, Entretiens de la Villette vol. 7, Cité des sciences ed. Paris, (1996).  
(2) Himbert M., Le mètre: l'aventure continue... Bulletin du Bureau National de Métrologie 93, 1, Chiron ed. (1993).  
(3) Barbier P., Métrologie dans l'entreprise, outil de la qualité, Mouv. Fr.pour la Qualité ed. (1995).  
(4) Giacomo P., Mesure et métrologie, Bulletin du Bureau National de Métrologie 101, 1, Chiron ed. (1995).  
(5) Le Système international d’unités, BIPM, Gauthier Villars (1995).  
(6) Special issue on physical units, Metrologia, 31, 403-541 (1995).  
(7) Guide to the expression of uncertainty in measurement (GUM), ISO ed., (1993). Version française, AFNOR ed., Paris (1995).  
(8) Vocabulaire international des termes fondamentaux et généraux de métrologie (VIM), norme ISO, version française AFNOR ed., NF X  07 001, Paris (1993).  
(9) Ranson C., Introduction à la lecture du "guide pour l'expression des incertitudes de mesures", Bulletin du Bureau National de Métrologie, 103 Chiron ed. (1996). 

  Marc Himbert

Conservatoire National des Arts et Métiers, chaire de métrologie

BNM-INM, 292 rue Saint-Martin, 75003 Paris, France

 

Conférence de l’Ecole doctorale PROMEN NANCY

12-13 mai 1997
publiée dans « Récents progrès en Génie des Procédés » 1997

  Avec l'aimable autorisation de Monsieur Marc Himbert

   

Rechercher sur ce site:

 

  

 
   

MétrologieHistoireEnseignementSourcesIndex

M'écrire

Mise à jour le 17 octobre 1999 par
Marie-Ange Cotteret