Précision des mesures : ce que vous devez savoir
MaisonMaison > Blog > Précision des mesures : ce que vous devez savoir

Précision des mesures : ce que vous devez savoir

Jun 10, 2023

C'est un vieux défi : vous êtes un fabricant dont le client a besoin de vous pour garantir que la pièce que vous avez commandée pour lui sera soumise aux tolérances spécifiées. Alors, quelle est la meilleure méthode pour s'assurer que la pièce est conforme aux spécifications ? La question n’est pas seulement de savoir comment mesurer la pièce – un palpeur sur MMT ou un scanner laser ? – mais aussi comment évaluer la qualité des mesures. Pour trouver le moyen le plus précis de mesurer votre pièce, vous devez comprendre l'incertitude inhérente à tout système de mesure donné.

Heureusement, il existe des organisations nationales et internationales qui élaborent des normes pour aider à codifier les niveaux d'incertitude des mesures. L'American Society of Mechanical Engineers (ASME), à New York, et l'Organisation internationale de normalisation (ISO), à Genève, en Suisse, proposent par exemple des normes pour communiquer les niveaux de précision de diverses méthodes de métrologie. Ils constituent une ressource importante, mais, comme nous le verrons, ils ne peuvent à eux seuls vous dire quelle méthode est la meilleure pour une tâche particulière.

Alors, que doit faire un fabricant ?

Si vous êtes novice, assurez-vous d’abord de comprendre quelques termes de base. Par exemple, Tim Cucchi, chef de produit outils manuels de précision chez LS Starrett Co., Athol, Massachusetts, a mis en garde contre la confusion entre précision et résolution.

« Dans l'instrumentation industrielle, la précision est la tolérance de mesure de l'instrument. Il définit les limites des erreurs commises lorsque l'instrument est utilisé dans des conditions normales de fonctionnement. La résolution est simplement la précision avec laquelle l'instrument de mesure est configuré pour lire, que ce soit en dixièmes, en centaines, en milliers ou autre.

La distinction compte. Vous feriez confiance à un étalon de quincaillerie pour mesurer et couper un poteau de clôture, mais pas pour vérifier un composant aérospatial ou médical de précision, et ce, même si l'étalon comportait des hachures espacées de 1 µm. Sa résolution ne refléterait pas vraiment sa précision.

La tolérance d'impression fait référence à l'écart dimensionnel autorisé sur une pièce, tel que défini par les plans ou les spécifications du client. Cucchi a souligné que les tolérances d'impression ne concernent pas la méthode métrologique utilisée pour les respecter, mais uniquement les exigences de la pièce. C'est au fabricant de trouver une méthode fiable pour vérifier l'exactitude de la pièce.

« Les professionnels de la mesure sont conscients qu'il y a toujours des erreurs de mesure », a noté Gene Hancz, spécialiste des produits CMM chez Mitutoyo America Corp., Aurora, Illinois. « Il est donc essentiel de définir ce que signifie une qualité de mesure « suffisamment bonne ».

C'est une définition que les ingénieurs ont articulée de différentes manières au fil du temps, a déclaré Hancz. La question est : quel est le niveau de précision nécessaire pour que la mesure soit fiable ?

"En 1950, une norme militaire américaine, MIL-STD-120 Gage Inspection, a été publiée, qui stipulait que lorsque des pièces étaient mesurées, les tolérances de précision de l'équipement de mesure ne devaient pas dépasser 10 pour cent des tolérances des pièces vérifiées." dit Hancz. Ainsi, si la tolérance d'impression d'une pièce est, disons, d'un centimètre près, alors le système de mesure doit être précis au dixième de cette valeur, ou au millimètre près. « Cette règle est souvent appelée la règle du 10 : 1, ou la règle de Gagemaker », a-t-il ajouté.

Alors, comment garantir que le système utilisé pour mesurer cette pièce est précis au dixième nécessaire de la tolérance d'impression, dans ce cas, 1 mm ? Selon cette même norme, vous l'étalonnez à 0,2 mm encore plus fin : MIL-STD-120 déclare que la précision des étalons de mesure utilisés pour calibrer l'équipement de mesure lui-même ne doit pas dépasser 20 % des tolérances de l'équipement de mesure en cours. calibré, ou 5:1, selon Hancz.

« Ces deux règles se sont transformées au fil des années en ce que l'on appelle souvent le TAR, ou rapport de précision des tests, et les exigences passées de 10 : 1 ou 5 : 1 sont désormais généralement énoncées comme une exigence de 4 : 1, soit 25 % de la valeur. tolérance.

"L'évaluation de l'incertitude des mesures a fait irruption dans la pratique commerciale de l'étalonnage à la fin des années 1990", a poursuivi Hancz. "Alors que de plus en plus de laboratoires d'étalonnage ont commencé à calculer et à documenter l'incertitude, à la fois dans les domaines d'accréditation et dans les certificats d'étalonnage, la pratique consistant à utiliser les calculs TAR a commencé à être remplacée par le taux d'incertitude des tests, TUR."