Jak określasz dokładność urządzenia pomiarowego?


10

Powiedzmy, że masz urządzenie pomiarowe, którego dokładności nie znasz, oraz referencyjne urządzenie pomiarowe. Oba mierzą zmienną . Zakres zainteresowania wynosi . Jak określić dokładność nieznanego urządzenia w tym zakresie?x 0 < x < x 1xx0<x<x1

Moim działaniem byłoby zebranie wartości dla obu urządzeń od do i zbudowanie rozkładu błędów . Dokładność może następnie być rozpiętość błędzie lub coś podobnego - jest to prawidłowe?x 1x0x1±3)σ

Założenia:

  • Referencyjne urządzenie pomiarowe jest skalibrowane i praktycznie nie zawiera błędów

Najpierw należy odpowiednio skalibrować urządzenie odniesienia pomiaru. Następnie dokładność można określić na podstawie minimalnego sygnału wejściowego dla zmiany wyjściowej. Dawny. w suwmiarkach z noniuszem minimalną wartością wejściową jest odległość.
Fennekin

Dodałem założenie, że jest skalibrowane. - Naprawdę nie wiem, jak zastosować przykład z suwmiarką z noniuszem
John HK

1
ok, więc „dokładność” czy „prawdziwość” według twojego odniesienia? Wygląda na to, że najpierw należy ustalić poprawność urządzenia referencyjnego, zakładając precyzję podaną dla urządzenia, a następnie porównać średni odczyt na urządzeniu testowym, aby ustalić prawdziwość, i obliczyć wariancję, aby określić precyzję. Wydaje mi się, że większość z nas „dawnych czasów” używa „dokładności” do tej nowomodnej „prawdziwości”.
Carl Witthoft,

Odpowiedzi:


2

Twoje podejście jest zasadniczo poprawne.

Jeśli interesuje Cię tylko dokładność twojego systemu, prawdopodobnie chcesz użyć czegoś takiego jak błąd maksymalny. Twoja dokładność wynosi wtedy błąd +/- Max przy założeniu, że rzeczywiste błędy rozkładają się równomiernie w tym zakresie (równomierny rozkład często jest przeszacowaniem, ale jest prostą opcją, gdy nie są dostępne lepsze informacje).

Jednak takie podejście często powoduje duże błędy z powodu systematycznych efektów, które można łatwo skorygować, dopasowując krzywą (zwykle liniową) poprzez wykres wartości zmierzonych i rzeczywistych.

To powinno skorygować odchylenie w twoim instrumencie, a następnie możesz obliczyć niepewność na podstawie standardowego odchylenia reszt. Całkowita niepewność jest zwykle wielokrotnością , wybór jest dość arbitralny, więc powinieneś podać wielokrotność (wartość k) lub powiązany współczynnik pokrycia. Powinieneś również podać, jaki rozkład przyjmujesz, ponieważ wpłynie to na to, co daje wielokrotność określony zasięg. Np. Dla Gaussowskiego 95% pokrycia k ~ 2, ale dla jednolitego rozkładu 95% pokrycia k ~ 1,68σ


Jak powiedziałeś, wybór jest dowolny, ale czy istnieje wspólny standard? Często spotkałem się z arkuszami danych, które mówiły „Dokładność: + -Y”, nie określając, czy jest to 2sigma, 3sigma itp. ...
John HK

σ

Z mojego doświadczenia wynika, że ​​arkusze danych są często bałaganem niejasnych terminów i źle zdefiniowanych wartości (brouchery sprzedaży są jeszcze gorsze).
nivag 20.01.16

3

Jedynym sposobem ustalenia dokładności, z jaką każde urządzenie pomiarowe zapewnia pomiary, jest ich skalibrowanie względem urządzenia o znanej dokładności i znanych błędach pomiaru.

Twoja technika jest częściowo poprawna; nie wykonuj pomiaru błędu dla granic urządzenia jako jednej populacji lub pojemnika próbek. Wynika to z faktu, że błędy pomiaru nie zawsze są jednolite.

Na przykład dla odczytów od 0 do 1 błąd może wynosić -0,2, a dla odczytów od 2 do 3 błąd może wynosić +0,6. Testy należy przeprowadzać w zakresach lub pasmach, niezależnie od tego, czy jednostkami są mm (dla linijek), m / s (dla anemometrów lub prędkościomierzy) lub Pa (dla barometrów).

Dla każdego zakresu / pasma określasz błąd dla tego zakresu / pasma, a następnie zastosujesz ten błąd do pomiaru pobranego z urządzenia, które wymagało kalibracji.


Byłoby to przy założeniu, że chcę skalibrować urządzenie - czego nie chciałem. Chcę to tylko ocenić. Rozumiem twój przykład i idziemy o krok dalej: masz teraz błąd -0,2 dla pierwszego „bin”, błąd +0,6 dla drugiego i tak dalej ... Jeśli chcesz podsumować to dla całego zakresu w pojedynczy numer, czego używasz? Odchylenie standardowe dla wszystkich błędów?
John HK

Jak można „ocenić” bez jednoczesnego generowania informacji zapewniających kalibrację?
Carl Witthoft,

@CarlWitthoft Cóż, generujesz informacje do kalibracji, ale może nie być możliwe osadzenie tych informacji w urządzeniu lub udostępnienie ich w innej formie dla użytkownika.
John HK

@CarlWitthoft thefreedictionary.com/calibrate nie zgadza się ze mną. Nadal uważam, że istnieje różnica między określaniem dokładności a ulepszaniem urządzenia poprzez udostępnianie tych informacji, ale nie sądzę, abyśmy robili postępy, argumentując o tej definicji.
John HK

1
„Jedynym sposobem ustalenia dokładności ... jest skalibrowanie jej względem urządzenia o znanej dokładności” nie jest prawdą. Gdyby tak było, nigdy nie bylibyśmy w stanie skalibrować naszych najdokładniejszych urządzeń. Aby określić precyzję instrumentów, dla których nie ma dokładniejszego urządzenia, porównaj je z identycznymi kopiami samego siebie (lub zastosuj rozumowanie fizyczne).
Chris Mueller

1

Byłem w zespole inżynierów jakości (ale nie jednego z ekspertów), którzy mieli wizualizację, w której zastosowali wykres 2d, w którym oś X była pierwszym pomiarem, a Y drugim pomiarem tej samej obserwowalnej cechy.

Powtórzyliby takt / pomiar i stworzyli coś, co nazwali „tabelą kiełbas”. Wyeliminowaliby 2% pobranych próbek i narysowali „kiełbasę” wokół reszty.

Można wizualnie zobaczyć jakość systemu pomiarowego, obserwując, jak blisko punkty danych spadły do ​​linii kąta 45 stopni.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.