W miejscu pracy niektóre urządzenia pomiarowe podlegają różnej dokładności numerycznej; w niektórych przypadkach dokładność może być dość słaba (tj. tylko do jednej lub dwóch znaczących wartości). Dlatego zamiast takich zestawów danych: $$ \ {0,012, 0,033, 0,042, 0,982, 1,028, 1,037, 1,950 \}, $$, w których każda z wartości jest unikalna, otrzymujemy zestaw danych, który wygląda następująco : $$ \ {0,0, 0,0, 0,0, 1,0, 1,0, 1,0, 2,0 \}. $$ Na wykresie pojedynczego ruchomego zakresu, ten drugi zestaw wydaje się bardziej „gruby”, a podstawowym problemem jest oszacowanie rzeczywistej zmienności w dane stają się trudniejsze, gdy przyrosty pomiarów są zbyt duże.
Moje pytanie jest następujące: Jeśli chciałem, aby komputer wykrywał obszerne dane, muszę podać logiczną definicję tego zjawiska. Widziałem definicje, które mówią „3 lub mniej różnych wartości” lub „4 lub mniej różne wartości”, ale nie mam pojęcia, jak te definicje zostały uzyskane i jaka jest podstawa / uzasadnienie dla takich standardów.
Czy ktoś byłby w stanie pomóc mi skierować mnie w stronę rygorystycznej definicji i uzasadnienia?