Czy istnieje bardziej naukowy sposób określania liczby cyfr znaczących, które należy zgłosić dla średniej lub przedziału ufności w sytuacji, która jest dość standardowa - np. Klasa pierwszego roku na studiach.
Widziałem liczbę znaczących cyfr do umieszczenia w tabeli , dlaczego nie używamy znaczących cyfr i liczbę znaczących cyfr w dopasowaniu chi-kwadrat , ale wydaje się, że nie dotykają problemu.
Na moich zajęciach staram się wyjaśnić moim uczniom, że marnotrawstwo atramentu polega na zgłaszaniu 15 cyfr znaczących, gdy mają tak szeroki standardowy błąd w swoich wynikach - miałem przeczucie, że powinno się je zaokrąglać mniej więcej do około . Nie różni się to zbytnio od tego, co mówi ASTM - raportowanie wyników testu odnoszących się do E29, gdzie, jak twierdzą, powinno ono wynosić od 0,05 σ do 0,5 σ .
EDYTOWAĆ:
Kiedy mam zestaw liczb takich jak x
poniżej, ile cyfr powinienem użyć, aby wydrukować średnią i odchylenie standardowe?
set.seed(123)
x <- rnorm(30) # default mean=0, sd=1
# R defaults to 7 digits of precision options(digits=7)
mean(x) # -0.04710376 - not far off theoretical 0
sd(x) # 0.9810307 - not far from theoretical 1
sd(x)/sqrt(length(x)) # standard error of mean 0.1791109
PYTANIE: Podaj szczegółowo, jaka jest precyzja (gdy istnieje wektor liczb podwójnej precyzji) dla średniej i odchylenia standardowego, i napisz prostą funkcję pedagogiczną R, która wypisze średnią i odchylenie standardowe na znaczną liczbę cyfr, które znajduje odzwierciedlenie w wektorze x
.
R
(podobnie jak prawie w każdym oprogramowaniu) drukowanie jest kontrolowane przez wartość globalną (patrz options(digits=...)
), a nie przez jakiekolwiek uwzględnienie precyzji.