Na przykład w R, jeśli wywołasz acf()
funkcję, domyślnie kreśli korelogram i rysuje 95% przedział ufności. Patrząc na kod, jeśli zadzwonisz plot(acf_object, ci.type="white")
, zobaczysz:
qnorm((1 + ci)/2)/sqrt(x$n.used)
jako górna granica rodzaju białego szumu. Czy ktoś może wyjaśnić teorię za tą metodą? Dlaczego otrzymujemy qnorm 1 + 0,95, a następnie dzielimy przez 2, a następnie dzielimy przez liczbę obserwacji?