Pytanie, które chcę zadać, brzmi: w jaki sposób odsetek próbek w granicach 1 SD od średniej rozkładu normalnego zmienia się wraz ze wzrostem liczby zmiennych?
(Prawie) każdy wie, że w 1-wymiarowym rozkładzie normalnym 68% próbek można znaleźć w granicach 1 odchylenia standardowego od średniej. A co z wymiarami 2, 3, 4, ...? Wiem, że robi się mniej ... ale o ile (dokładnie)? Przydałoby się mieć tabelę pokazującą liczby dla 1, 2, 3 ... 10 wymiarów, a także dla 1, 2, 3 ... 10 SD. Czy ktoś może wskazać na taki stół?
Trochę więcej kontekstu - mam czujnik, który zapewnia dane na maksymalnie 128 kanałach. Każdy kanał podlega (niezależnemu) zakłóceniom elektrycznym. Kiedy wyczuwam obiekt kalibracyjny, mogę uśrednić wystarczającą liczbę pomiarów i uzyskać średnią wartość dla 128 kanałów wraz ze 128 pojedynczymi odchyleniami standardowymi.
ALE ... jeśli chodzi o pojedyncze odczyty natychmiastowe, dane nie reagują tak bardzo jak 128 pojedynczych odczytów, ale podobnie jak pojedynczy odczyt (do) 128-dimensonalnej wielkości wektora. Z pewnością jest to najlepszy sposób na potraktowanie kilku krytycznych odczytów, które wykonujemy (zwykle 4-6 ze 128).
Chcę poczuć, co jest „normalną” odmianą, a co „odstające” w tej przestrzeni wektorowej. Jestem pewien, że widziałem tabelę taką jak ta, którą opisałem, która dotyczyłaby tego rodzaju sytuacji - czy ktoś może wskazać na jedną?