Dzisiaj uczyłem wstępnej klasy statystyki, a uczeń podszedł do mnie z pytaniem, które sformułowałem tutaj: „Dlaczego odchylenie standardowe jest zdefiniowane jako sqrt wariancji, a nie jako sqrt sumy kwadratów nad N?”
Definiujemy wariancję populacji:
I standardowe odchylenie: .
Interpretacja możemy dać jest to, że daje średnie odchylenie jednostek w populacji od średniej populacji .
Jednak w definicji sd dzielimy sqrt sumy kwadratów przez . Pytanie student podnosi to dlaczego nie podzielić sqrt na sume kwadratów przez zamiast. W ten sposób dochodzimy do konkurencyjnej formuły:Uczeń argumentował, że ta formuła wygląda bardziej jak „średnie” odchylenie od średniej niż podczas dzielenia przez jak w .
Myślałem, że to pytanie nie jest głupie. Chciałbym udzielić odpowiedzi uczniowi, która wykracza poza stwierdzenie, że sd jest zdefiniowane jako sqrt wariancji, która jest średnim odchyleniem do kwadratu. Innymi słowy, dlaczego uczeń powinien stosować prawidłową formułę, a nie podążać za swoim pomysłem?
To pytanie dotyczy starszego wątku i udzielonych tutaj odpowiedzi . Odpowiedzi tam idą w trzech kierunkach:
- jest odchyleniem średniej kwadratowej (RMS), a nie „typowym” odchyleniem od średniej (tj. ). Dlatego jest różnie zdefiniowany.
- Ma ładne właściwości matematyczne.
- Ponadto sqrt przywróciłoby „jednostki” do ich pierwotnej skali. Tak też byłoby w przypadku , który zamiast tego dzieli się przez
Oba punkty 1 i 2 są argumentami na korzyść sd jako RMS, ale nie widzę argumentu przeciwko użyciu . Jakie byłyby dobre argumenty, aby przekonać studentów poziomu wprowadzające wykorzystaniem odległości średnie RMS ze średnią? σ
"Why is the standard deviation defined as sqrt of variance and not as average of [the root of] sum of squares?"
Czy to możliwe, że to, co jest w nawiasach, zagubiło się w pytaniu?