Mianownik (obiektywnego) estymatora wariancji jest ponieważ istnieje obserwacji i szacowany jest tylko jeden parametr.
Z tego samego powodu zastanawiam się, dlaczego mianownik kowariancji nie powinien wynosić gdy szacuje się dwa parametry?
Mianownik (obiektywnego) estymatora wariancji jest ponieważ istnieje obserwacji i szacowany jest tylko jeden parametr.
Z tego samego powodu zastanawiam się, dlaczego mianownik kowariancji nie powinien wynosić gdy szacuje się dwa parametry?
Odpowiedzi:
Specjalny przypadek powinien dać ci intuicję; pomyśl o następujących kwestiach:
Cieszysz się, że ten ostatni to powodu Korekta Bessela.
Ale zastąpienie przez w dla pierwszego daje , więc jak myślisz, co może teraz najlepiej wypełnić puste miejsce?
Szybka i brudna odpowiedź ... Rozważmy najpierw ; gdybyś miał obserwacji o znanej oczekiwanej wartości , użyłbyś aby oszacować wariancję.
Ponieważ wartość oczekiwana jest nieznana, możesz przekształcić swoje obserwacji w n - 1 ze znaną wartością oczekiwaną, przyjmując A i = X i - X 1 dla i = 2 , … , n . Otrzymasz wzór z n - 1 w mianowniku - jednak A i nie są niezależne i musisz to wziąć pod uwagę; na końcu znajdziesz zwykłą formułę.
Teraz dla kowariancji możesz zastosować ten sam pomysł: jeśli oczekiwana wartość wynosiła ( 0 , 0 ) , miałbyś 1 we wzorze. Odejmując(X1,Y1)od wszystkich innych obserwowanych wartości, otrzymujeszn-1obserwacji o znanej oczekiwanej wartości ... i1 we wzorze - ponownie wprowadza to pewną zależność do wzięcia pod uwagę.
PS sposobem na to jest wybranie ortonormalnej podstawy ⟨ ( 1 , … , 1 ) ′ ⟩ ⊥ , czyli n - 1 wektorów c 1 , … , c n - 1 ∈ R n takich, że
Następnie można zdefiniować zmienne A i = ∑ j c i j X j oraz B i = ∑ j c i j Y j . Wartości ( A i , B i ) są niezależne, mają oczekiwaną wartość ( 0 , 0 ) i mają taką samą wariancję / kowariancję jak zmienne pierwotne.
Chodzi o to, że jeśli chcesz pozbyć się nieznanego oczekiwania, porzucisz jedną (i tylko jedną) obserwację. Działa to tak samo w obu przypadkach.
Oto dowód, że estymator kowariancji kowariancji p-variation próbki o mianowniku jest obiektywnym estymatorem macierzy kowariancji:
.
To show:
Proof:
Next:
(1)
(2)
Therefore:
And so , with the final denominator , is unbiased. The off-diagonal elements of are your individual sample covariances.
Additional remarks:
The n draws are independent. This is used in (2) to calculate the covariance of the sample mean.
Step (1) and (2) use the fact that
Step (2) uses the fact that
I guess one way to build intuition behind using 'n-1' and not 'n-2' is - that for calculating co-variance we do not need to de-mean both X and Y, but either of the two, i.e.
1) Start .
2) Sample covariance is proportional to . Lose two ; one from , one from resulting in .
3) However, only contains separate terms, one from each product. When two numbers are multiplied together the independent information from each separate number disappears.
As a trite example, consider that
,
and that does not include irrationals and fractions, e.g. , so that when we multiply two number series together and examine their product, all we see are the from one number series, as we have lost half of the original information, that is, what those two numbers were before the pair-wise grouping into one number (i.e., multiplication) was performed.
In other words, without loss of generality we can write
for some and ,
i.e., , and, . From the 's, which then clearly have , the covariance formula becomes
.
Thus, the answer to the question is that the are halved by grouping.
Hold
?