Odpowiedzi:
Zacznijmy od intuicji. Nachylenie zwykłej najmniejszych kwadratów z z , dla każdej funkcji , jest proporcjonalna do kowariancji i . Zakłada się, że wszystkie regresje są zerowe (nie tylko te liniowe). Jeśli wyobrażasz sobie reprezentowane przez chmurę punktów (naprawdę chmurę gęstości prawdopodobieństwa), to bez względu na to, jak ją pokroisz w pionie i zmienisz kolejność plasterków (która wykonuje mapowanie ), regresja pozostaje zerowa. To implikuje warunkowe oczekiwania(które są funkcją regresji) są stałe. Moglibyśmy rozejrzeć się z rozkładami warunkowymi , utrzymując stałe oczekiwania, niszcząc w ten sposób wszelkie szanse na niezależność. Dlatego powinniśmy oczekiwać, że wniosek nie zawsze będzie taki sam.
Istnieją proste kontrprzykłady. Rozważ przykładową przestrzeń dziewięciu elementów abstrakcyjnych i dyskretną miarę z prawdopodobieństwem określonym przez
Zdefiniuj
Możemy wyświetlić te prawdopodobieństwa jako tablicę
(wszystkie pomnożone przez ) indeksowane w obu kierunkach przez wartości .
Krańcowe prawdopodobieństwa są i obliczone odpowiednio przez sumy kolumn i sumy wierszy tablicy. Ponieważ te zmienne nie są niezależne.
Zostało to skonstruowane tak, aby rozkład warunkowy gdy różni się od innych rozkładów warunkowych dla . Można to zobaczyć, porównując środkową kolumnę macierzy z innymi kolumnami. Symetria współrzędnych i wszystkich prawdopodobieństw warunkowych natychmiast pokazuje, że wszystkie oczekiwania warunkowe są zerowe, skąd wszystkie kowariancje są zerowe, bez względu na to, w jaki sposób powiązane wartości mogą być ponownie przypisane do kolumn.
Dla tych, którzy mogą pozostać nieprzekonani, kontrprzykład można zademonstrować poprzez bezpośrednie obliczenia - jest tylko funkcji, które należy wziąć pod uwagę i dla każdej z nich kowariancja wynosi zero.