W ustawieniu klasycznej wielowymiarowej regresji liniowej mamy model:
Y= Xβ+ ϵ
gdzie reprezentuje zmienne niezależne, reprezentuje zmienne wielokrotne odpowiedzi, a to iid termin szum Gaussa. Hałas ma zerową średnią i może być skorelowany ze zmiennymi odpowiedzi. Rozwiązanie maksymalnego prawdopodobieństwa dla wag jest równoważne rozwiązaniu metodą najmniejszych kwadratów (niezależnie od korelacji hałasu) [1] [2]:XYϵ
β^= ( XT.X)- 1XT.Y
Jest to równoważne niezależnemu rozwiązaniu osobnego problemu regresji dla każdej zmiennej odpowiedzi. Można to zaobserwować na podstawie faktu, że tą kolumnę (zawierającą wagi dla tej zmiennej wyjściowej) można uzyskać mnożąc przez kolumna (zawierająca wartości tej zmiennej odpowiedzi).jaβ^ja( XT.X)- 1XT.jaYja
Jednak wielowymiarowa regresja liniowa różni się od osobnego rozwiązywania indywidualnych problemów regresji, ponieważ procedury wnioskowania statystycznego uwzględniają korelacje między zmiennymi wielokrotnych odpowiedzi (np. Patrz [2], [3], [4]). Na przykład macierz kowariancji szumu pojawia się w rozkładach próbkowania, statystykach testów i szacunkach przedziałów.
Kolejna różnica pojawia się, jeśli pozwolimy każdej zmiennej odpowiedzi mieć swój własny zestaw zmiennych towarzyszących:
Yja= Xjaβja+ ϵja
gdzie reprezentuje tą zmienną odpowiedzi, a i reprezentują odpowiadający im zestaw zmiennych towarzyszących i składnika szumowego. Jak wyżej, warunki hałasu mogą być skorelowane między zmiennymi odpowiedzi. W tym ustawieniu istnieją estymatory, które są bardziej wydajne niż najmniejszych kwadratów i nie można ich zredukować do rozwiązywania osobnych problemów z regresją dla każdej zmiennej odpowiedzi. Na przykład patrz [1]. i X i ϵ iYjajaXjaϵja
Bibliografia
- Zellner (1962) . Skuteczna metoda szacowania pozornie niepowiązanych regresji i testów tendencji agregacyjnych.
- Helwig (2017) . Wieloczynnikowa regresja liniowa [Slajdy]
- Fox i Weisberg (2011) . Wielowymiarowe modele liniowe w R. [Dodatek do: R towarzyszący regresji stosowanej]
- Maitra (2013) . Modele wielowymiarowej regresji liniowej. [Slajdy]