Mam wrażenie, że na podstawie kilku artykułów, książek i artykułów, które przeczytałem, zalecanym sposobem dopasowania rozkładu prawdopodobieństwa na zbiorze danych jest oszacowanie maksymalnego prawdopodobieństwa (MLE). Jednak jako fizyk bardziej intuicyjny sposób polega na dopasowaniu pdf modelu do empirycznego pdf danych przy użyciu najmniejszych kwadratów. Dlaczego zatem MLE jest lepszy od …
Ten link do Wikipedii zawiera szereg technik wykrywania heteroscedastyczności resztek OLS. Chciałbym dowiedzieć się, która praktyczna technika jest bardziej skuteczna w wykrywaniu regionów dotkniętych heteroscedastycznością. Na przykład tutaj centralny obszar wykresu OLS „Resztki vs Dopasowane” ma większą wariancję niż boki wykresu (w rzeczywistości nie jestem do końca pewien, ale załóżmy, …
Obecnie pracuję nad moją pracą magisterską i planuję prowadzić statystyki w SigmaPlot. Jednak po spędzeniu trochę czasu z moimi danymi doszedłem do wniosku, że SigmaPlot może nie nadawać się do mojego problemu (mogę się mylić), więc zacząłem pierwsze próby w R, co nie bardzo ułatwiło. Plan polegał na przeprowadzeniu prostej …
Kilka miesięcy temu opublikowałem pytanie dotyczące testów homoscedastyczności w R na SO, a Ian Fellows odpowiedział na to (sparafrazuję jego odpowiedź bardzo luźno): Testy homoscedastyczności nie są dobrym narzędziem do testowania dopasowania modelu. Przy małych próbkach nie masz wystarczającej mocy, aby wykryć odstępstwa od homoscedastyczności, podczas gdy przy dużych próbkach …
Próbuję wykonać regresję danych heteroscedastycznych, w których próbuję przewidzieć wariancje błędów, a także wartości średnie w odniesieniu do modelu liniowego. Coś takiego: y(x,t)ξ(x,t)y¯(x,t)σ(x,t)=y¯(x,t)+ξ(x,t),∼N(0,σ(x,t)),=y0+ax+bt,=σ0+cx+dt.y(x,t)=y¯(x,t)+ξ(x,t),ξ(x,t)∼N(0,σ(x,t)),y¯(x,t)=y0+ax+bt,σ(x,t)=σ0+cx+dt.\begin{align}\\ y\left(x,t\right) &= \bar{y}\left(x,t\right)+\xi\left(x,t\right),\\ \xi\left(x,t\right) &\sim N\left(0,\sigma\left(x,t\right)\right),\\ \bar{y}\left(x,t\right) &= y_{0}+ax+bt,\\ \sigma\left(x,t\right) &= \sigma_{0}+cx+dt. \end{align} Słowami, dane składa się z powtarzalnych pomiarów przy różnych wartościach i . Sądzę pomiary …
Testy permutacyjne (zwane również testem randomizacji, testem ponownej randomizacji lub testem dokładnym) są bardzo przydatne i przydają się, gdy t-testnie jest spełnione założenie o rozkładzie normalnym wymagane na przykład i gdy transformacja wartości przez ranking test nieparametryczny, Mann-Whitney-U-testktóry prowadziłby do utraty większej ilości informacji. Jednak nie należy zapominać o jednym …
Pytanie: Jakie są główne różnice i podobieństwa między stosowaniem standardowych błędów Newey-West (1987) a Hansen-Hodrick (1980)? W jakich sytuacjach należy preferować jedną z nich? Uwagi: Wiem, jak działa każda z tych procedur dostosowawczych; jednak nie znalazłem jeszcze żadnego dokumentu, który by je porównał, ani w Internecie, ani w moim podręczniku. …
Procedura t-testu SPSS zgłasza 2 analizy przy porównywaniu 2 niezależnych średnich, jedną analizę przy założeniu równych wariancji i jedną przy założeniu równych wariancji. Stopnie swobody (df) przy założeniu równych wariancji są zawsze wartościami całkowitymi (i równymi n-2). Df, gdy nie zakłada się równych wariancji, nie są liczbami całkowitymi (np. 11,467) …
Rozumiem, że test Bartletta dotyczy ustalenia, czy twoje próbki pochodzą z populacji o równych wariancjach. Jeśli próbki pochodzą z populacji o równych wariancjach, wówczas nie odrzucamy hipotezy zerowej testu, a zatem analiza głównego składnika jest nieodpowiednia. Nie jestem pewien, gdzie leży problem z tą sytuacją (posiadanie zestawu danych homoskedastycznych). Na …
Jeśli w standardowych regresjach OLS zostaną naruszone dwa założenia (normalny rozkład błędów, homoscedastyczność), to czy standardowe błędy początkowe i przedziały ufności są odpowiednią alternatywą dla uzyskania znaczących wyników w odniesieniu do znaczenia współczynników regresora? Czy testy istotności ze standardowymi błędami ładowania i przedziałami ufności nadal „działają” z heteroscedastycznością? Jeśli tak, …
Zadałem to pytanie wczoraj na StackOverflow i otrzymałem odpowiedź, ale zgodziliśmy się, że wydaje się to nieco hackingowe i może być lepszy sposób, aby na to spojrzeć. Pytanie: Chciałbym obliczyć standardowe błędy Newey-Westa (HAC) dla wektora (w tym przypadku wektor zwraca zapas). Funkcja NeweyWest()w sandwichpakiecie robi to, ale pobiera lmobiekt …
Chciałbym porównać średnie dla trzech grup równych rozmiarów (równy rozmiar próbki jest mały, 21). Średnie każdej grupy są normalnie rozmieszczone, ale ich wariancje są nierówne (testowane przez Levene'a). Czy transformacja jest najlepszą drogą w tej sytuacji? Czy powinienem najpierw rozważyć coś jeszcze?
Z ekonometrii , autor: Fumio Hayashi (rozdział 1): Bezwarunkowa homoskedastyczność: Drugi moment wyrażenia błędu E (εᵢ²) jest stały we wszystkich obserwacjach Forma funkcjonalna E (εᵢ² | xi) jest stała we wszystkich obserwacjach Warunkowa homoskedastyczność: Zniesiono ograniczenie, że drugi moment składników błędu E (εᵢ²) jest stały w obserwacjach Zatem warunkowy drugi …
Chciałem lepiej zrozumieć dokładny test Fishera, więc wymyśliłem następujący przykład zabawki, w którym f i m odpowiada płci męskiej i żeńskiej, a n i y odpowiada takiemu „zużyciu sody”: > soda_gender f m n 0 5 y 5 0 Oczywiście jest to drastyczne uproszczenie, ale nie chciałem, aby kontekst przeszkadzał. …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.