Czy ktoś mógłby mi szczegółowo wyjaśnić szacunek maksymalnego prawdopodobieństwa (MLE) w kategoriach laika? Chciałbym poznać podstawową koncepcję, zanim przejdę do matematycznego wyprowadzenia lub równania.
W streszczeniu tego artykułu przeczytałem, że: „Procedura maksymalnego prawdopodobieństwa (ML) Hartley aud Rao zostaje zmodyfikowana poprzez dostosowanie transformacji z Patterson i Thompson, która dzieli prawdopodobieństwo na normalność na dwie części, z których jedna jest wolna od ustalonych efektów. Maksymalizacja tej części daje tak zwane ograniczone maksymalne prawdopodobieństwo (REML) estymatory. ” …
Dla badań symulacyjnych mam do generowania zmiennych losowych, które wykazują prefined (populacji) korelację do istniejącej zmiennej .YYY I spojrzał w Ropakowaniach copula, a CDVinektóre mogą powodować przypadkowe wielowymiarowych rozkładów danej struktury zależności. Nie można jednak naprawić jednej z powstałych zmiennych do istniejącej zmiennej. Wszelkie pomysły i linki do istniejących funkcji …
Estymatory maksymalnego prawdopodobieństwa (MLE) są asymptotycznie skuteczne; widzimy praktyczny wynik w tym, że często wypadają lepiej niż szacunki metodą momentów (MoM) (gdy się różnią), nawet przy małych próbkach Tutaj „lepsze niż” oznacza w tym sensie, że zazwyczaj ma mniejszą wariancję, gdy oba są obiektywne, i zazwyczaj mniejszy średni błąd kwadratowy …
Na tej stronie znajduje się kilka wątków z zaleceniami dotyczącymi książek na temat statystyk wprowadzających i uczenia maszynowego, ale szukam tekstu na temat zaawansowanych statystyk, w tym w kolejności priorytetów: maksymalne prawdopodobieństwo, uogólnione modele liniowe, analiza głównych składników, modele nieliniowe . Próbowałem modeli statystycznych AC Davisona, ale szczerze mówiąc musiałem …
Ok, to dość podstawowe pytanie, ale jestem trochę zdezorientowany. W mojej pracy magisterskiej piszę: Błędy standardowe można znaleźć, obliczając odwrotność pierwiastka kwadratowego elementów ukośnych (obserwowanej) macierzy informacji Fishera: sμ^,σ^2=1I(μ^,σ^2)−−−−−−√sμ^,σ^2=1I(μ^,σ^2)\begin{align*} s_{\hat{\mu},\hat{\sigma}^2}=\frac{1}{\sqrt{\mathbf{I}(\hat{\mu},\hat{\sigma}^2)}} \end{align*} Ponieważ polecenie optymalizacji w R minimalizuje (zaobserwowaną) macierz informacji Fishera można znaleźć, obliczając odwrotność Hesji: −logL−logL-\log\mathcal{L}I(μ^,σ^2)=H−1I(μ^,σ^2)=H−1\begin{align*} \mathbf{I}(\hat{\mu},\hat{\sigma}^2)=\mathbf{H}^{-1} \end{align*} Moje …
To pytanie zastanawiało mnie od dawna. Rozumiem użycie „logu” w celu maksymalizacji prawdopodobieństwa, więc nie pytam o „log”. Moje pytanie brzmi: skoro maksymalizacja prawdopodobieństwa dziennika jest równoważna z minimalizacją „negatywnego prawdopodobieństwa dziennika” (NLL), dlaczego wymyśliliśmy tę NLL? Dlaczego nie wykorzystujemy „pozytywnego prawdopodobieństwa” przez cały czas? W jakich okolicznościach preferowane jest …
Jestem ciekawy natury Σ−1Σ−1\Sigma^{-1} . Czy ktoś może powiedzieć coś intuicyjnego na temat „Co Σ−1Σ−1\Sigma^{-1} mówi o danych?” Edytować: Dziękuję za odpowiedzi Po wzięciu świetnych kursów chciałbym dodać kilka punktów: Jest to miara informacji, tj. to ilość informacji wzdłuż kierunku x .xTΣ−1xxTΣ−1xx^T\Sigma^{-1}xxxx Dwoistość: Od jest dodatnio określona, więc jest Σ …
Przykład Steina pokazuje, że oszacowanie maksymalnego prawdopodobieństwa nnn zmiennych o rozkładzie normalnym ze średnimi μ1,…,μnμ1,…,μn\mu_1,\ldots,\mu_n i wariancjami 111 jest niedopuszczalne (pod funkcją straty kwadratowej) iff n≥3n≥3n\ge 3 . Aby uzyskać dobry dowód, zobacz pierwszy rozdział Wnioskowania na dużą skalę: empiryczne metody Bayesa do szacowania, testowania i przewidywania autorstwa Bradleya Effrona. …
Zastanawiam się, czy ma to znaczenie w interpretacji, czy transformowane są tylko zmienne zależne, zależne i niezależne, czy tylko zmienne niezależne. Rozważ przypadek log(DV) = Intercept + B1*IV + Error Mogę interpretować IV jako wzrost procentowy, ale jak to się zmienia, kiedy mam log(DV) = Intercept + B1*log(IV) + Error …
To pytanie ropieło mi w głowie od ponad miesiąca. Numer Amstat News z lutego 2015 r. Zawiera artykuł autorstwa profesora Berkeleya Marka van der Laana, który zbeształ ludzi za używanie niedokładnych modeli. Twierdzi, że przy użyciu modeli statystyka jest więc sztuką, a nie nauką. Według niego, zawsze można użyć „dokładnego …
Jaka jest główna różnica między oszacowaniem maksymalnego prawdopodobieństwa (MLE) a oszacowaniem metodą najmniejszych kwadratów (LSE)? Dlaczego nie możemy użyć MLE do przewidywania wartości w regresji liniowej i odwrotnie?yyy Każda pomoc na ten temat będzie bardzo mile widziana.
Wyprowadzanie liczbowe MLE z GLMM jest trudne i, w praktyce, wiem, nie powinniśmy stosować optymalizacji siły brutalnej (np. Używając optimw prosty sposób). Ale dla własnego celu edukacyjnego chcę go wypróbować, aby upewnić się, że poprawnie rozumiem model (patrz poniższy kod). Odkryłem, że zawsze otrzymuję niespójne wyniki glmer(). W szczególności, nawet …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.