Pytania otagowane jako maximum-likelihood

metoda szacowania parametrów modelu statystycznego poprzez wybranie wartości parametru, która optymalizuje prawdopodobieństwo obserwacji danej próbki.

2
Skąd mam wiedzieć, którą metodę szacowania parametrów wybrać?
Istnieje wiele metod szacowania parametrów. MLE, UMVUE, MoM, teoretyka decyzyjna i inne wydają się mieć dość logiczne uzasadnienie, dlaczego są przydatne do szacowania parametrów. Czy jakakolwiek metoda jest lepsza od innych, czy może to tylko kwestia tego, jak zdefiniujemy, czym jest „najlepiej dopasowany” estymator (podobny do tego, w jaki sposób …

1
Jakie są warunki prawidłowości testu ilorazu wiarygodności
Czy ktoś mógłby mi powiedzieć, jakie są warunki prawidłowości dla asymptotycznego rozkładu testu ilorazu wiarygodności? Gdziekolwiek spojrzę, jest napisane „W warunkach prawidłowości” lub „Zgodnie z probabilistycznymi prawidłowościami”. Jakie są dokładnie warunki? Czy istnieją pierwsze i drugie pochodne prawdopodobieństwa logarytmicznego, a matryca informacji nie jest równa zero? A może coś zupełnie …

1
Dokładny test Fishera i rozkład hipergeometryczny
Chciałem lepiej zrozumieć dokładny test Fishera, więc wymyśliłem następujący przykład zabawki, w którym f i m odpowiada płci męskiej i żeńskiej, a n i y odpowiada takiemu „zużyciu sody”: > soda_gender f m n 0 5 y 5 0 Oczywiście jest to drastyczne uproszczenie, ale nie chciałem, aby kontekst przeszkadzał. …

4
Porównywanie oszacowania maksymalnego prawdopodobieństwa (MLE) i twierdzenia Bayesa
W twierdzeniu bayesowskim , a z książki, którą czytam, nazywa się prawdopodobieństwo , ale zakładam, że to tylko prawdopodobieństwo warunkowe od podane , prawda? p(x|y)xyp(y|x)=p(x|y)p(y)p(x)p(y|x)=p(x|y)p(y)p(x)p(y|x) = \frac{p(x|y)p(y)}{p(x)}p(x|y)p(x|y)p(x|y)xxxyyy Do największej wiarygodności stara się maksymalizować , prawda? Jeśli tak, to jestem bardzo zdezorientowany, ponieważ są zmiennymi losowymi, prawda? Aby zmaksymalizować jest po …

4
Jak duża powinna być próbka dla danej techniki szacowania i parametrów?
Czy istnieje ogólna zasada, a nawet jakikolwiek sposób określający, jak duża powinna być próbka, aby oszacować model o określonej liczbie parametrów? Na przykład, jeśli chcę oszacować regresję metodą najmniejszych kwadratów z 5 parametrami, jak duża powinna być próbka? Czy ma znaczenie, jakiej techniki szacowania używasz (np. Maksymalne prawdopodobieństwo, najmniejsze kwadraty, …


1
Jak zrozumieć, że MLE wariancji jest tendencyjne w rozkładzie Gaussa?
Czytam PRML i nie rozumiem tego obrazu. Czy mógłbyś podać kilka wskazówek, aby zrozumieć obraz i dlaczego MLE wariancji w rozkładzie Gaussa jest stronniczy? wzór 1.55: wzór 1.56 σ 2 M L E =1μM.L E= 1N.∑n = 1N.xnμMLE=1N∑n=1Nxn \mu_{MLE}=\frac{1}{N} \sum_{n=1}^N x_n σ2)M.L E= 1N.∑n = 1N.( xn- μM.L E)2)σMLE2=1N∑n=1N(xn−μMLE)2 \sigma_{MLE}^2=\frac{1}{N}\sum_{n=1}^{N}(x_n-\mu_{MLE})^2



1
Związek między macierzą Hesji a macierzą kowariancji
Podczas gdy ja studiuję oszacowanie maksymalnego prawdopodobieństwa, aby wnioskować w oszacowaniu maksymalnego prawdopodobieństwa, musimy znać wariancję. Aby dowiedzieć się o wariancji, muszę poznać Dolną Granicę Kramera, która wygląda jak matryca Hesji z Drugim Pochyleniem krzywizny. Jestem trochę pomieszany, aby zdefiniować związek między macierzą kowariancji a macierzą hessian. Mam nadzieję usłyszeć …

2
Parametry maksymalnego prawdopodobieństwa odbiegają od rozkładów bocznych
Mam funkcję prawdopodobieństwa dla prawdopodobieństwa moich danych biorąc pod uwagę niektóre parametry modelu , które chciałbym oszacować. Zakładając płaskie priorytety parametrów, prawdopodobieństwo jest proporcjonalne do prawdopodobieństwa a posteriori. Używam metody MCMC, aby zbadać to prawdopodobieństwo.L(d|θ)L(d|θ)\mathcal{L}(d | \theta)dddθ∈RNθ∈RN\theta \in \mathbf{R}^N Patrząc na wynikowy zbieżny łańcuch, stwierdzam, że parametry maksymalnego prawdopodobieństwa nie …

4
Wnioskowanie wolne od prawdopodobieństwa - co to znaczy?
Niedawno uświadomiłem sobie, że w literaturze omawiane są metody „pozbawione prawdopodobieństwa”. Nie jestem jednak pewien, co to znaczy, że metoda wnioskowania lub optymalizacji jest wolna od prawdopodobieństwa . W uczeniu maszynowym celem jest zazwyczaj maksymalizacja prawdopodobieństwa, że ​​niektóre parametry dopasują się do funkcji, np. Wagi w sieci neuronowej. Więc jaka …

2
Dlaczego Ograniczone maksymalne prawdopodobieństwo daje lepsze (obiektywne) oszacowanie wariancji?
Czytam artykuł teoretyczny Douga Batesa o pakiecie R4, aby lepiej zrozumieć drobiazgowość mieszanych modeli, i natknąłem się na intrygujący wynik, który chciałbym lepiej zrozumieć, o zastosowaniu ograniczonego maksymalnego prawdopodobieństwa (REML) do oszacowania wariancji . W części 3.3 dotyczącej kryterium REML stwierdza, że ​​zastosowanie REML do oszacowania wariancji jest ściśle związane …



Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.