Pytania otagowane jako maximum-likelihood

metoda szacowania parametrów modelu statystycznego poprzez wybranie wartości parametru, która optymalizuje prawdopodobieństwo obserwacji danej próbki.

6
Prawdopodobieństwo - Dlaczego pomnażać?
Studiuję o oszacowaniu maksymalnego prawdopodobieństwa i czytam, że funkcja prawdopodobieństwa jest iloczynem prawdopodobieństwa każdej zmiennej. Dlaczego to jest produkt? Dlaczego nie suma? Próbowałem szukać w Google, ale nie mogę znaleźć żadnych sensownych odpowiedzi. https://en.wikipedia.org/wiki/Maximum_likelihood

3
Dlaczego maksymalne prawdopodobieństwo i nie oczekiwane prawdopodobieństwo?
Dlaczego tak często uzyskuje się szacunki maksymalnego prawdopodobieństwa parametrów, ale praktycznie nigdy nie słyszy się o szacunkach oczekiwanych parametrów prawdopodobieństwa (tj. Opartych raczej na wartości oczekiwanej niż trybie funkcji wiarygodności)? Czy dzieje się tak przede wszystkim z powodów historycznych, czy też z bardziej merytorycznych przyczyn technicznych lub teoretycznych? Czy pojawienie …

2
Co oznacza standardowy błąd oszacowania maksymalnego prawdopodobieństwa?
Jestem matematykiem, samokształcącym się statystyką i walczącym szczególnie z językiem. W książce, której używam, występuje następujący problem: Losowa zmienna jest podana jako -dystrybucja z . (Oczywiście ze względu na to pytanie można wziąć dowolny rozkład w zależności od jednego parametru). Następnie podaje się próbkę pięciu wartości , , , , …


4
Jakie są prawidłowe wartości precyzji i przywołania w przypadkach krawędzi?
Precyzja jest zdefiniowana jako: p = true positives / (true positives + false positives) Czy jest to prawidłowe, że, jak true positivesi false positivespodejście 0, precyzja zbliża 1? To samo pytanie do przypomnienia: r = true positives / (true positives + false negatives) Obecnie wdrażam test statystyczny, w którym muszę …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 


2
Dlaczego szacowanie maksymalnego prawdopodobieństwa jest uważane za technikę częstokroć
Częstotliwościowe statystyki są dla mnie równoznaczne z podejmowaniem decyzji, które są dobre dla wszystkich możliwych próbek. Tj częstościowym reguła decyzyjna zawsze powinien starać się zminimalizować ryzyko częstościowym, która zależy na funkcji strata L i prawdziwego stanu natury θ 0 :δδ\deltaL.L.Lθ0θ0\theta_0 Rfar e q= Eθ0( L ( θ0, δ( Y) )Rfarmiq=miθ0(L.(θ0,δ(Y))R_\mathrm{freq}=\mathbb{E}_{\theta_0}(L(\theta_0,\delta(Y)) …



6
Jaka jest „podstawowa” koncepcja uczenia maszynowego do szacowania parametrów?
„Podstawową” ideą statystyki do szacowania parametrów jest maksymalne prawdopodobieństwo . Zastanawiam się, jaki jest odpowiedni pomysł w uczeniu maszynowym. Qn 1. Czy uczciwie byłoby powiedzieć, że „podstawową” ideą uczenia maszynowego do szacowania parametrów jest: „Funkcje utraty” [Uwaga: mam wrażenie, że algorytmy uczenia maszynowego często optymalizują funkcję strat i stąd powyższe …

3
Pełna informacja maksymalne prawdopodobieństwo braku danych w R
Kontekst : regresja hierarchiczna z pewnymi brakującymi danymi. Pytanie : Jak wykorzystać oszacowanie maksymalnego prawdopodobieństwa (FIML) pełnej informacji w celu usunięcia brakujących danych w R? Czy polecasz pakiet i jakie są typowe kroki? Bardzo pomocne byłyby również zasoby i przykłady online. PS : Jestem socjologiem, który niedawno zaczął używać R. …

5
Używanie lmera do przewidywania
Witaj Mam dwa problemy, które brzmią jak naturalni kandydaci na modele wielopoziomowe / mieszane, których nigdy nie używałem. Prostszy i taki, który mam nadzieję wypróbować jako wprowadzenie, wygląda następująco: Dane wyglądają jak wiele wierszy formularza x y innergroup outergroup gdzie x jest zmienną liczbową, na której chcę regresować y (inna …

2
REML lub ML, aby porównać dwa modele efektów mieszanych z różnymi stałymi efektami, ale z tym samym efektem losowym?
Tło: Uwaga: Mój zestaw danych i kod r są zawarte poniżej tekstu Chciałbym użyć AIC do porównania dwóch modeli efektów mieszanych wygenerowanych przy użyciu pakietu lme4 w R. Każdy model ma jeden ustalony efekt i jeden efekt losowy. Efekt stały różni się w zależności od modelu, ale efekt losowy pozostaje …

1
MLE vs najmniejsze kwadraty w dopasowywanych rozkładach prawdopodobieństwa
Mam wrażenie, że na podstawie kilku artykułów, książek i artykułów, które przeczytałem, zalecanym sposobem dopasowania rozkładu prawdopodobieństwa na zbiorze danych jest oszacowanie maksymalnego prawdopodobieństwa (MLE). Jednak jako fizyk bardziej intuicyjny sposób polega na dopasowaniu pdf modelu do empirycznego pdf danych przy użyciu najmniejszych kwadratów. Dlaczego zatem MLE jest lepszy od …

1
Kiedy maksymalne prawdopodobieństwo i metoda momentów dają te same estymatory?
Zadano mi to pytanie pewnego dnia i nigdy wcześniej go nie rozważałem. Moja intuicja wynika z zalet każdego estymatora. Maksymalne prawdopodobieństwo występuje najlepiej, gdy jesteśmy pewni procesu generowania danych, ponieważ w przeciwieństwie do metody momentów wykorzystuje wiedzę o całej dystrybucji. Ponieważ estymatory MoM wykorzystują tylko informacje zawarte w momentach, wydaje …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.