Biorąc pod uwagę losową zmienną która wynika ze sparametryzowanego rozkładu F (X; θ) , prawdopodobieństwo definiuje się jako prawdopodobieństwo zaobserwowanych danych w funkcji θ: \ text {L} (θ) = \ text {P} (θ ; X = x)Xfa( X; θ )θ :L( θ )=P( θ ;X= x )
Strona wikipedia twierdzi, że prawdopodobieństwo i prawdopodobieństwo to odrębne pojęcia. W języku nietechnicznym „prawdopodobieństwo” jest zwykle synonimem „prawdopodobieństwa”, ale w zastosowaniu statystycznym istnieje wyraźne rozróżnienie w perspektywie: liczba, która jest prawdopodobieństwem niektórych zaobserwowanych wyników przy danym zestawie wartości parametrów, jest uważana za prawdopodobieństwo zbioru wartości parametrów z uwzględnieniem zaobserwowanych wyników. …
To pytanie zastanawiało mnie od dawna. Rozumiem użycie „logu” w celu maksymalizacji prawdopodobieństwa, więc nie pytam o „log”. Moje pytanie brzmi: skoro maksymalizacja prawdopodobieństwa dziennika jest równoważna z minimalizacją „negatywnego prawdopodobieństwa dziennika” (NLL), dlaczego wymyśliliśmy tę NLL? Dlaczego nie wykorzystujemy „pozytywnego prawdopodobieństwa” przez cały czas? W jakich okolicznościach preferowane jest …
Jeśli zainteresowanie polega jedynie na oszacowaniu parametrów modelu (oszacowanie punktowe i / lub przedziałowe), a wcześniejsze informacje nie są wiarygodne, słabe (wiem, że jest to trochę niejasne, ale staram się ustalić scenariusz, w którym wybór wcześniejsze jest trudne) ... Dlaczego ktoś miałby stosować podejście bayesowskie z „nieinformacyjnymi” niewłaściwymi priory zamiast …
Z grubsza mówiąc, wartość p daje prawdopodobieństwo zaobserwowanego wyniku eksperymentu, biorąc pod uwagę hipotezę (model). Mając to prawdopodobieństwo (wartość p), chcemy ocenić naszą hipotezę (jak prawdopodobne jest). Ale czy nie byłoby bardziej naturalne obliczanie prawdopodobieństwa hipotezy na podstawie obserwowanego wyniku? Więcej szczegółów Mamy monetę. Odwracamy go 20 razy i otrzymujemy …
Prawdopodobieństwo można określić na kilka sposobów, na przykład: Funkcja LLL z Θ×XΘ×X\Theta\times{\cal X} , który odwzorowuje (θ,x)(θ,x)(\theta,x) do L(θ∣x)L(θ∣x)L(\theta \mid x) to znaczy L:Θ×X→RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} . funkcja losowa L(⋅∣X)L(⋅∣X)L(\cdot \mid X) moglibyśmy również wziąć pod uwagę, że prawdopodobieństwo to tylko „zaobserwowane” prawdopodobieństwo L(⋅∣xobs)L(⋅∣xobs)L(\cdot \mid x^{\text{obs}}) w praktyce prawdopodobieństwo …
Załóżmy, że mamy losową zmienną . Jeśli jest parametrem prawdziwym, funkcja prawdopodobieństwa powinna być zmaksymalizowana, a pochodna równa zero. Jest to podstawowa zasada leżąca u podstaw estymatora maksymalnego prawdopodobieństwa.X∼ f( x | θ )X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Jak rozumiem, informacje Fishera są zdefiniowane jako ja( θ ) = E [ ( …
Słyszałem o prawdopodobieństwie empirycznym Owena, ale do niedawna nie zwracałem na to uwagi, dopóki nie natknąłem się na nie w interesującej pracy ( Mengersen i in. 2012 ). W moich wysiłków, aby zrozumieć, jakie zebrała, że prawdopodobieństwo obserwowanego danych jest reprezentowana jako , gdzie ∑ i p i = 1 …
Mam proste pytanie dotyczące „prawdopodobieństwa warunkowego” i „prawdopodobieństwa”. (Sprawdziłem już to pytanie tutaj, ale bezskutecznie). Zaczyna się od strony Wikipedii dotyczącej prawdopodobieństwa . Mówią to: Prawdopodobieństwo zestaw wartości parametrów, , biorąc pod uwagę efekty jest równa prawdopodobieństwu tych zaobserwowanych wyników podanych wartości tych parametrów, to jestθθ\thetaxxx L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = …
To jest powtarzające się pytanie (patrz ten post , ten post i ten post ), ale mam inny obrót. Załóżmy, że mam kilka próbek z ogólnego próbnika MCMC. Dla każdej próbki znam wartość prawdopodobieństwa dziennika i dziennika przed . Jeśli to pomaga, znam również wartość prawdopodobieństwa dziennika na punkt danych, …
Próbowałem opracować intuicyjne rozumienie twierdzenia Bayesa w kategoriach wcześniejszego , późniejszego , prawdopodobieństwa i marginalnego prawdopodobieństwa. W tym celu używam następującego równania: gdzie reprezentuje hipotezę lub przekonanie, a reprezentuje dane lub dowody. Zrozumiałem pojęcie a posteriori - jest to jednocząca istota, która łączy wcześniejsze przekonanie i prawdopodobieństwo zdarzenia. Czego nie …
Niektóre źródła podają, że funkcja prawdopodobieństwa nie jest prawdopodobieństwem warunkowym, niektóre twierdzą, że tak. To jest dla mnie bardzo mylące. Według większości źródeł, które widziałem, prawdopodobieństwo rozkładu z parametrem powinno być iloczynem funkcji masy prawdopodobieństwa, biorąc pod uwagę próbek x_i :n x iθθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) Na …
Jeśli przeor i prawdopodobieństwo są bardzo różne od siebie, czasami zdarza się sytuacja, w której tylny nie jest podobny do żadnego z nich. Zobacz na przykład ten obraz, który wykorzystuje normalne rozkłady. Chociaż jest to matematycznie poprawne, wydaje się, że nie jest to zgodne z moją intuicją - jeśli dane …
Piszę algorytm, w którym przy danym modelu obliczam prawdopodobieństwa dla listy zestawów danych, a następnie muszę znormalizować (według prawdopodobieństwa) każde z prawdopodobieństw. Więc coś w rodzaju [0,00043, 0,00004, 0,00321] można przekonwertować na coś takiego jak [0,2, 0,03, 0,77]. Mój problem polega na tym, że prawdopodobieństwa dziennika, z którymi pracuję, są …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.