Pytania otagowane jako posterior

Odnosi się do rozkładu prawdopodobieństwa parametrów uwarunkowanych danymi w statystyce bayesowskiej.



2
Jakie są parametry tylnej części Wishart-Wishart?
Podczas wnioskowania o macierzy dokładności ΛΛ\boldsymbol{\Lambda} rozkładu normalnego używanego do generowania NNN wektorów D-wymiarowych x1,..,xNx1,..,xN\mathbf{x_1},..,\mathbf{x_N} xi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align} zwykle umieszczamy Wishart przed ΛΛ\boldsymbol{\Lambda} ponieważ rozkład Wishart jest koniugatem przed wykluczenie wielowymiarowego rozkładu normalnego ze znaną średnią i nieznaną wariancją: Λ∼W(υ,Λ0)Λ∼W(υ,Λ0)\begin{align} \mathbf{\Lambda} &\sim \mathcal{W}(\upsilon, \boldsymbol{\Lambda_0}) \\ \end{align} …

1
Kroki, aby ustalić rozkład boczny, kiedy może być wystarczająco prosty, aby mieć postać analityczną?
Zapytano o to również w Computational Science. Próbuję obliczyć bayesowskie oszacowanie niektórych współczynników dla autoregresji, z 11 próbkami danych: gdzie jest Gaussa ze średnią 0 i wariancją Wcześniejszy rozkład na wektorze jest Gaussa ze średnią i ukośną macierzą kowariancji z wpisy ukośne równe .Yi=μ+α⋅Yi−1+ϵiYi=μ+α⋅Yi−1+ϵi Y_{i} = \mu + \alpha\cdot{}Y_{i-1} + …

2
W wnioskowaniu bayesowskim, dlaczego niektóre terminy są odrzucane z późniejszej predykcji?
W koniugacie Bayesa z analizą bayesowską Kevina Murphy'ego rozkładu Gaussa pisze, że tylna dystrybucja predykcyjna jest p(x∣D)=∫p(x∣θ)p(θ∣D)dθp(x∣D)=∫p(x∣θ)p(θ∣D)dθ p(x \mid D) = \int p(x \mid \theta) p(\theta \mid D) d \theta gdzie to dane, na których model jest dopasowany, a to dane niewidoczne. Nie rozumiem, dlaczego zależność od znika w pierwszym …

2
Czy właściwe wcześniejsze i potęgowane prawdopodobieństwo może prowadzić do niewłaściwej tylnej choroby?
(To pytanie jest inspirowana przez tego komentarza z Xi'an ). Dobrze wiadomo, że jeśli poprzednia dystrybucja jest właściwa, a prawdopodobieństwo jest dobrze określone, to rozkład tylny jest poprawne prawie na pewno.π(θ)π(θ)\pi(\theta)L(θ|x)L(θ|x)L(\theta | x)π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) W niektórych przypadkach używamy zamiast tego temperowanego lub potęgowanego prawdopodobieństwa, prowadzącego do pseudo-tylnej π~(θ|x)∝π(θ)L(θ|x)απ~(θ|x)∝π(θ)L(θ|x)α\tilde\pi(\theta|x)\propto \pi(\theta) …

2
Wyprowadzenie tylnej części normalnego życzenia
Pracuję nad wyprowadzeniem tylnej normalnej części życzeń, ale utknąłem przy jednym z parametrów (tylnej matrycy skali, patrz na dole). Tylko dla kontekstu i kompletności, oto model i pozostałe pochodne: xiμΛ∼N(μ,Λ)∼N(μ0,(κ0Λ)−1)∼W(υ0,W0)xi∼N(μ,Λ)μ∼N(μ0,(κ0Λ)−1)Λ∼W(υ0,W0)\begin{align} x_i &\sim \mathcal{N}(\boldsymbol{\mu}, \boldsymbol{\Lambda})\\ \boldsymbol{\mu} &\sim \mathcal{N}(\boldsymbol{\mu_0}, (\kappa_0 \boldsymbol{\Lambda})^{-1})\\ \boldsymbol{\Lambda} &\sim \mathcal{W}(\upsilon_0, \mathbf{W}_0) \end{align} Rozszerzone formy każdego z trzech czynników …

1
Przykład oceny maksymalnej a posteriori
Czytałem o oszacowaniu maksymalnego prawdopodobieństwa i oszacowaniu maksymalnego a posteriori i jak dotąd spotkałem się z konkretnymi przykładami tylko z oszacowaniem maksymalnego prawdopodobieństwa. Znalazłem kilka abstrakcyjnych przykładów maksymalnego oszacowania a posteriori, ale nic konkretnego jeszcze z liczbami: S. Może być bardzo przytłaczający, działa tylko z abstrakcyjnymi zmiennymi i funkcjami, a …

1
Kiedy rozkładu częstości próbkowania nie można interpretować jako bayesowskie a posteriori w ustawieniach regresji?
Moje aktualne pytania znajdują się w dwóch ostatnich akapitach, ale motywuję je: Jeśli próbuję oszacować średnią zmiennej losowej, która podąża za rozkładem normalnym ze znaną wariancją, przeczytałem, że umieszczenie munduru przed średnią skutkuje rozkładem tylnym, który jest proporcjonalny do funkcji prawdopodobieństwa. W takich sytuacjach wiarygodny przedział bayesowski idealnie pokrywa się …

2
Oceń tylny rozkład predykcyjny w regresji liniowej Bayesa
Jestem zdezorientowany, jak ocenić tylny rozkład predykcyjny dla regresji liniowej Bayesa, pomijając podstawowy przypadek opisany tutaj na stronie 3, i skopiowałem poniżej. p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y)p(y~∣y)=∫p(y~∣β,σ2)p(β,σ2∣y) p(\tilde y \mid y) = \int p(\tilde y \mid \beta, \sigma^2) p(\beta, \sigma^2 \mid y) Podstawowym przypadkiem jest ten model regresji liniowej: y=Xβ+ϵ,y∼N(Xβ,σ2)y=Xβ+ϵ,y∼N(Xβ,σ2) y = X \beta …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.