Pytania otagowane jako dirichlet-distribution

Rozkład Dirichleta odnosi się do rodziny rozkładów wielowymiarowych, które są uogólnieniem jednowymiarowego rozkładu beta.

3
Przykład: regresja LASSO z użyciem glmnet dla wyniku binarnego
Zaczynam bawić sięglmnet za pomocą regresji LASSO, gdzie moje wyniki zainteresowania są dychotomiczne. Poniżej utworzyłem małą próbną ramkę danych: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


2
Czym dokładnie jest alfa w rozkładzie Dirichleta?
Jestem całkiem nowy w statystyce bayesowskiej i natrafiłem na poprawioną miarę korelacji, SparCC , która wykorzystuje proces Dirichleta w backendie tego algorytmu. Próbowałem przejść przez algorytm krok po kroku, aby naprawdę zrozumieć, co się dzieje, ale nie jestem pewien, co dokładnie alpharobi parametr wektorowy w rozkładzie Dirichleta i jak normalizuje …

2
Rysunek z rozkładu Dirichleta
Załóżmy, że mamy rozkład Dirichleta z parametrem wektora wymiarowego . Jak narysować próbkę ( wektor wymiarowy) z tego rozkładu? Potrzebuję (możliwie) prostego wyjaśnienia.KKKα⃗ =[α1,α2,...,αK]α→=[α1,α2,...,αK]\vec\alpha = [\alpha_1, \alpha_2,...,\alpha_K]KKK

1
Czy wielomian (1 / n,…, 1 / n) można scharakteryzować jako dyskretny Dirichlet (1, .., 1)?
To pytanie jest nieco niechlujne, ale w celu uzupełnienia tego uwzględnię kolorowe wykresy! Najpierw tło, a następnie pytanie. tło Załóżmy, że masz wymiarowy rozkład wielomianowy z jednakowymi probailitami w kategoriach . Niech będzie znormalizowanymi ( ) z tego rozkładu, to znaczy:nnnnnnπ=(π1,…,πn)π=(π1,…,πn)\pi = (\pi_1, \ldots, \pi_n)ccc (c1,…,cn)∼Multinomial(1/n,…,1/n)πi=cin(c1,…,cn)∼Multinomial(1/n,…,1/n)πi=cin(c_1, \ldots, c_n) \sim \text{Multinomial}(1/n, …

3
Rozkład największego fragmentu złamanego patyka (odstępy)
Niech patyk o długości 1 zostanie podzielony losowo na fragmenty równomiernie. Jaki jest rozkład długości najdłuższego fragmentu?k+1k+1k+1 Bardziej formalnie, niech będzie IID , i niech będą powiązanymi statystykami zamówień, tzn. Po prostu zamawiamy próbka w taki sposób, że . Niech .(U1,…Uk)(U1,…Uk)(U_1, \ldots U_k)U(0,1)U(0,1)U(0,1)(U(1),…,U(k))(U(1),…,U(k))(U_{(1)}, \ldots, U_{(k)})U(1)≤U(2)≤,…,≤U(k)U(1)≤U(2)≤,…,≤U(k)U_{(1)} \leq U_{(2)} \leq, \ldots , …

1
Konstrukcja dystrybucji Dirichleta z dystrybucją Gamma
Niech X1,…,Xk+1X1,…,Xk+1X_1,\dots,X_{k+1} będą wzajemnie niezależnymi zmiennymi losowymi, z których każda ma rozkład gamma o parametrach αi,i=1,2,…,k+1αi,i=1,2,…,k+1\alpha_i,i=1,2,\dots,k+1 pokazują, że Yi=XiX1+⋯+Xk+1,i=1,…,kYi=XiX1+⋯+Xk+1,i=1,…,kY_i=\frac{X_i}{X_1+\cdots+X_{k+1}},i=1,\dots,k, mają wspólny podział jakoDirichlet(α1,α2,…,αk;αk+1)Dirichlet(α1,α2,…,αk;αk+1)\text{Dirichlet}(\alpha_1,\alpha_2,\dots,\alpha_k;\alpha_{k+1}) Wspólne pdf (X1,…,Xk+1)=e−∑k+1i=1xixα1−11…xαk+1−1k+1Γ(α1)Γ(α2)…Γ(αk+1)(X1,…,Xk+1)=e−∑i=1k+1xix1α1−1…xk+1αk+1−1Γ(α1)Γ(α2)…Γ(αk+1)(X_1,\dots,X_{k+1})=\frac{e^{-\sum_{i=1}^{k+1}x_i}x_1^{\alpha_1-1}\dots x_{k+1}^{\alpha_{k+1}-1}}{\Gamma(\alpha_1)\Gamma(\alpha_2)\dots \Gamma(\alpha_{k+1})} Następnie, aby znaleźć wspólne pdf(Y1,…,Yk+1)(Y1,…,Yk+1)(Y_1,\dots,Y_{k+1})nie mogę znaleźć jakobiańskiego tj.J(x1,…,xk+1y1,…,yk+1)J(x1,…,xk+1y1,…,yk+1)J(\frac{x_1,\dots,x_{k+1}}{y_1,\dots,y_{k+1}})

1
Parametry wejściowe do użycia ukrytego przydziału Dirichleta
Podczas korzystania z modelowania tematów (Latent Dirichlet Allocation) liczba tematów jest parametrem wejściowym, który użytkownik musi określić. Wydaje mi się, że powinniśmy również dostarczyć zbiór kandydujących zestawów tematów, z którymi proces Dirichleta musi próbkować? Czy moje rozumowanie jest prawidłowe? W praktyce, jak skonfigurować tego rodzaju zestaw tematów kandydujących?

3
Dlaczego nikt nie korzysta z bayesowskiego wielomianowego klasyfikatora Naive Bayes?
Tak więc w (nienadzorowanym) modelowaniu tekstu Latent Dirichlet Allocation (LDA) to bayesowska wersja probabilistycznej latentnej analizy semantycznej (PLSA). Zasadniczo LDA = PLSA + Dirichlet przed jego parametrami. Rozumiem, że LDA jest teraz algorytmem referencyjnym i jest zaimplementowany w różnych pakietach, podczas gdy PLSA nie powinna już być używana. Ale w …

1
Jaka jest oczekiwana wartość zmodyfikowanego rozkładu Dirichleta? (problem z integracją)
Łatwo jest stworzyć zmienną losową z rozkładem Dirichleta przy użyciu zmiennych Gamma o tym samym parametrze skali. Gdyby: Xi∼Gamma(αi,β)Xi∼Gamma(αi,β) X_i \sim \text{Gamma}(\alpha_i, \beta) Następnie: (X1∑jXj,…,Xn∑jXj)∼Dirichlet(α1,…,αn)(X1∑jXj,…,Xn∑jXj)∼Dirichlet(α1,…,αn) \left(\frac{X_1}{\sum_j X_j},\; \ldots\; , \frac{X_n}{\sum_j X_j}\right) \sim \text{Dirichlet}(\alpha_1,\;\ldots\;,\alpha_n) Problem Co się stanie, jeśli parametry skali nie będą równe? Xi∼Gamma(αi,βi)Xi∼Gamma(αi,βi) X_i \sim \text{Gamma}(\alpha_i, \beta_i) Więc jaki …

2
Wygładzanie Laplace'a i Dirichleta wcześniej
W artykule na Wikipedii o wygładzaniu Laplace'a (lub wygładzaniu addytywnym) mówi się, że z bayesowskiego punktu widzenia odpowiada to oczekiwanej wartości rozkładu tylnego przy użyciu symetrycznego rozkładu Dirichleta z parametrem jako wcześniejszym.αα\alpha Zastanawiam się, jak to w rzeczywistości jest prawdą. Czy ktoś mógłby mi pomóc zrozumieć, w jaki sposób te …

1
Dirichlet posterior
Mam pytanie dotyczące tylnej dystrybucji Dirichleta. Biorąc pod uwagę wielomianu funkcję wiarogodności Wiadomo, że tylny jest , gdzie jest kilka razy widzieliśmy spostrzeżenie.N I i T hD i r ( αja+ Nja)Dir(αi+Ni)Dir({\alpha_i + N_i})N.jaNiN_ijat godzithi^{th} Co się stanie, jeśli zaczniemy zmniejszać dla danych stałych ? Z formy tylnej wydaje się, …

3
Model wielomianowy-Dirichleta z rozkładem hiperpriorów na parametry stężenia
Postaram się opisać problem tak ogólnie, jak to możliwe. Modeluję obserwacje jako rozkład kategoryczny z parametrem wektor prawdopodobieństwa theta. Następnie zakładam, że wektor parametrów theta podąża za rozkładem Dirichleta z parametrami α1,α2,…,αkα1,α2,…,αk\alpha_1,\alpha_2,\ldots,\alpha_k . Czy można zatem narzucić również rozkład hiperpriorów na parametry α1,α2,…,αkα1,α2,…,αk\alpha_1,\alpha_2,\ldots,\alpha_k ? Czy będzie to rozkład wielowymiarowy, taki …

2
Cel hałasu Dirichleta w pracy AlphaZero
W dokumentach AlphaGo Zero i AlphaZero DeepMind opisują dodawanie szumu Dirichleta do wcześniejszych prawdopodobieństw działań z węzła głównego (stanu płyty) w wyszukiwaniu drzewa Monte Carlo: Dodatkową eksplorację osiąga się, dodając szum Dirichleta do wcześniejszych prawdopodobieństw w węźle głównym s0s0s_0, konkretnie P.( s , a ) = ( 1 - ε …

1
Co to znaczy całkowanie na podstawie losowej miary?
Obecnie patrzę na artykuł z modelu efektów losowych procesu Dirichleta, a jego specyfikacja jest następująca: gdzie jest parametrem skali a jest miarą podstawową. W dalszej części artykułu sugeruje, że zintegrujemy funkcję nad miarą podstawową taką jak Czy podstawową miarą w procesie Dirichleta jest cdf, czy jest to pdf? Co się …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.