Pytania otagowane jako bayesian

Wnioskowanie bayesowskie jest metodą wnioskowania statystycznego, która polega na traktowaniu parametrów modelu jako zmiennych losowych i zastosowaniu twierdzenia Bayesa do wyprowadzenia subiektywnych stwierdzeń prawdopodobieństwa dotyczących parametrów lub hipotez, w zależności od obserwowanego zestawu danych.


1
Co to są kontrole predykcyjne późniejsze i co czyni je przydatnymi?
Rozumiem, czym jest tylna dystrybucja predykcyjna i czytałem o późniejszych kontrolach predykcyjnych , chociaż dla mnie nie jest jeszcze jasne, co robi. Czym dokładnie jest tylna kontrola predykcyjna? Dlaczego niektórzy autorzy twierdzą, że przeprowadzanie późniejszych kontroli predykcyjnych „wykorzystuje dane dwukrotnie” i nie powinno być nadużywane? (a nawet, że nie jest …

8
Czy powinienem najpierw uczyć statystyki bayesowskiej czy częstokrzyskiej?
Pomagam moim chłopcom, obecnie w szkole średniej, w zrozumieniu statystyk i zastanawiam się nad kilkoma prostymi przykładami, nie zapominając o przebłyskach teorii. Moim celem byłoby zaproponowanie im najbardziej intuicyjnego, ale instrumentalnie konstruktywnego podejścia do nauki statystyk od zera, aby wzbudzić ich zainteresowanie dalszą nauką statystyki i nauką ilościową. Zanim jednak …

6
Czym byłby solidny model bayesowski do szacowania skali mniej więcej normalnego rozkładu?
Istnieje wiele niezawodnych estymatorów skali . Godnym uwagi przykładem jest mediana bezwzględnego odchylenia, które odnosi się do odchylenia standardowego jako σ=MAD⋅1.4826σ=MAD⋅1.4826\sigma = \mathrm{MAD}\cdot1.4826 . W ramach bayesowskich istnieje wiele sposobów dokładnego oszacowania lokalizacji mniej więcej normalnej dystrybucji (powiedzmy normalnej zanieczyszczonej wartościami odstającymi), na przykład można założyć, że dane są dystrybuowane …

5
Co przedziały ufności mówią o precyzji (jeśli w ogóle)?
Morey i in. (2015) twierdzą, że przedziały ufności są mylące i istnieje wiele błędów związanych z ich zrozumieniem. Między innymi opisują błąd precyzji jako: Błąd Precyzji Szerokość przedziału ufności wskazuje na dokładność naszej wiedzy o parametrze. Wąskie przedziały ufności pokazują dokładną wiedzę, a szerokie błędy ufności pokazują nieprecyzyjną wiedzę. Nie …

3
Odrzucenie opartej na entropii paradoksu czasu Bayesa do tyłu Shaliziego?
W tym artykule utalentowany badacz Cosma Shalizi przekonuje, że aby w pełni zaakceptować subiektywny pogląd bayesowski, należy również zaakceptować niefizyczny wynik, że strzałka czasu (podana przez przepływ entropii) powinna faktycznie cofnąć się . Jest to głównie próba argumentacji przeciwko maksymalnemu entropii / w pełni subiektywnemu poglądowi Bayesa przedstawionemu i spopularyzowanemu …

6
Jeśli przed wiarygodnym przedziałem czasowym jest płaski, czy 95% przedział ufności jest równy 95% przedziałowi wiarygodności?
Jestem bardzo nowy w statystykach bayesowskich i może to być głupie pytanie. Niemniej jednak: Rozważ wiarygodny interwał z uprzednim, który określa jednolity rozkład. Na przykład od 0 do 1, gdzie 0 do 1 reprezentuje pełny zakres możliwych wartości efektu. Czy w takim przypadku 95% przedział wiarygodności byłby równy 95% przedziałowi …

2
Dlaczego powinniśmy używać błędów t zamiast zwykłych błędów?
W tym poście na blogu Andrew Gelmana znajduje się następujący fragment: Modele bayesowskie sprzed 50 lat wydają się beznadziejnie proste (z wyjątkiem, oczywiście, prostych problemów) i spodziewam się, że modele bayesowskie będą wydawać się beznadziejnie proste, za 50 lat. (Dla prostego przykładu: prawdopodobnie powinniśmy rutynowo używać t zamiast zwykłych błędów …

5
Jak radzić sobie z hierarchicznymi / zagnieżdżonymi danymi w uczeniu maszynowym
Wyjaśnię mój problem na przykładzie. Załóżmy, że chcesz przewidzieć dochód danej osoby na podstawie niektórych atrybutów: {Wiek, płeć, kraj, region, miasto}. Masz taki zestaw danych szkoleniowych train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, 37,41,31,50), Gender=factor(c("M","F","M","F", "M","F","M","F", "F","F","F","M")), Income=c(31,42,71,65, 50,51,101,38, 47,50,55,23)) train CountryID RegionID CityID …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

3
Jakiego rodzaju informacjami są informacje Fishera?
Załóżmy, że mamy losową zmienną . Jeśli jest parametrem prawdziwym, funkcja prawdopodobieństwa powinna być zmaksymalizowana, a pochodna równa zero. Jest to podstawowa zasada leżąca u podstaw estymatora maksymalnego prawdopodobieństwa.X∼ f( x | θ )X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Jak rozumiem, informacje Fishera są zdefiniowane jako ja( θ ) = E [ ( …

2
Różnica między naiwnymi Bayesami a wielomianowymi naiwnymi Bayesami
Wcześniej miałem do czynienia z klasyfikatorem Naive Bayes . Czytałem ostatnio o Multinomial Naive Bayes . Również prawdopodobieństwo późniejsze = (wcześniejsze * prawdopodobieństwo) / (dowód) . Jedyną podstawową różnicą (podczas programowania tych klasyfikatorów), którą znalazłem między Naive Bayes i Multinomial Naive Bayes, jest to, że Wielomian Naive Bayes oblicza prawdopodobieństwo, …


3
R: Losowy las wyrzucający NaN / Inf w błędzie „wywołanie funkcji zagranicznej” pomimo braku NaN w zbiorze danych [zamknięte]
Zamknięte. To pytanie jest nie na temat . Obecnie nie przyjmuje odpowiedzi. Chcesz poprawić to pytanie? Zaktualizuj pytanie, aby było tematem dotyczącym weryfikacji krzyżowej. Zamknięte 2 lata temu . Używam karetki, aby uruchomić sprawdzony krzyżowo losowy las w zbiorze danych. Zmienna Y jest czynnikiem. W moim zestawie danych nie ma …

2
Czy Statistics.com opublikowało złą odpowiedź?
Statistics.com opublikowało problem tygodnia: Wskaźnik oszustw związanych z ubezpieczeniami mieszkaniowymi wynosi 10% (jedno na dziesięć roszczeń jest nieuczciwe). Konsultant zaproponował system uczenia maszynowego do przeglądu roszczeń i zaklasyfikowania ich jako oszustwo lub zakaz oszustwa. System jest w 90% skuteczny w wykrywaniu fałszywych roszczeń, ale tylko w 80% skuteczny w prawidłowej …


Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.