Pytania otagowane jako conditional-probability

Prawdopodobieństwo wystąpienia zdarzenia A, gdy wiadomo, że wystąpiło lub miało miejsce inne zdarzenie B. Jest to powszechnie oznaczane przez P (A | B).

2
dotyczące niezależności warunkowej i jej reprezentacji graficznej
Podczas studiowania doboru kowariancji przeczytałem kiedyś następujący przykład. W odniesieniu do następującego modelu: Macierz kowariancji i odwrotna macierz kowariancji podano w następujący sposób: I nie rozumiem, dlaczego niezależności i decyduje odwrotnym kowariancji tutaj?yxxxyyy Jaka jest matematyczna logika leżąca u podstaw tego związku? Ponadto, wykres po lewej stronie na poniższym rysunku …

1
Aksjomat wyboru Luce, pytanie o prawdopodobieństwo warunkowe [zamknięte]
Zamknięte . To pytanie wymaga szczegółów lub jasności . Obecnie nie przyjmuje odpowiedzi. Chcesz poprawić to pytanie? Dodaj szczegóły i wyjaśnij problem, edytując ten post . Zamknięte 2 lata temu . Czytam Luce (1959) . Potem znalazłem to oświadczenie: Kiedy dana osoba wybiera między alternatywami, bardzo często jej reakcje wydają …

1
Interpretacja wykresów gęstości warunkowej
Chciałbym wiedzieć, jak poprawnie interpretować wykresy gęstości warunkowej. Włożenia dwa poniżej utworzonego w R z cdplot. Na przykład, czy prawdopodobieństwo, że Wynik będzie równy 1, gdy Var 1 wynosi 150, wynosi około 80%? Ciemnoszary obszar to takie, które jest warunkowym prawdopodobieństwem Resultbycia równym 1, prawda? Z cdplotdokumentacji: cdplot oblicza gęstości …


1
Czy model P (Y | X) można wytrenować za pomocą stochastycznego spadku gradientu z nie-iidowych próbek P (X) i iidowych próbek P (Y | X)?
Podczas uczenia sparametryzowanego modelu (np. W celu zmaksymalizowania prawdopodobieństwa) za pomocą stochastycznego spadku gradientowego na niektórych zbiorach danych, powszechnie przyjmuje się, że próbki szkoleniowe są pobierane z rozkładu danych szkoleniowych. Jeśli więc celem jest modelowanie wspólnego rozkładu , to każda próbka treningowa powinna zostać pobrana z tego rozkładu.( x i …


5
Prawdopodobieństwa warunkowe - czy są one unikalne dla bayesianizmu?
Zastanawiam się, czy prawdopodobieństwa warunkowe są unikalne dla bayesianizmu, czy też są bardziej ogólną koncepcją podzielaną przez kilka szkół myślenia wśród statystów / osób prawdopodobieństwa. Zakładam, że tak jest, ponieważ zakładam, że nikt nie może jest w pewnym sensie logiczne, więc myślę, że częstokroć przynajmniej teoretycznie by się zgodził, ostrzegając …

3
Modele Markowa z prawdopodobieństwami warunkowego przejścia
Po pierwsze, muszę przyznać, że nie jestem tak dobrze zorientowany w statystyce i matematyce, jak bym chciał. Niektórzy mogą powiedzieć, że mają wystarczającą wiedzę, aby być niebezpiecznym. : DI przepraszam, jeśli nie używam terminologii poprawnie. Próbuję modelować prawdopodobieństwo przejścia systemu z jednego stanu do drugiego. Prosty model Markowa to dobry …

13
Jeśli „B jest bardziej prawdopodobne, że otrzyma A”, to „A jest bardziej prawdopodobne, że otrzyma B”
Próbuję uzyskać jaśniejszy intuicji tyle: „Jeśli sprawia bardziej prawdopodobne, następnie sprawia bardziej prawdopodobne”, czyliZAAAbBBbBBZAAA Niech oznaczają wielkość przestrzeni, w której i są, po czymn ( S)n(S)n(S)ZAAAbBB Twierdzenie: soP.( B | A ) > P( B )P(B|A)>P(B)P(B|A)>P(B)n ( A B ) / n ( A ) > n ( B ) …

1
Jak optymalnie rozłożyć losowania przy obliczaniu wielu oczekiwań
Załóżmy, że chcemy obliczyć pewne oczekiwania: EYEX|Y[f(X,Y)]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Załóżmy, że chcemy to przybliżyć za pomocą symulacji Monte Carlo. EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) ALE załóżmy, że pobieranie próbek z obu rozkładów jest kosztowne, dlatego możemy sobie pozwolić tylko na narysowanie stałej liczby KKK. Jak powinniśmy przydzielić KKK? Przykłady obejmująK/2K/2K/2 losuje do każdego rozkładu, …

2
Konwergencja w dystrybucji \ CLT
Biorąc pod uwagę, że , warunkowe rozbieżność. o jest . ma marginalne rozproszenie. Poissona ( ) jest dodatnią stałą.N=nN=nN = nYYYχ2(2n)χ2(2n)\chi ^2(2n)NNNθθ\thetaθθ\theta Pokaż, że jako , w rozkładzie.θ→∞θ→∞\theta \rightarrow \infty (Y−E(Y))/Var(Y)−−−−−−√→N(0,1) (Y−E(Y))/Var⁡(Y)→N(0,1)\space \space (Y - E(Y))/ \sqrt{\operatorname{Var}(Y)} \rightarrow N(0,1) Czy ktoś mógłby zasugerować strategie rozwiązania tego problemu. Wygląda na to, …

1
Parellel między LSA i pLSA
W oryginalnej pracy pLSA autor, Thomas Hoffman, rysuje paralelę między strukturami danych pLSA i LSA, o których chciałbym z tobą porozmawiać. Tło: Czerpiąc inspirację z wyszukiwania informacji, załóżmy, że mamy kolekcję NNN dokumenty D={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., d_N \rbrace i słownictwo MMM warunki Ω={ω1,ω2,...,ωM}Ω={ω1,ω2,...,ωM}\Omega = \lbrace \omega_1, \omega_2, …

1
Jak porównać obserwowane i oczekiwane zdarzenia?
Załóżmy, że mam jedną próbkę częstotliwości 4 możliwych zdarzeń: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 i mam spodziewane prawdopodobieństwo wystąpienia moich zdarzeń: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Dzięki sumie obserwowanych częstotliwości moich czterech zdarzeń (18) mogę obliczyć …
9 r  statistical-significance  chi-squared  multivariate-analysis  exponential  joint-distribution  statistical-significance  self-study  standard-deviation  probability  normal-distribution  spss  interpretation  assumptions  cox-model  reporting  cox-model  statistical-significance  reliability  method-comparison  classification  boosting  ensemble  adaboost  confidence-interval  cross-validation  prediction  prediction-interval  regression  machine-learning  svm  regularization  regression  sampling  survey  probit  matlab  feature-selection  information-theory  mutual-information  time-series  forecasting  simulation  classification  boosting  ensemble  adaboost  normal-distribution  multivariate-analysis  covariance  gini  clustering  text-mining  distance-functions  information-retrieval  similarities  regression  logistic  stata  group-differences  r  anova  confidence-interval  repeated-measures  r  logistic  lme4-nlme  inference  fiducial  kalman-filter  classification  discriminant-analysis  linear-algebra  computing  statistical-significance  time-series  panel-data  missing-data  uncertainty  probability  multivariate-analysis  r  classification  spss  k-means  discriminant-analysis  poisson-distribution  average  r  random-forest  importance  probability  conditional-probability  distributions  standard-deviation  time-series  machine-learning  online  forecasting  r  pca  dataset  data-visualization  bayes  distributions  mathematical-statistics  degrees-of-freedom 

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.