Prawdopodobieństwo wystąpienia zdarzenia A, gdy wiadomo, że wystąpiło lub miało miejsce inne zdarzenie B. Jest to powszechnie oznaczane przez P (A | B).
Podczas studiowania doboru kowariancji przeczytałem kiedyś następujący przykład. W odniesieniu do następującego modelu: Macierz kowariancji i odwrotna macierz kowariancji podano w następujący sposób: I nie rozumiem, dlaczego niezależności i decyduje odwrotnym kowariancji tutaj?yxxxyyy Jaka jest matematyczna logika leżąca u podstaw tego związku? Ponadto, wykres po lewej stronie na poniższym rysunku …
Zamknięte . To pytanie wymaga szczegółów lub jasności . Obecnie nie przyjmuje odpowiedzi. Chcesz poprawić to pytanie? Dodaj szczegóły i wyjaśnij problem, edytując ten post . Zamknięte 2 lata temu . Czytam Luce (1959) . Potem znalazłem to oświadczenie: Kiedy dana osoba wybiera między alternatywami, bardzo często jej reakcje wydają …
Chciałbym wiedzieć, jak poprawnie interpretować wykresy gęstości warunkowej. Włożenia dwa poniżej utworzonego w R z cdplot. Na przykład, czy prawdopodobieństwo, że Wynik będzie równy 1, gdy Var 1 wynosi 150, wynosi około 80%? Ciemnoszary obszar to takie, które jest warunkowym prawdopodobieństwem Resultbycia równym 1, prawda? Z cdplotdokumentacji: cdplot oblicza gęstości …
Powiedzmy, że robię 10 000 rzutów monetą. Chciałbym wiedzieć, ile razy potrzeba na przewrócenie 4 lub więcej kolejnych głów z rzędu. Liczba będzie działać w następujący sposób, policzysz jedną kolejną rundę przewrotów, które są tylko głowami (4 lub więcej głów). Gdy reszka uderza i łamie pasmo głów, liczenie zaczyna się …
Podczas uczenia sparametryzowanego modelu (np. W celu zmaksymalizowania prawdopodobieństwa) za pomocą stochastycznego spadku gradientowego na niektórych zbiorach danych, powszechnie przyjmuje się, że próbki szkoleniowe są pobierane z rozkładu danych szkoleniowych. Jeśli więc celem jest modelowanie wspólnego rozkładu , to każda próbka treningowa powinna zostać pobrana z tego rozkładu.( x i …
Jeśli kiedykolwiek zdarzyło się, że stało się to jasne, dotyczy problemu Monty Hall. Nawet wielki Paul Erdos dał się zwieść temu problemowi. Moje pytanie, na które odpowiedź może być trudna, brzmi: jakie jest prawdopodobieństwo, że możemy być tak pewni odpowiedzi, że dostaniemy intuicyjny argument, a mimo to będziemy w błędzie. …
Zastanawiam się, czy prawdopodobieństwa warunkowe są unikalne dla bayesianizmu, czy też są bardziej ogólną koncepcją podzielaną przez kilka szkół myślenia wśród statystów / osób prawdopodobieństwa. Zakładam, że tak jest, ponieważ zakładam, że nikt nie może jest w pewnym sensie logiczne, więc myślę, że częstokroć przynajmniej teoretycznie by się zgodził, ostrzegając …
Po pierwsze, muszę przyznać, że nie jestem tak dobrze zorientowany w statystyce i matematyce, jak bym chciał. Niektórzy mogą powiedzieć, że mają wystarczającą wiedzę, aby być niebezpiecznym. : DI przepraszam, jeśli nie używam terminologii poprawnie. Próbuję modelować prawdopodobieństwo przejścia systemu z jednego stanu do drugiego. Prosty model Markowa to dobry …
Próbuję uzyskać jaśniejszy intuicji tyle: „Jeśli sprawia bardziej prawdopodobne, następnie sprawia bardziej prawdopodobne”, czyliZAAAbBBbBBZAAA Niech oznaczają wielkość przestrzeni, w której i są, po czymn ( S)n(S)n(S)ZAAAbBB Twierdzenie: soP.( B | A ) > P( B )P(B|A)>P(B)P(B|A)>P(B)n ( A B ) / n ( A ) > n ( B ) …
Załóżmy, że chcemy obliczyć pewne oczekiwania: EYEX|Y[f(X,Y)]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Załóżmy, że chcemy to przybliżyć za pomocą symulacji Monte Carlo. EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) ALE załóżmy, że pobieranie próbek z obu rozkładów jest kosztowne, dlatego możemy sobie pozwolić tylko na narysowanie stałej liczby KKK. Jak powinniśmy przydzielić KKK? Przykłady obejmująK/2K/2K/2 losuje do każdego rozkładu, …
Biorąc pod uwagę, że , warunkowe rozbieżność. o jest . ma marginalne rozproszenie. Poissona ( ) jest dodatnią stałą.N=nN=nN = nYYYχ2(2n)χ2(2n)\chi ^2(2n)NNNθθ\thetaθθ\theta Pokaż, że jako , w rozkładzie.θ→∞θ→∞\theta \rightarrow \infty (Y−E(Y))/Var(Y)−−−−−−√→N(0,1) (Y−E(Y))/Var(Y)→N(0,1)\space \space (Y - E(Y))/ \sqrt{\operatorname{Var}(Y)} \rightarrow N(0,1) Czy ktoś mógłby zasugerować strategie rozwiązania tego problemu. Wygląda na to, …
W oryginalnej pracy pLSA autor, Thomas Hoffman, rysuje paralelę między strukturami danych pLSA i LSA, o których chciałbym z tobą porozmawiać. Tło: Czerpiąc inspirację z wyszukiwania informacji, załóżmy, że mamy kolekcję NNN dokumenty D={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., d_N \rbrace i słownictwo MMM warunki Ω={ω1,ω2,...,ωM}Ω={ω1,ω2,...,ωM}\Omega = \lbrace \omega_1, \omega_2, …
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.