Rutynowe ćwiczenie z podręcznika, kursu lub testu stosowane na zajęciach lub do samodzielnej nauki. Polityka tej społeczności polega na „udzielaniu pomocnych wskazówek” w przypadku takich pytań, a nie na udzielaniu pełnych odpowiedzi.
Jest to problem praktyczny podczas egzaminu śródokresowego. Problemem jest przykład algorytmu EM. Mam problem z częścią (f). Podaję części (a) - (e) do uzupełnienia i na wypadek, gdyby wcześniej popełniłem błąd. Niech będą niezależnymi wykładniczymi zmiennymi losowymi o współczynniku . Niestety rzeczywiste wartości nie są przestrzegane i obserwujemy tylko, czy …
Czytam „Przyczynowość” Judei Pearl (drugie wydanie 2009), aw sekcji 1.1.5 Warunkowa niezależność i grafoidy stwierdza: Poniżej znajduje się (częściowa) lista właściwości spełnianych przez warunkową zależność niezależności (X_ || _Y | Z). Symetria: (X_ || _ Y | Z) ==> (Y_ || _X | Z). Rozkład: (X_ || _ YW | …
Biorąc pod uwagę, że , warunkowe rozbieżność. o jest . ma marginalne rozproszenie. Poissona ( ) jest dodatnią stałą.N=nN=nN = nYYYχ2(2n)χ2(2n)\chi ^2(2n)NNNθθ\thetaθθ\theta Pokaż, że jako , w rozkładzie.θ→∞θ→∞\theta \rightarrow \infty (Y−E(Y))/Var(Y)−−−−−−√→N(0,1) (Y−E(Y))/Var(Y)→N(0,1)\space \space (Y - E(Y))/ \sqrt{\operatorname{Var}(Y)} \rightarrow N(0,1) Czy ktoś mógłby zasugerować strategie rozwiązania tego problemu. Wygląda na to, …
Niech będą odrębnymi obserwacjami (bez powiązań). Niech oznacza próbkę bootstrap (próbka z empirycznego CDF) i niech . Znajdź i .X1,...,XnX1,...,XnX_{1},...,X_{n}X∗1,...,X∗nX1∗,...,Xn∗X_{1}^{*},...,X_{n}^{*}X¯∗n=1n∑ni=1X∗iX¯n∗=1n∑i=1nXi∗\bar{X}_{n}^{*}=\frac{1}{n}\sum_{i=1}^{n}X_{i}^{*}E(X¯∗n)E(X¯n∗)E(\bar{X}_{n}^{*})Var(X¯∗n)Var(X¯n∗)\mathrm{Var}(\bar{X}_{n}^{*}) Do tej pory mam to, że to każdy z prawdopodobieństwem więc i co daje X∗iXi∗X_{i}^{*}X1,...,XnX1,...,XnX_{1},...,X_{n}1n1n\frac{1}{n}E(X∗i)=1nE(X1)+...+1nE(Xn)=nμn=μE(Xi∗)=1nE(X1)+...+1nE(Xn)=nμn=μ E(X_{i}^{*})=\frac{1}{n}E(X_{1})+...+\frac{1}{n}E(X_{n})=\frac{n\mu}{n}=\mu E(X∗2i)=1nE(X21)+...+1nE(X2n)=n(μ2+σ2)n=μ2+σ2,E(Xi∗2)=1nE(X12)+...+1nE(Xn2)=n(μ2+σ2)n=μ2+σ2,E(X_{i}^{*2})=\frac{1}{n}E(X_{1}^{2})+...+\frac{1}{n}E(X_{n}^{2})=\frac{n(\mu^{2}+\sigma^{2})}{n}=\mu^{2}+\sigma^{2}\>, Var(X∗i)=E(X∗2i)−(E(X∗i))2=μ2+σ2−μ2=σ2.Var(Xi∗)=E(Xi∗2)−(E(Xi∗))2=μ2+σ2−μ2=σ2. \mathrm{Var}(X_{i}^{*})=E(X_{i}^{*2})-(E(X_{i}^{*}))^{2}=\mu^{2}+\sigma^{2}-\mu^{2}=\sigma^{2} \>. Następnie and od ' są niezależne. To dajeE(X¯∗n)=E(1n∑i=1nX∗i)=1n∑i=1nE(X∗i)=nμn=μE(X¯n∗)=E(1n∑i=1nXi∗)=1n∑i=1nE(Xi∗)=nμn=μE(\bar{X}_{n}^{*})=E(\frac{1}{n}\sum_{i=1}^{n}X_{i}^{*})=\frac{1}{n}\sum_{i=1}^{n}E(X_{i}^{*})=\frac{n\mu}{n}=\mu Var(X¯∗n)=Var(1n∑i=1nX∗i)=1n2∑i=1nVar(X∗i)Var(X¯n∗)=Var(1n∑i=1nXi∗)=1n2∑i=1nVar(Xi∗) \mathrm{Var}(\bar{X}_{n}^{*})=\mathrm{Var}(\frac{1}{n}\sum_{i=1}^{n}X_{i}^{*})=\frac{1}{n^{2}}\sum_{i=1}^{n}\mathrm{Var}(X_{i}^{*})X∗iXi∗X_{i}^{*}Var(X¯∗n)=nσ2n2=σ2nVar(X¯n∗)=nσ2n2=σ2n\mathrm{Var}(\bar{X}_{n}^{*})=\frac{n\sigma^{2}}{n^{2}}=\frac{\sigma^{2}}{n} …
Przygotowuję się do rozmowy kwalifikacyjnej, która wymaga przyzwoitej wiedzy na temat podstawowego prawdopodobieństwa (przynajmniej aby przejść przez sam wywiad). Pracuję nad poniższym arkuszem z moich dni studenckich jako wersją. W większości było to dość proste, ale jestem całkowicie zaskoczony pytaniem 12. http://www.trin.cam.ac.uk/dpk10/IA/exsheet2.pdf Każda pomoc będzie mile widziana. Edycja: pytanie brzmi: …
Wiem, że to pytanie zostało zadane wcześniej: Podręcznik do badań ekologicznych, ale nie tego szukam. To, czego szukam, to czy ktoś mógłby polecić dobrą książkę (lub odniesienie kanoniczne) na temat ekologii statystycznej? Bardzo dobrze rozumiem statystyki, więc książka mogłaby naprawdę być na każdym poziomie. Korzystałbym z tej książki, aby nauczyć …
Czy to prawda, że przy założeniach Gaussa Markowa zwykła metoda najmniejszych kwadratów daje wydajne i obiektywne estymatory? Więc: mi(ut) = 0mi(ut)=0E(u_t)=0 dla wszystkich ttt mi(utus) =σ2)mi(utus)=σ2)E(u_tu_s)=\sigma^2 dlat = st=st=s mi(utus) = 0mi(utus)=0E(u_tu_s)=0 dlat ≠ st≠st\neq s gdzie są resztkami.uuu
Czytam tekst „Statystyka matematyczna i analiza danych” Johna Rice'a. Zależy nam na przybliżeniu oczekiwanej wartości i wariancji zmiennej losowejYYY. Jesteśmy w stanie obliczyć oczekiwaną wartość i wariancję zmiennej losowej i znamy zależność . Tak więc możliwe jest przybliżenie oczekiwanej wartości i wariancji za pomocą rozszerzenia serii Taylora około .XXXY=g(X)Y=g(X)Y = …
Próbuję rozwiązać problem regresji najmniejszego kąta (LAR). Jest to problem, 3,23 , na stronie 97 w Hastie wsp. Elementy Statistical Learning, 2nd. wyd. (Piąty druk) . Rozważ problem regresji ze wszystkimi zmiennymi i odpowiedzią mającą średnie zero i odchylenie standardowe jeden. Załóżmy również, że każda zmienna ma identyczną absolutną korelację …
Mam więc 16 prób, w których próbuję uwierzytelnić osobę z cechy biometrycznej za pomocą Hamminga. Mój próg jest ustawiony na 3,5. Moje dane są poniżej i tylko próba 1 jest prawdziwie pozytywna: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 …
Jak mówi tytuł, szukam krańcowych gęstościf(x,y)=c1−x2−y2−−−−−−−−−√,x2+y2≤1.f(x,y)=c1−x2−y2,x2+y2≤1.f (x,y) = c \sqrt{1 - x^2 - y^2}, x^2 + y^2 \leq 1. Do tej pory znalazłem to . Doszedłem do tego, przekształcając we współrzędne biegunowe i całkując nad , dlatego utknąłem w części gęstości marginalnej. Wiem, że , ale nie jestem pewien, jak …
Jest problem ze statystykami, niestety nie mam pojęcia, od czego zacząć (studiuję sam, więc nie ma nikogo, kogo mogę zapytać, jeśli czegoś nie rozumiem. Pytanie brzmi X,YX,YX,Y iidN(a,b2);a=0;b2=6;var(X2+Y2)=?N.(za,b2));za=0;b2)=6;vzar(X2)+Y2))=?N(a,b^2); a=0; b^2=6; var(X^2+Y^2)=?
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.