Pytania otagowane jako self-study

Rutynowe ćwiczenie z podręcznika, kursu lub testu stosowane na zajęciach lub do samodzielnej nauki. Polityka tej społeczności polega na „udzielaniu pomocnych wskazówek” w przypadku takich pytań, a nie na udzielaniu pełnych odpowiedzi.

1
Pytanie związane z Borel-Cantelli Lemma
Uwaga: Borel-Cantelli Lemma tak mówi ∑n=1∞P(An)<∞⇒P(limsupAn)=0∑n=1∞P(An)<∞⇒P(limsupAn)=0\sum_{n=1}^\infty P(A_n) \lt \infty \Rightarrow P(\lim\sup A_n)=0 ∑n=1∞P(An)=∞ and An's are independent⇒P(limsupAn)=1∑n=1∞P(An)=∞ and An's are independent⇒P(limsupAn)=1\sum_{n=1}^\infty P(A_n) =\infty \textrm{ and } A_n\textrm{'s are independent} \Rightarrow P(\lim\sup A_n)=1 Następnie, jeśli ∑n=1∞P(AnAcn+1)<∞∑n=1∞P(AnAn+1c)<∞\sum_{n=1}^\infty P(A_nA_{n+1}^c )\lt \infty za pomocą Borel-Cantelli Lemma Chcę to pokazać po pierwsze, limn→∞P(An)limn→∞P(An)\lim_{n\to \infty}P(A_n)Istnieje \ …

1
Dlaczego lm () R zwraca inne współczynniki niż mój podręcznik?
tło Próbuję zrozumieć pierwszy przykład w kursie na temat dopasowywania modeli (więc może się to wydawać absurdalnie proste). Obliczenia wykonałem ręcznie i pasują one do przykładu, ale kiedy powtórzę je w R, współczynniki modelu są wyłączone. Myślałem, że różnica może wynikać z tego, że podręcznik używa wariancji populacji ( ), …
13 r  regression  self-study  lm 

1
MLE parametru lokalizacji w rozkładzie Cauchy'ego
Po wycentrowaniu można przyjąć , że dwa pomiary x i −x są niezależnymi obserwacjami z rozkładu Cauchy'ego z funkcją gęstości prawdopodobieństwa: 1f(x:θ)=f(x:θ)=f(x :\theta) = ,-∞&lt;x&lt;∞1π(1+(x−θ)2)1π(1+(x−θ)2)1\over\pi (1+(x-\theta)^2) ,−∞&lt;x&lt;∞,−∞&lt;x&lt;∞, -∞ < x < ∞ Pokaż, że jeśli x2≤1x2≤1x^2≤ 1 MLE z θθ\theta wynosi 0, ale jeśli x2&gt;1x2&gt;1x^2>1 , są dwa MLE z …


1
Czy mediana-bezstronna Just-Identified 2SLS?
W „W większości nieszkodliwych ekonometriach: towarzysz empirysty” (Angrist i Pischke, 2009: strona 209) czytam: (...) W rzeczywistości właśnie zidentyfikowana 2SLS (powiedzmy, prosty estymator Wald) jest w przybliżeniu bezstronna . Jest to trudne do formalnego wykazania, ponieważ właśnie zidentyfikowana 2SLS nie ma momentów (tj. Rozkład próbkowania ma ogony tłuszczu). Niemniej jednak, …

1
Łącznie uzupełnij wystarczające statystyki: jednolite (a, b)
Niech X=(x1,x2,…xn)X=(x1,x2,…xn)\mathbf{X}= (x_1, x_2, \dots x_n) będzie próbką losową z rozkładu jednolitego na (a,b)(a,b)(a,b) , gdzie a&lt;ba&lt;ba < b . Niech Y1Y1Y_1 i YnYnY_n będą największymi i najmniejszymi statystykami rzędu. Pokaż, że statystyka (Y1,Yn)(Y1,Yn)(Y_1, Y_n) jest łącznie kompletną wystarczającą statystyką dla parametru θ=(a,b)θ=(a,b)\theta = (a, b). Nie jest dla mnie …




1
Czy generalnie wnioskowanie jest trudniejsze niż przewidywanie?
Moje pytanie pochodzi z następującego faktu. Czytam posty, blogi, wykłady oraz książki na temat uczenia maszynowego. Mam wrażenie, że praktycy uczenia maszynowego wydają się być obojętni na wiele rzeczy, którymi interesują się statystyki / ekonometria. W szczególności praktycy uczenia maszynowego kładą nacisk na dokładność przewidywania w porównaniu do wnioskowania. Jeden …

5
gdy i niezależnie
XXX i są niezależnie losowymi zmiennymi losowymi, gdzie i . Jaki jest rozkład ?YYYX∼χ2(n−1)X∼χ(n−1)2X\sim\chi^2_{(n-1)}Y∼Beta(n2−1,n2−1)Y∼Beta(n2−1,n2−1)Y\sim\text{Beta}\left(\frac{n}{2}-1,\frac{n}{2}-1\right)Z=(2Y−1)X−−√Z=(2Y−1)XZ=(2Y-1)\sqrt X Łączną gęstość podaje:(X,Y)(X,Y)(X,Y) fX,Y(x,y)=fX(x)fY(y)=e−x2xn−12−12n−12Γ(n−12)⋅yn2−2(1−y)n2−2B(n2−1,n2−1)1{x&gt;0,0&lt;y&lt;1}fX,Y(x,y)=fX(x)fY(y)=e−x2xn−12−12n−12Γ(n−12)⋅yn2−2(1−y)n2−2B(n2−1,n2−1)1{x&gt;0,0&lt;y&lt;1}f_{X,Y}(x,y)=f_X(x)f_Y(y)=\frac{e^{-\frac{x}{2}}x^{\frac{n-1}{2}-1}}{2^{\frac{n-1}{2}}\Gamma\left(\frac{n-1}{2}\right)}\cdot\frac{y^{\frac{n}{2}-2}(1-y)^{\frac{n}{2}-2}}{B\left(\frac{n}{2}-1,\frac{n}{2}-1\right)}\mathbf1_{\{x>0\,,\,00\,,\,|z|<w\}} Marginalna pdf to , co nigdzie mnie nie prowadzi.f Z ( z ) = ∫ ∞ | z | f Z , W ( z , w )ZZZfZ(z)=∫∞|z|fZ,W(z,w)dwfZ(z)=∫|z|∞fZ,W(z,w)dwf_Z(z)=\displaystyle\int_{|z|}^\infty f_{Z,W}(z,w)\,\mathrm{d}w Ponownie, znajdując …

2
Co to są prawidłowości i regularyzacja?
Coraz częściej słyszę te słowa, ucząc się uczenia maszynowego. W rzeczywistości niektórzy ludzie zdobyli medal Fieldsa, pracując nad prawidłowością równań. Sądzę więc, że jest to termin, który przenosi się z fizyki statystycznej / matematyki na uczenie maszynowe. Oczywiście wiele osób, o które pytałem, nie mogło tego intuicyjnie wyjaśnić. Wiem, że …


2
Jak obliczyć wagi kryterium Fishera?
Studiuję rozpoznawanie wzorców i uczenie maszynowe i natrafiłem na następujące pytanie. Rozważ problem z klasyfikacją dwóch klas z jednakowym prawdopodobieństwem wcześniejszej klasyP(D1)=P(D2)=12P(D1)=P(D2)=12P(D_1)=P(D_2)= \frac{1}{2} oraz rozkład instancji w każdej klasie podany przez p(x|D1)=N([00],[2001]),p(x|D1)=N([00],[2001]), p(x|D_1)= {\cal N} \left( \begin{bmatrix} 0 \\0 \end{bmatrix}, \begin{bmatrix} 2 & 0 \\ 0 & 1 \end{bmatrix} \right), …

2
Jak znaleźć gdy jest funkcją gęstości prawdopodobieństwa?
Jak mogę to rozwiązać? Potrzebuję równań pośrednich. Być może odpowiedź brzmi .−tf(x)−tf(x)-tf(x) ddt[∫∞txf(x)dx]ddt[∫t∞xf(x)dx] \frac{d}{dt} \left [\int_t^\infty xf(x)\,dx \right ] f(x)f(x)f(x) to funkcja gęstości prawdopodobieństwa. To znaczy, i \ lim \ limit_ {x \ to \ infty} F (x) = 1limx→∞f(x)=0limx→∞f(x)=0\lim\limits_{x \to \infty} f(x) = 0limx→∞F(x)=1limx→∞F(x)=1\lim\limits_{x \to \infty} F(x) = 1 …

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.