Obecnie próbuje symulować wartościami -wymiarowej zmiennej losowej , który ma wielowymiarowego rozkładu normalnego o średniej wektor i macierzy kowariancji .X μ = ( μ 1 , . . . , Μ N ) T SNNNXXXμ=(μ1,...,μN)Tμ=(μ1,...,μN)T\mu = (\mu_1,...,\mu_N)^TSSS Mam nadzieję, że do korzystania z procedury podobnej do metody odwrotność CDF, co …
Napisałem kod, który potrafi filtrować Kalmana (używając wielu różnych filtrów typu Kalmana [Information Filter i in.]) Dla liniowej analizy przestrzeni stanu gaussowskiego dla n-wymiarowego wektora stanu. Filtry działają świetnie i otrzymuję niezłą wydajność. Jednak oszacowanie parametru za pomocą oszacowania wiarygodności logicznej mnie dezorientuje. Nie jestem statystykiem, ale fizykiem, więc proszę …
Widocznie, analiza Fishera ma jednocześnie na celu maksymalizację rozdziału między klasami, przy jednoczesnym zminimalizowaniu dyspersji wewnątrz klasy. Przydatną miarą mocy dyskryminacyjnej zmiennej jest zatem wielkość przekątna: .bja ja/ Wja jaBii/WiiB_{ii}/W_{ii} http://root.cern.ch/root/htmldoc/TMVA__MethodFisher.html I rozumieć, że wielkość ( p x p) z Między ( B ), a W klasie ( W ) …
Jakie są zalety i wady korzystania z LARS [1] w porównaniu ze stosowaniem opadania współrzędnych w celu dopasowania regresji liniowej regulowanej przez L1? Interesują mnie głównie aspekty wydajności (moje problemy występują zwykle Nw setkach tysięcy i p<20). Jednak wszelkie inne spostrzeżenia byłyby również mile widziane. edytuj: Od kiedy opublikowałem pytanie, …
To pytanie ma już odpowiedzi tutaj : Algorytm propagacji wstecznej (2 odpowiedzi) Zamknięte 4 miesiące temu . Co to jest algorytm wstecznej propagacji i jak on działa?
Gdy odkrywam uczenie maszynowe, widzę różne interesujące techniki, takie jak: automatycznie dostraja algorytmy za pomocą technik takich jak grid search, uzyskać bardziej dokładne wyniki dzięki połączeniu różnych algorytmów tego samego „typ”, to jest boosting, uzyskać bardziej dokładne wyniki dzięki połączeniu różnych algorytmów (ale nie ten sam rodzaj algorytmów), to stacking, …
Wiem, jak wykonać PCA (analiza głównego składnika), ale chciałbym poznać kroki, które należy zastosować do analizy czynnikowej. Aby wykonać PCA, rozważmy macierz , na przykład:AAA 3 1 -1 2 4 0 4 -2 -5 11 22 20 Obliczyłem jej macierz korelacji B = corr(A): 1.0000 0.9087 0.9250 0.9087 1.0000 0.9970 …
Czy możesz mi wyjaśnić algorytmy eksploracji danych i sztucznej inteligencji? Do jakiej bazy matematycznej używali? Czy mógłbyś mi dać punkt wyjścia, w matematyce, do zrozumienia tego rodzaju algorytmów?
Mam ważoną próbkę, dla której chcę obliczyć kwantyle. 1 Najlepiej, przy czym masy są takie same (zarówno = 1 lub inaczej), wyniki mogą być zgodne z tymi, scipy.stats.scoreatpercentile()i R: quantile(...,type=7). Jednym prostym podejściem byłoby „pomnożenie” próbki przy użyciu podanych wag. To skutecznie daje lokalnie „płaski” plik pdf w obszarach wagi> …
Myślę, że jest to proste pytanie, chociaż uzasadnienie dlaczego lub dlaczego nie może być. Powodem, dla którego pytam, jest to, że niedawno napisałem własną implementację RF i chociaż działa on dobrze, nie działa tak dobrze, jak się spodziewałem (na podstawie zestawu danych konkursowych Kaggle Photo Quality Prediction , zwycięskich wyników …
Czy istnieje stabilny numerycznie sposób obliczania wartości rozkładu beta dla dużej liczby całkowitej alfa, beta (np. Alfa, beta> 1000000)? Właściwie potrzebuję tylko 99% przedziału ufności wokół trybu, jeśli to w jakiś sposób ułatwi problem. Dodaj : Przepraszam, moje pytanie nie było tak jasno określone, jak myślałem. Chcę to zrobić: mam …
Muszę uzyskać jak najdokładniejszą wartość jasności głównie stabilnego źródła światła, biorąc pod uwagę dwanaście wartości jasności próbki. Czujnik jest niedoskonały, a światło może czasami „migotać” jaśniej lub ciemniej, co można zignorować, stąd moja potrzeba wykrycia wartości odstających (myślę?). Przeczytałem tutaj o różnych podejściach i nie mogę się zdecydować, które wybrać. …
Wikipedia mówi, że: Wymiar VC to liczność największego zestawu punktów, które algorytm może rozbić. Na przykład klasyfikator liniowy ma liczność n + 1. Moje pytanie brzmi: dlaczego nas to obchodzi? Większość zestawów danych, na których dokonuje się klasyfikacji liniowej, ma zwykle bardzo duże rozmiary i zawiera wiele punktów.
Używamy plików cookie i innych technologii śledzenia w celu poprawy komfortu przeglądania naszej witryny, aby wyświetlać spersonalizowane treści i ukierunkowane reklamy, analizować ruch w naszej witrynie, i zrozumieć, skąd pochodzą nasi goście.
Kontynuując, wyrażasz zgodę na korzystanie z plików cookie i innych technologii śledzenia oraz potwierdzasz, że masz co najmniej 16 lat lub zgodę rodzica lub opiekuna.